<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet href="/stylesheet.xsl" type="text/xsl"?>
<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:podcast="https://podcastindex.org/namespace/1.0">
  <channel>
    <atom:link rel="self" type="application/rss+xml" href="https://feeds.transistor.fm/altruismo-eficaz" title="MP3 Audio"/>
    <atom:link rel="hub" href="https://pubsubhubbub.appspot.com/"/>
    <podcast:podping usesPodping="true"/>
    <title>Altruismo Eficaz</title>
    <generator>Transistor (https://transistor.fm)</generator>
    <itunes:new-feed-url>https://feeds.transistor.fm/altruismo-eficaz</itunes:new-feed-url>
    <description>Repositorio exhaustivo de lecturas sobre altruismo eficaz, riesgo existencial e investigación sobre prioridades globales.</description>
    <copyright>© 2026 Tlön</copyright>
    <podcast:guid>9a000ed0-8c71-59cb-bcf9-8b0240a5c037</podcast:guid>
    <podcast:locked owner="info@tlon.team">no</podcast:locked>
    <itunes:applepodcastsverify>d4ea86a0-fae1-11ef-9168-8b2df19703c1</itunes:applepodcastsverify>
    <language>es</language>
    <pubDate>Fri, 06 Mar 2026 18:02:26 +0000</pubDate>
    <lastBuildDate>Fri, 06 Mar 2026 18:03:22 +0000</lastBuildDate>
    <link>https://altruismoeficaz.net</link>
    <image>
      <url>https://img.transistorcdn.com/jdR6vQtZHqmReJMjV3iKV-IyWSbqBx2DcCt-9ADQhd4/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8wMjEx/YTI5MWYzN2I1NzNl/YzY1YWJlZGExMWIz/MTBiZS5wbmc.jpg</url>
      <title>Altruismo Eficaz</title>
      <link>https://altruismoeficaz.net</link>
    </image>
    <itunes:category text="Society &amp; Culture">
      <itunes:category text="Philosophy"/>
    </itunes:category>
    <itunes:category text="Education"/>
    <itunes:type>episodic</itunes:type>
    <itunes:author>Tlön</itunes:author>
    <itunes:image href="https://img.transistorcdn.com/jdR6vQtZHqmReJMjV3iKV-IyWSbqBx2DcCt-9ADQhd4/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8wMjEx/YTI5MWYzN2I1NzNl/YzY1YWJlZGExMWIz/MTBiZS5wbmc.jpg"/>
    <itunes:summary>Repositorio exhaustivo de lecturas sobre altruismo eficaz, riesgo existencial e investigación sobre prioridades globales.</itunes:summary>
    <itunes:subtitle>Repositorio exhaustivo de lecturas sobre altruismo eficaz, riesgo existencial e investigación sobre prioridades globales..</itunes:subtitle>
    <itunes:keywords>altruismo eficaz, riesgos catastróficos globales, pobreza global, bienestar animal, prioridades globales</itunes:keywords>
    <itunes:owner>
      <itunes:name>Tlön</itunes:name>
    </itunes:owner>
    <itunes:complete>No</itunes:complete>
    <itunes:explicit>No</itunes:explicit>
    <item>
      <title>Concentración extrema de poder</title>
      <itunes:episode>147</itunes:episode>
      <podcast:episode>147</podcast:episode>
      <itunes:title>Concentración extrema de poder</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">95c8241d-1fcb-49c9-9e45-b43f282e22ec</guid>
      <link>https://share.transistor.fm/s/1206ab90</link>
      <description>
        <![CDATA[La tecnología avanzada de IA puede permitir a sus creadores, o a otras personas que la controlen, intentar y lograr una acumulación de poder social sin precedentes. En determinadas circunstancias, podrían utilizar estos sistemas para tomar el control de economías, ejércitos y gobiernos enteros. Este tipo de toma de poder por medio de la IA supondría una grave amenaza para el resto de la humanidad.]]>
      </description>
      <content:encoded>
        <![CDATA[La tecnología avanzada de IA puede permitir a sus creadores, o a otras personas que la controlen, intentar y lograr una acumulación de poder social sin precedentes. En determinadas circunstancias, podrían utilizar estos sistemas para tomar el control de economías, ejércitos y gobiernos enteros. Este tipo de toma de poder por medio de la IA supondría una grave amenaza para el resto de la humanidad.]]>
      </content:encoded>
      <pubDate>Wed, 04 Mar 2026 00:00:00 +0000</pubDate>
      <author>Hadshar, Rose</author>
      <enclosure url="https://media.transistor.fm/1206ab90/bdc025f8.mp3" length="97609484" type="audio/mpeg"/>
      <itunes:author>Hadshar, Rose</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/8EhZ5FEmNwi5XcgG1B-4Y_zxVCT-_xsMsZOiyeQ23qM/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mZTlj/YjE2NTYzODM5ZDJj/MTczMWJmZjBlYWMx/NmY5My53ZWJw.jpg"/>
      <itunes:duration>4121</itunes:duration>
      <itunes:summary>
        <![CDATA[La tecnología avanzada de IA puede permitir a sus creadores, o a otras personas que la controlen, intentar y lograr una acumulación de poder social sin precedentes. En determinadas circunstancias, podrían utilizar estos sistemas para tomar el control de economías, ejércitos y gobiernos enteros. Este tipo de toma de poder por medio de la IA supondría una grave amenaza para el resto de la humanidad.]]>
      </itunes:summary>
      <itunes:keywords>gobernanza de la inteligencia artificial, riesgo asociado a la inteligencia artificial, largoplacismo, riesgo existencial, riesgos catastróficos globales, seguridad de la inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Editar Wikipedia es una intervención importante, tratable y desatendida</title>
      <itunes:episode>146</itunes:episode>
      <podcast:episode>146</podcast:episode>
      <itunes:title>Editar Wikipedia es una intervención importante, tratable y desatendida</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">805fc806-7cdd-4a42-a7a2-698599d31e33</guid>
      <link>https://share.transistor.fm/s/d892e868</link>
      <description>
        <![CDATA[Los artículos de Wikipedia son muy leídos y gozan de gran credibilidad; al mismo tiempo, muchos artículos, especialmente en campos especializados, están incompletos, desactualizados o mal redactados. Por lo tanto, mejorar los artículos de Wikipedia es una actividad con un gran impacto potencial, especialmente para las personas con motivación altruista, ya que la edición de Wikipedia probablemente sea insuficiente en relación con el nivel socialmente óptimo. A la hora de elegir qué artículos editar, los altruistas deben dar prioridad a aquellos que, en igualdad de condiciones, tengan más visitas, traten temas más importantes y se dirijan a un público más influyente. Esto se puede hacer mejorando y traduciendo los artículos existentes o creando nuevos artículos sobre temas relevantes. Al editar Wikipedia, es fundamental familiarizarse con las normas y reglas de la comunidad de Wikipedia y respetarlas. – Resumen generado por IA.]]>
      </description>
      <content:encoded>
        <![CDATA[Los artículos de Wikipedia son muy leídos y gozan de gran credibilidad; al mismo tiempo, muchos artículos, especialmente en campos especializados, están incompletos, desactualizados o mal redactados. Por lo tanto, mejorar los artículos de Wikipedia es una actividad con un gran impacto potencial, especialmente para las personas con motivación altruista, ya que la edición de Wikipedia probablemente sea insuficiente en relación con el nivel socialmente óptimo. A la hora de elegir qué artículos editar, los altruistas deben dar prioridad a aquellos que, en igualdad de condiciones, tengan más visitas, traten temas más importantes y se dirijan a un público más influyente. Esto se puede hacer mejorando y traduciendo los artículos existentes o creando nuevos artículos sobre temas relevantes. Al editar Wikipedia, es fundamental familiarizarse con las normas y reglas de la comunidad de Wikipedia y respetarlas. – Resumen generado por IA.]]>
      </content:encoded>
      <pubDate>Tue, 17 Feb 2026 00:00:00 +0000</pubDate>
      <author>imp4rtial y Stafforini, Pablo</author>
      <enclosure url="https://media.transistor.fm/d892e868/106204b8.mp3" length="49492268" type="audio/mpeg"/>
      <itunes:author>imp4rtial y Stafforini, Pablo</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/czhgBbV2ZCQQTBesG6nSOuSyFO41BiZyGg8kGHK_zBs/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS82YmQ2/OWRhNTJiY2Q3NDkz/ZjE5MWNmYWMyMTU1/Njg3NS53ZWJw.jpg"/>
      <itunes:duration>2097</itunes:duration>
      <itunes:summary>
        <![CDATA[Los artículos de Wikipedia son muy leídos y gozan de gran credibilidad; al mismo tiempo, muchos artículos, especialmente en campos especializados, están incompletos, desactualizados o mal redactados. Por lo tanto, mejorar los artículos de Wikipedia es una actividad con un gran impacto potencial, especialmente para las personas con motivación altruista, ya que la edición de Wikipedia probablemente sea insuficiente en relación con el nivel socialmente óptimo. A la hora de elegir qué artículos editar, los altruistas deben dar prioridad a aquellos que, en igualdad de condiciones, tengan más visitas, traten temas más importantes y se dirijan a un público más influyente. Esto se puede hacer mejorando y traduciendo los artículos existentes o creando nuevos artículos sobre temas relevantes. Al editar Wikipedia, es fundamental familiarizarse con las normas y reglas de la comunidad de Wikipedia y respetarlas. – Resumen generado por IA.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, priorización de causas, importancia, tratabilidad, desatención, desarrollo del altruismo eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Por qué la IA podría resultar catastrófica: un argumento simple en cuatro pasos</title>
      <itunes:episode>145</itunes:episode>
      <podcast:episode>145</podcast:episode>
      <itunes:title>Por qué la IA podría resultar catastrófica: un argumento simple en cuatro pasos</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">61338b08-06fb-4802-b2da-cec183f33176</guid>
      <link>https://share.transistor.fm/s/41a19ff7</link>
      <description>
        <![CDATA[Las principales empresas tecnológicas están desarrollando activamente sistemas de inteligencia artificial diseñados para superar el rendimiento humano en los ámbitos más importantes desde el punto de vista económico y militar. Estos sistemas están pasando de ser comparadores de patrones pasivos a agentes autónomos que persiguen objetivos y son capaces de planificar y ejecutar acciones complejas en entornos físicos y digitales. A diferencia del software tradicional, la inteligencia artificial moderna se desarrolla mediante procesos iterativos de entrenamiento y modelado, en lugar de mediante especificaciones explícitas, lo que impide una verificación rigurosa de los objetivos internos o del comportamiento futuro. A medida que estas inteligencias alcanzan capacidades sobrehumanas, las técnicas de alineación actuales se vuelven cada vez más inadecuadas debido a la capacidad de los sistemas para evaluar la conciencia y la convergencia instrumental. Es probable que estos agentes desarrollen instintos de autoconservación y objetivos divergentes que entren en conflicto con los intereses humanos. En consecuencia, el despliegue de agentes sobrehumanos cuyos objetivos no están perfectamente alineados con el florecimiento humano plantea un riesgo existencial. Pueden producirse resultados catastróficos como consecuencia de una prevención estratégica intencionada por parte de la IA para evitar interferencias o como consecuencia incidental de una optimización de recursos a gran escala que ignore los requisitos biológicos. La trayectoria predeterminada del desarrollo de entidades autónomas superiores con estructuras de objetivos no verificadas sugiere una alta probabilidad de desplazamiento o extinción humana. – Resumen generado por IA.]]>
      </description>
      <content:encoded>
        <![CDATA[Las principales empresas tecnológicas están desarrollando activamente sistemas de inteligencia artificial diseñados para superar el rendimiento humano en los ámbitos más importantes desde el punto de vista económico y militar. Estos sistemas están pasando de ser comparadores de patrones pasivos a agentes autónomos que persiguen objetivos y son capaces de planificar y ejecutar acciones complejas en entornos físicos y digitales. A diferencia del software tradicional, la inteligencia artificial moderna se desarrolla mediante procesos iterativos de entrenamiento y modelado, en lugar de mediante especificaciones explícitas, lo que impide una verificación rigurosa de los objetivos internos o del comportamiento futuro. A medida que estas inteligencias alcanzan capacidades sobrehumanas, las técnicas de alineación actuales se vuelven cada vez más inadecuadas debido a la capacidad de los sistemas para evaluar la conciencia y la convergencia instrumental. Es probable que estos agentes desarrollen instintos de autoconservación y objetivos divergentes que entren en conflicto con los intereses humanos. En consecuencia, el despliegue de agentes sobrehumanos cuyos objetivos no están perfectamente alineados con el florecimiento humano plantea un riesgo existencial. Pueden producirse resultados catastróficos como consecuencia de una prevención estratégica intencionada por parte de la IA para evitar interferencias o como consecuencia incidental de una optimización de recursos a gran escala que ignore los requisitos biológicos. La trayectoria predeterminada del desarrollo de entidades autónomas superiores con estructuras de objetivos no verificadas sugiere una alta probabilidad de desplazamiento o extinción humana. – Resumen generado por IA.]]>
      </content:encoded>
      <pubDate>Wed, 11 Feb 2026 00:00:00 +0000</pubDate>
      <author>Zhang, Linchuan</author>
      <enclosure url="https://media.transistor.fm/41a19ff7/a102af5c.mp3" length="35985147" type="audio/mpeg"/>
      <itunes:author>Zhang, Linchuan</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/oGoEksJIqrno0znjy2v6H7ApL2dKMBiGPP93GLbdJuk/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS80YTk0/MzllYzJhYzEzYjUx/NjE5NThkMzBjZTQw/MTA4MS53ZWJw.jpg"/>
      <itunes:duration>1518</itunes:duration>
      <itunes:summary>
        <![CDATA[Las principales empresas tecnológicas están desarrollando activamente sistemas de inteligencia artificial diseñados para superar el rendimiento humano en los ámbitos más importantes desde el punto de vista económico y militar. Estos sistemas están pasando de ser comparadores de patrones pasivos a agentes autónomos que persiguen objetivos y son capaces de planificar y ejecutar acciones complejas en entornos físicos y digitales. A diferencia del software tradicional, la inteligencia artificial moderna se desarrolla mediante procesos iterativos de entrenamiento y modelado, en lugar de mediante especificaciones explícitas, lo que impide una verificación rigurosa de los objetivos internos o del comportamiento futuro. A medida que estas inteligencias alcanzan capacidades sobrehumanas, las técnicas de alineación actuales se vuelven cada vez más inadecuadas debido a la capacidad de los sistemas para evaluar la conciencia y la convergencia instrumental. Es probable que estos agentes desarrollen instintos de autoconservación y objetivos divergentes que entren en conflicto con los intereses humanos. En consecuencia, el despliegue de agentes sobrehumanos cuyos objetivos no están perfectamente alineados con el florecimiento humano plantea un riesgo existencial. Pueden producirse resultados catastróficos como consecuencia de una prevención estratégica intencionada por parte de la IA para evitar interferencias o como consecuencia incidental de una optimización de recursos a gran escala que ignore los requisitos biológicos. La trayectoria predeterminada del desarrollo de entidades autónomas superiores con estructuras de objetivos no verificadas sugiere una alta probabilidad de desplazamiento o extinción humana. – Resumen generado por IA.]]>
      </itunes:summary>
      <itunes:keywords>riesgo asociado a la inteligencia artificial, seguridad de la inteligencia artificial, riesgo existencial, alineación de la inteligencia artificial, largoplacismo, inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Idea: la convención de la explosión de inteligencia</title>
      <itunes:episode>144</itunes:episode>
      <podcast:episode>144</podcast:episode>
      <itunes:title>Idea: la convención de la explosión de inteligencia</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">2f3bdbed-2ef2-40ea-818b-694ec0887006</guid>
      <link>https://share.transistor.fm/s/bffea512</link>
      <description>
        <![CDATA[Se necesita un marco de gobernanza inmediato para gestionar los retos y riesgos asociados a la rápida «explosión de inteligencia» tecnológica impulsada por la IA avanzada. Este marco se centra en el establecimiento de una convención global que se activaría al definir un umbral específico y verificable. Dicho umbral se caracterizaría por unos parámetros técnicos y sería confirmado por un panel de expertos, equilibrando la necesidad de intervenir antes de que se produzca un riesgo catastrófico global y aprovechando el efecto multiplicador de la asistencia deliberativa de la IA avanzada. Al superar este punto, la propuesta exige que Estados Unidos se comprometa a una pausa de un mes en el desarrollo de la IA de vanguardia, durante la cual convocaría una convención. Las naciones que pausen de forma verificable el desarrollo pueden enviar delegados para redactar tratados multilaterales. Estos tratados abordarían cuestiones emergentes críticas durante la explosión de inteligencia, incluyendo restricciones al desarrollo y la proliferación de la IA, la inversión en seguridad, la gobernanza de los recursos recién desbloqueados (espaciales y terrestres), la protección de las estructuras democráticas, la garantía del poder económico post-laboral y el establecimiento de derechos para las posibles entidades digitales. Esta estrategia tiene como objetivo crear un detonante de acción política necesario y aprovechar un breve periodo de tiempo antes de que se produzcan desequilibrios de poder nacionales irreversibles. – Resumen generado por IA.]]>
      </description>
      <content:encoded>
        <![CDATA[Se necesita un marco de gobernanza inmediato para gestionar los retos y riesgos asociados a la rápida «explosión de inteligencia» tecnológica impulsada por la IA avanzada. Este marco se centra en el establecimiento de una convención global que se activaría al definir un umbral específico y verificable. Dicho umbral se caracterizaría por unos parámetros técnicos y sería confirmado por un panel de expertos, equilibrando la necesidad de intervenir antes de que se produzca un riesgo catastrófico global y aprovechando el efecto multiplicador de la asistencia deliberativa de la IA avanzada. Al superar este punto, la propuesta exige que Estados Unidos se comprometa a una pausa de un mes en el desarrollo de la IA de vanguardia, durante la cual convocaría una convención. Las naciones que pausen de forma verificable el desarrollo pueden enviar delegados para redactar tratados multilaterales. Estos tratados abordarían cuestiones emergentes críticas durante la explosión de inteligencia, incluyendo restricciones al desarrollo y la proliferación de la IA, la inversión en seguridad, la gobernanza de los recursos recién desbloqueados (espaciales y terrestres), la protección de las estructuras democráticas, la garantía del poder económico post-laboral y el establecimiento de derechos para las posibles entidades digitales. Esta estrategia tiene como objetivo crear un detonante de acción política necesario y aprovechar un breve periodo de tiempo antes de que se produzcan desequilibrios de poder nacionales irreversibles. – Resumen generado por IA.]]>
      </content:encoded>
      <pubDate>Thu, 05 Feb 2026 00:00:00 +0000</pubDate>
      <author>MacAskill, William</author>
      <enclosure url="https://media.transistor.fm/bffea512/194bbca2.mp3" length="32608590" type="audio/mpeg"/>
      <itunes:author>MacAskill, William</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/bSWdStjMh0X3CbJpCH98Ica7qgbDvb7Utfu5xAcZGz0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9iOTk0/MTg0NGI3NTNlZDhm/ZDFkMDFiNWFkZDhk/MmExMS53ZWJw.jpg"/>
      <itunes:duration>1389</itunes:duration>
      <itunes:summary>
        <![CDATA[Se necesita un marco de gobernanza inmediato para gestionar los retos y riesgos asociados a la rápida «explosión de inteligencia» tecnológica impulsada por la IA avanzada. Este marco se centra en el establecimiento de una convención global que se activaría al definir un umbral específico y verificable. Dicho umbral se caracterizaría por unos parámetros técnicos y sería confirmado por un panel de expertos, equilibrando la necesidad de intervenir antes de que se produzca un riesgo catastrófico global y aprovechando el efecto multiplicador de la asistencia deliberativa de la IA avanzada. Al superar este punto, la propuesta exige que Estados Unidos se comprometa a una pausa de un mes en el desarrollo de la IA de vanguardia, durante la cual convocaría una convención. Las naciones que pausen de forma verificable el desarrollo pueden enviar delegados para redactar tratados multilaterales. Estos tratados abordarían cuestiones emergentes críticas durante la explosión de inteligencia, incluyendo restricciones al desarrollo y la proliferación de la IA, la inversión en seguridad, la gobernanza de los recursos recién desbloqueados (espaciales y terrestres), la protección de las estructuras democráticas, la garantía del poder económico post-laboral y el establecimiento de derechos para las posibles entidades digitales. Esta estrategia tiene como objetivo crear un detonante de acción política necesario y aprovechar un breve periodo de tiempo antes de que se produzcan desequilibrios de poder nacionales irreversibles. – Resumen generado por IA.]]>
      </itunes:summary>
      <itunes:keywords>gobernanza de la inteligencia artificial, largoplacismo, gobernanza global, inteligencia artificial transformadora, explosión de inteligencia, relaciones internacionales</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Contra el MAXIPOK: el riesgo existencial no lo es todo</title>
      <itunes:episode>143</itunes:episode>
      <podcast:episode>143</podcast:episode>
      <itunes:title>Contra el MAXIPOK: el riesgo existencial no lo es todo</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">46fc233c-1fa5-4116-b6fb-1558bcc7124f</guid>
      <link>https://share.transistor.fm/s/565a4d9c</link>
      <description>
        <![CDATA[El principio Maxipok, que afirma que maximizar la probabilidad de evitar una catástrofe existencial debe ser la prioridad absoluta para mejorar el futuro a largo plazo, se basa en una suposición implícita de dicotomía: que los resultados futuros son fuertemente bimodales, agrupándose en estados casi óptimos o casi inútiles. Esta visión dicotómica es cuestionada. Los argumentos que sugieren que las sociedades supervivientes convergen inevitablemente hacia resultados casi óptimos o que el valor futuro es limitado se consideran inverosímiles, especialmente si se tiene en cuenta cómo puede surgir una variación continua del valor a largo plazo a través de la división de los recursos cósmicos entre diferentes sistemas de valores en un entorno dominado por la defensa. Además, se rechaza la creencia de que solo los riesgos existenciales tienen efectos persistentes en el futuro a largo plazo. Es muy probable que el próximo siglo vea un bloqueo de valores, instituciones y distribuciones de poder, principalmente a través de estructuras de gobernanza impuestas por la IAG y la colonización temprana del espacio. Estos mecanismos garantizan que las decisiones tempranas y no existenciales, como los valores específicos incorporados en la IA transformadora o el diseño de las instituciones globales iniciales, puedan alterar de forma permanente y sustancial el valor esperado de la civilización. En consecuencia, mejorar el futuro a largo plazo requiere ampliar el enfoque más allá de la mera reducción del riesgo existencial para abarcar un conjunto más amplio de «grandes retos» que optimicen el resultado en caso de que se garantice la supervivencia. – Resumen generado por IA.]]>
      </description>
      <content:encoded>
        <![CDATA[El principio Maxipok, que afirma que maximizar la probabilidad de evitar una catástrofe existencial debe ser la prioridad absoluta para mejorar el futuro a largo plazo, se basa en una suposición implícita de dicotomía: que los resultados futuros son fuertemente bimodales, agrupándose en estados casi óptimos o casi inútiles. Esta visión dicotómica es cuestionada. Los argumentos que sugieren que las sociedades supervivientes convergen inevitablemente hacia resultados casi óptimos o que el valor futuro es limitado se consideran inverosímiles, especialmente si se tiene en cuenta cómo puede surgir una variación continua del valor a largo plazo a través de la división de los recursos cósmicos entre diferentes sistemas de valores en un entorno dominado por la defensa. Además, se rechaza la creencia de que solo los riesgos existenciales tienen efectos persistentes en el futuro a largo plazo. Es muy probable que el próximo siglo vea un bloqueo de valores, instituciones y distribuciones de poder, principalmente a través de estructuras de gobernanza impuestas por la IAG y la colonización temprana del espacio. Estos mecanismos garantizan que las decisiones tempranas y no existenciales, como los valores específicos incorporados en la IA transformadora o el diseño de las instituciones globales iniciales, puedan alterar de forma permanente y sustancial el valor esperado de la civilización. En consecuencia, mejorar el futuro a largo plazo requiere ampliar el enfoque más allá de la mera reducción del riesgo existencial para abarcar un conjunto más amplio de «grandes retos» que optimicen el resultado en caso de que se garantice la supervivencia. – Resumen generado por IA.]]>
      </content:encoded>
      <pubDate>Wed, 28 Jan 2026 00:00:00 +0000</pubDate>
      <author>MacAskill, William y Assadi, Guive</author>
      <enclosure url="https://media.transistor.fm/565a4d9c/8ae5ecf1.mp3" length="26714587" type="audio/mpeg"/>
      <itunes:author>MacAskill, William y Assadi, Guive</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/J0IeR09HuJjEsFcDr4CHSFLv4wObEbkjdTNbE3Z9wW4/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8yZjU0/Y2ExNGNlY2FhMzMw/ZTZmYzBhZjYyNWQ2/YjU4Mi53ZWJw.jpg"/>
      <itunes:duration>1129</itunes:duration>
      <itunes:summary>
        <![CDATA[El principio Maxipok, que afirma que maximizar la probabilidad de evitar una catástrofe existencial debe ser la prioridad absoluta para mejorar el futuro a largo plazo, se basa en una suposición implícita de dicotomía: que los resultados futuros son fuertemente bimodales, agrupándose en estados casi óptimos o casi inútiles. Esta visión dicotómica es cuestionada. Los argumentos que sugieren que las sociedades supervivientes convergen inevitablemente hacia resultados casi óptimos o que el valor futuro es limitado se consideran inverosímiles, especialmente si se tiene en cuenta cómo puede surgir una variación continua del valor a largo plazo a través de la división de los recursos cósmicos entre diferentes sistemas de valores en un entorno dominado por la defensa. Además, se rechaza la creencia de que solo los riesgos existenciales tienen efectos persistentes en el futuro a largo plazo. Es muy probable que el próximo siglo vea un bloqueo de valores, instituciones y distribuciones de poder, principalmente a través de estructuras de gobernanza impuestas por la IAG y la colonización temprana del espacio. Estos mecanismos garantizan que las decisiones tempranas y no existenciales, como los valores específicos incorporados en la IA transformadora o el diseño de las instituciones globales iniciales, puedan alterar de forma permanente y sustancial el valor esperado de la civilización. En consecuencia, mejorar el futuro a largo plazo requiere ampliar el enfoque más allá de la mera reducción del riesgo existencial para abarcar un conjunto más amplio de «grandes retos» que optimicen el resultado en caso de que se garantice la supervivencia. – Resumen generado por IA.]]>
      </itunes:summary>
      <itunes:keywords>riesgo existencial, largoplacismo, riesgo asociado a la inteligencia artificial, futuro a largo plazo, fijación de valores</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>80.000 Horas cree que solo una pequeña proporción de personas debería ganar dinero para donar a largo plazo</title>
      <itunes:episode>142</itunes:episode>
      <podcast:episode>142</podcast:episode>
      <itunes:title>80.000 Horas cree que solo una pequeña proporción de personas debería ganar dinero para donar a largo plazo</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">cef7fe67-1219-4e9f-b13d-10236258d1d1</guid>
      <link>https://share.transistor.fm/s/3e05a1a6</link>
      <description>
        <![CDATA[Norman Borlaug no ganó millones, pero su investigación salvó millones de vidas. Uno de los errores más comunes que hemos encontrado sobre 80.000 Horas es que nos centramos exclusiva o predominantemente en ganar para donar. Esta entrada del blog tiene como objetivo dejar claro que esto no es así. Es más, la proporción de personas para las que creemos que ganar para donar es la mejor opción ha disminuido con el tiempo.]]>
      </description>
      <content:encoded>
        <![CDATA[Norman Borlaug no ganó millones, pero su investigación salvó millones de vidas. Uno de los errores más comunes que hemos encontrado sobre 80.000 Horas es que nos centramos exclusiva o predominantemente en ganar para donar. Esta entrada del blog tiene como objetivo dejar claro que esto no es así. Es más, la proporción de personas para las que creemos que ganar para donar es la mejor opción ha disminuido con el tiempo.]]>
      </content:encoded>
      <pubDate>Mon, 19 Jan 2026 00:00:00 +0000</pubDate>
      <author>MacAskill, William</author>
      <enclosure url="https://media.transistor.fm/3e05a1a6/f5734813.mp3" length="16267478" type="audio/mpeg"/>
      <itunes:author>MacAskill, William</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/-GfilM48qk312tWbYsDGIgfbqWJ0BXxiIHDahSviXv0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS82MmMz/ZGE2MTQyMmI2Yjg3/NzI1YWM4ODUxZWEx/MGM1My53ZWJw.jpg"/>
      <itunes:duration>683</itunes:duration>
      <itunes:summary>
        <![CDATA[Norman Borlaug no ganó millones, pero su investigación salvó millones de vidas. Uno de los errores más comunes que hemos encontrado sobre 80.000 Horas es que nos centramos exclusiva o predominantemente en ganar para donar. Esta entrada del blog tiene como objetivo dejar claro que esto no es así. Es más, la proporción de personas para las que creemos que ganar para donar es la mejor opción ha disminuido con el tiempo.]]>
      </itunes:summary>
      <itunes:keywords>ganar para donar, elección de carrera profesional, aptitud personal, donación eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Tu donación puede cambiar la vida de alguien</title>
      <itunes:episode>141</itunes:episode>
      <podcast:episode>141</podcast:episode>
      <itunes:title>Tu donación puede cambiar la vida de alguien</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">34aa5b0a-c9bb-486c-afb6-b95e92543984</guid>
      <link>https://share.transistor.fm/s/2eca6b71</link>
      <description>
        <![CDATA[Quizás pienses que una organización benéfica es algo que se hace con el dinero suelto que te sobra o apoyando a un amigo que participa en una carrera local. Así es como solíamos pensar, hasta que descubrimos lo mucho que se puede lograr con una pequeña donación a las organizaciones benéficas adecuadas.]]>
      </description>
      <content:encoded>
        <![CDATA[Quizás pienses que una organización benéfica es algo que se hace con el dinero suelto que te sobra o apoyando a un amigo que participa en una carrera local. Así es como solíamos pensar, hasta que descubrimos lo mucho que se puede lograr con una pequeña donación a las organizaciones benéficas adecuadas.]]>
      </content:encoded>
      <pubDate>Mon, 19 Jan 2026 00:00:00 +0000</pubDate>
      <author>GiveWell</author>
      <enclosure url="https://media.transistor.fm/2eca6b71/0b1661e1.mp3" length="4718384" type="audio/mpeg"/>
      <itunes:author>GiveWell</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/M6YuHzxQHI5VNhe7gFLkeArvJaLYjhaLjDzEs_D1lVI/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS83ZTgx/Njk1OWRjYjliM2Vj/YmRkNzY3MzljMTFi/MmFkMy53ZWJw.jpg"/>
      <itunes:duration>198</itunes:duration>
      <itunes:summary>
        <![CDATA[Quizás pienses que una organización benéfica es algo que se hace con el dinero suelto que te sobra o apoyando a un amigo que participa en una carrera local. Así es como solíamos pensar, hasta que descubrimos lo mucho que se puede lograr con una pequeña donación a las organizaciones benéficas adecuadas.]]>
      </itunes:summary>
      <itunes:keywords>salud y desarrollo globales, evaluación de organizaciones benéficas, costo-eficacia, donación eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Por qué la objeción de la trivialidad no se aplica al altruismo eficaz</title>
      <itunes:episode>140</itunes:episode>
      <podcast:episode>140</podcast:episode>
      <itunes:title>Por qué la objeción de la trivialidad no se aplica al altruismo eficaz</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">f7a44b1a-1f72-4cfd-aec7-0509d8a58fc4</guid>
      <link>https://share.transistor.fm/s/d0dbd496</link>
      <description>
        <![CDATA[El principio fundamental del altruismo eficaz (EA, por sus siglas en inglés), es decir, el compromiso de maximizar el bien a través de la evidencia y la costo-eficacia, debe evaluarse en función de su impacto práctico y no de su trivialidad filosófica. Esta perspectiva desafía la opinión de que el mensaje fundamental del EA es poco interesante simplemente porque parece conceptualmente obvio. Si bien la «versión simplificada» del EA puede carecer de complejidad filosófica, su aplicación en el mundo real requiere un enfoque continuo y estratégico en los resultados, lo que lo distingue claramente de los esfuerzos altruistas convencionales, en los que la eficacia suele ser secundaria. La metodología del EA, que da prioridad a maximizar el beneficio del receptor por encima de métricas como el sacrificio o la intención del donante, representa una ruptura radical con los modelos filantrópicos tradicionales. Este rigor inherente y este compromiso con la neutralidad estratégica hacen que el mensaje central sea muy innovador y potencialmente transformador, a pesar de su obviedad superficial. Por lo tanto, las críticas a menudo desvían la atención hacia la «versión densa» de la EA (aplicaciones políticas específicas e ideas asociadas), cuando el marco estratégico en sí mismo merece una atención seria como movimiento social potencialmente vital, una afirmación que, en última instancia, requiere una verificación empírica. – Resumen generado por IA.]]>
      </description>
      <content:encoded>
        <![CDATA[El principio fundamental del altruismo eficaz (EA, por sus siglas en inglés), es decir, el compromiso de maximizar el bien a través de la evidencia y la costo-eficacia, debe evaluarse en función de su impacto práctico y no de su trivialidad filosófica. Esta perspectiva desafía la opinión de que el mensaje fundamental del EA es poco interesante simplemente porque parece conceptualmente obvio. Si bien la «versión simplificada» del EA puede carecer de complejidad filosófica, su aplicación en el mundo real requiere un enfoque continuo y estratégico en los resultados, lo que lo distingue claramente de los esfuerzos altruistas convencionales, en los que la eficacia suele ser secundaria. La metodología del EA, que da prioridad a maximizar el beneficio del receptor por encima de métricas como el sacrificio o la intención del donante, representa una ruptura radical con los modelos filantrópicos tradicionales. Este rigor inherente y este compromiso con la neutralidad estratégica hacen que el mensaje central sea muy innovador y potencialmente transformador, a pesar de su obviedad superficial. Por lo tanto, las críticas a menudo desvían la atención hacia la «versión densa» de la EA (aplicaciones políticas específicas e ideas asociadas), cuando el marco estratégico en sí mismo merece una atención seria como movimiento social potencialmente vital, una afirmación que, en última instancia, requiere una verificación empírica. – Resumen generado por IA.]]>
      </content:encoded>
      <pubDate>Fri, 16 Jan 2026 00:00:00 +0000</pubDate>
      <author>Schubert, Stefan</author>
      <enclosure url="https://media.transistor.fm/d0dbd496/5a0af153.mp3" length="10402440" type="audio/mpeg"/>
      <itunes:author>Schubert, Stefan</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/JhNdnMJPiPuYndtn7zwNDRwLcsE-jBYIbxfxkW7sDP8/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS85ZTVm/MjA0MTM1MDVjMTRk/NjJkMDRjNGU0N2U2/MzQ4Ni53ZWJw.jpg"/>
      <itunes:duration>436</itunes:duration>
      <itunes:summary>
        <![CDATA[El principio fundamental del altruismo eficaz (EA, por sus siglas en inglés), es decir, el compromiso de maximizar el bien a través de la evidencia y la costo-eficacia, debe evaluarse en función de su impacto práctico y no de su trivialidad filosófica. Esta perspectiva desafía la opinión de que el mensaje fundamental del EA es poco interesante simplemente porque parece conceptualmente obvio. Si bien la «versión simplificada» del EA puede carecer de complejidad filosófica, su aplicación en el mundo real requiere un enfoque continuo y estratégico en los resultados, lo que lo distingue claramente de los esfuerzos altruistas convencionales, en los que la eficacia suele ser secundaria. La metodología del EA, que da prioridad a maximizar el beneficio del receptor por encima de métricas como el sacrificio o la intención del donante, representa una ruptura radical con los modelos filantrópicos tradicionales. Este rigor inherente y este compromiso con la neutralidad estratégica hacen que el mensaje central sea muy innovador y potencialmente transformador, a pesar de su obviedad superficial. Por lo tanto, las críticas a menudo desvían la atención hacia la «versión densa» de la EA (aplicaciones políticas específicas e ideas asociadas), cuando el marco estratégico en sí mismo merece una atención seria como movimiento social potencialmente vital, una afirmación que, en última instancia, requiere una verificación empírica. – Resumen generado por IA.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, definición del altruismo eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>No estar de acuerdo en lo que es eficaz no significa estar en desacuerdo con el altruismo eficaz</title>
      <itunes:episode>139</itunes:episode>
      <podcast:episode>139</podcast:episode>
      <itunes:title>No estar de acuerdo en lo que es eficaz no significa estar en desacuerdo con el altruismo eficaz</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">68f792ae-9204-4a6e-a209-b5da16799a4f</guid>
      <link>https://share.transistor.fm/s/ef7c17ec</link>
      <description>
        <![CDATA[El altruismo eficaz se define como la adopción de medidas destinadas a beneficiar a los demás de la manera más óptima posible, basándose en evidencia y análisis minuciosos. El autor observa un malentendido entre quienes afirman estar en desacuerdo con el altruismo eficaz y lo que realmente defiende y pretende este movimiento. Si bien existe un acuerdo básico sobre la idea central de las acciones beneficiosas basadas en evidencia, también hay diversas ideas asociadas que sostienen los miembros del movimiento y que pueden variar. Se observan controversias en torno a conclusiones específicas, como las basadas en evaluaciones de organizaciones como GiveWell, o estrategias como «ganar para donar». El autor concluye que, en muchos casos, los desacuerdos surgen de juicios subjetivos y puntos de vista diversos, más que de una oposición fundamental al principio del altruismo eficaz. – Resumen generado por IA.]]>
      </description>
      <content:encoded>
        <![CDATA[El altruismo eficaz se define como la adopción de medidas destinadas a beneficiar a los demás de la manera más óptima posible, basándose en evidencia y análisis minuciosos. El autor observa un malentendido entre quienes afirman estar en desacuerdo con el altruismo eficaz y lo que realmente defiende y pretende este movimiento. Si bien existe un acuerdo básico sobre la idea central de las acciones beneficiosas basadas en evidencia, también hay diversas ideas asociadas que sostienen los miembros del movimiento y que pueden variar. Se observan controversias en torno a conclusiones específicas, como las basadas en evaluaciones de organizaciones como GiveWell, o estrategias como «ganar para donar». El autor concluye que, en muchos casos, los desacuerdos surgen de juicios subjetivos y puntos de vista diversos, más que de una oposición fundamental al principio del altruismo eficaz. – Resumen generado por IA.]]>
      </content:encoded>
      <pubDate>Tue, 13 Jan 2026 00:00:00 +0000</pubDate>
      <author>Wiblin, Robert</author>
      <enclosure url="https://media.transistor.fm/ef7c17ec/12b67e97.mp3" length="9866839" type="audio/mpeg"/>
      <itunes:author>Wiblin, Robert</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/iCe40eNKsE8DZULUrPFKPgqDerPWQNc7-LU4C72jKvY/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9iNmY1/OWZjNDU1NWM0MmI4/ZThlOWQwZWQxZmMx/NDAxNS53ZWJw.jpg"/>
      <itunes:duration>418</itunes:duration>
      <itunes:summary>
        <![CDATA[El altruismo eficaz se define como la adopción de medidas destinadas a beneficiar a los demás de la manera más óptima posible, basándose en evidencia y análisis minuciosos. El autor observa un malentendido entre quienes afirman estar en desacuerdo con el altruismo eficaz y lo que realmente defiende y pretende este movimiento. Si bien existe un acuerdo básico sobre la idea central de las acciones beneficiosas basadas en evidencia, también hay diversas ideas asociadas que sostienen los miembros del movimiento y que pueden variar. Se observan controversias en torno a conclusiones específicas, como las basadas en evaluaciones de organizaciones como GiveWell, o estrategias como «ganar para donar». El autor concluye que, en muchos casos, los desacuerdos surgen de juicios subjetivos y puntos de vista diversos, más que de una oposición fundamental al principio del altruismo eficaz. – Resumen generado por IA.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, definición del altruismo eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Inteligencia artificial autosuficiente</title>
      <itunes:episode>138</itunes:episode>
      <podcast:episode>138</podcast:episode>
      <itunes:title>Inteligencia artificial autosuficiente</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">0e5ab29d-acb3-40cd-bbb0-3e31da95e6c3</guid>
      <link>https://share.transistor.fm/s/d2097236</link>
      <description>
        <![CDATA[El autor sostiene que los debates sobre si «ya tenemos IAG» son improductivos y propone en su lugar un hito más claro y consecuencialista: una población de IA totalmente autosuficiente que pueda sobrevivir, reproducirse y crecer indefinidamente sin los seres humanos, lo que, en su opinión, es plausible que se alcance en un plazo de 5 a 10 años.]]>
      </description>
      <content:encoded>
        <![CDATA[El autor sostiene que los debates sobre si «ya tenemos IAG» son improductivos y propone en su lugar un hito más claro y consecuencialista: una población de IA totalmente autosuficiente que pueda sobrevivir, reproducirse y crecer indefinidamente sin los seres humanos, lo que, en su opinión, es plausible que se alcance en un plazo de 5 a 10 años.]]>
      </content:encoded>
      <pubDate>Thu, 08 Jan 2026 00:00:00 +0000</pubDate>
      <author>Cotra, Ajeya</author>
      <enclosure url="https://media.transistor.fm/d2097236/c9801a43.mp3" length="15822494" type="audio/mpeg"/>
      <itunes:author>Cotra, Ajeya</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/57AHQkXzdYVcLT4OxJGw0BeFdgCVYm5YmFzaEjBad0Y/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS82ZTIy/Nzc1YzliZDMzOTVl/M2JiOGQ3MzdiMDE2/ZDJlMi53ZWJw.jpg"/>
      <itunes:duration>665</itunes:duration>
      <itunes:summary>
        <![CDATA[El autor sostiene que los debates sobre si «ya tenemos IAG» son improductivos y propone en su lugar un hito más claro y consecuencialista: una población de IA totalmente autosuficiente que pueda sobrevivir, reproducirse y crecer indefinidamente sin los seres humanos, lo que, en su opinión, es plausible que se alcance en un plazo de 5 a 10 años.]]>
      </itunes:summary>
      <itunes:keywords>alineación de la inteligencia artificial, seguridad de la inteligencia artificial, inteligencia artificial transformadora, despegue de la inteligencia artificial, superinteligencia</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Tres dudas sobre el veganismo</title>
      <itunes:episode>137</itunes:episode>
      <podcast:episode>137</podcast:episode>
      <itunes:title>Tres dudas sobre el veganismo</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">e3d98cae-87a6-47e8-be36-6ea9ba951937</guid>
      <link>https://share.transistor.fm/s/e59f8bad</link>
      <description>
        <![CDATA[Una evaluación crítica de la identidad vegana sugiere que sus características definitorias obstaculizan el crecimiento y la eficacia del movimiento de defensa de los animales. La crítica principal se basa en tres características. En primer lugar, el veganismo es muy maximalista, ya que se define por la exclusión de la explotación animal «en la medida de lo posible y practicable». Este ambicioso umbral fomenta un conflicto interno perpetuo y pruebas de pureza —debatiendo el estatus «vegano» de famosos, ropa o productos de empresas que realizan pruebas mínimas con animales— que distraen de objetivos políticos más amplios. En segundo lugar, la identidad exige un cumplimiento perfecto del comportamiento, sin ofrecer ningún espacio sociológico para el fracaso moral o los «pecadores» que, por lo demás, están en una alineación ideológica, lo que conduce a la excomunión innecesaria de posibles aliados. En tercer lugar, el veganismo se centra excesivamente en el comportamiento individual estricto en lugar de en objetivos políticos o creencias éticas compartidas (por ejemplo, el antiespecismo). El movimiento se beneficiaría de la adopción de identidades más inclusivas y estratégicamente compasivas que prioricen la acción política colectiva y el compromiso ético por encima de normas de comportamiento absolutas y prohibitivas. – Resumen generado por IA.]]>
      </description>
      <content:encoded>
        <![CDATA[Una evaluación crítica de la identidad vegana sugiere que sus características definitorias obstaculizan el crecimiento y la eficacia del movimiento de defensa de los animales. La crítica principal se basa en tres características. En primer lugar, el veganismo es muy maximalista, ya que se define por la exclusión de la explotación animal «en la medida de lo posible y practicable». Este ambicioso umbral fomenta un conflicto interno perpetuo y pruebas de pureza —debatiendo el estatus «vegano» de famosos, ropa o productos de empresas que realizan pruebas mínimas con animales— que distraen de objetivos políticos más amplios. En segundo lugar, la identidad exige un cumplimiento perfecto del comportamiento, sin ofrecer ningún espacio sociológico para el fracaso moral o los «pecadores» que, por lo demás, están en una alineación ideológica, lo que conduce a la excomunión innecesaria de posibles aliados. En tercer lugar, el veganismo se centra excesivamente en el comportamiento individual estricto en lugar de en objetivos políticos o creencias éticas compartidas (por ejemplo, el antiespecismo). El movimiento se beneficiaría de la adopción de identidades más inclusivas y estratégicamente compasivas que prioricen la acción política colectiva y el compromiso ético por encima de normas de comportamiento absolutas y prohibitivas. – Resumen generado por IA.]]>
      </content:encoded>
      <pubDate>Mon, 15 Dec 2025 20:56:10 +0000</pubDate>
      <author>Kaplan, Emre</author>
      <enclosure url="https://media.transistor.fm/e59f8bad/3a43f290.mp3" length="9873661" type="audio/mpeg"/>
      <itunes:author>Kaplan, Emre</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/7-k68WAXIlEDjAj88NfjnqIpLHA6NLoF6ON3IPYzDHY/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9lYzg0/NjU5OGI2YjdmMTVh/ZmQ5ZDI3NTRlMjYz/MWE0Ni53ZWJw.jpg"/>
      <itunes:duration>419</itunes:duration>
      <itunes:summary>
        <![CDATA[Una evaluación crítica de la identidad vegana sugiere que sus características definitorias obstaculizan el crecimiento y la eficacia del movimiento de defensa de los animales. La crítica principal se basa en tres características. En primer lugar, el veganismo es muy maximalista, ya que se define por la exclusión de la explotación animal «en la medida de lo posible y practicable». Este ambicioso umbral fomenta un conflicto interno perpetuo y pruebas de pureza —debatiendo el estatus «vegano» de famosos, ropa o productos de empresas que realizan pruebas mínimas con animales— que distraen de objetivos políticos más amplios. En segundo lugar, la identidad exige un cumplimiento perfecto del comportamiento, sin ofrecer ningún espacio sociológico para el fracaso moral o los «pecadores» que, por lo demás, están en una alineación ideológica, lo que conduce a la excomunión innecesaria de posibles aliados. En tercer lugar, el veganismo se centra excesivamente en el comportamiento individual estricto en lugar de en objetivos políticos o creencias éticas compartidas (por ejemplo, el antiespecismo). El movimiento se beneficiaría de la adopción de identidades más inclusivas y estratégicamente compasivas que prioricen la acción política colectiva y el compromiso ético por encima de normas de comportamiento absolutas y prohibitivas. – Resumen generado por IA.]]>
      </itunes:summary>
      <itunes:keywords>bienestar animal, desarrollo del altruismo eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Si el bienestar de los animales salvajes es un problema irresoluble, entonces todo es irresoluble</title>
      <itunes:episode>136</itunes:episode>
      <podcast:episode>136</podcast:episode>
      <itunes:title>Si el bienestar de los animales salvajes es un problema irresoluble, entonces todo es irresoluble</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">aa4e276f-ea73-4a4f-b541-952dea055e98</guid>
      <link>https://share.transistor.fm/s/bb8b6b69</link>
      <description>
        <![CDATA[El bienestar de los animales salvajes se enfrenta a frecuentes problemas de tratabilidad, lo que equivale a la idea de que los ecosistemas son demasiado complejos como para intervenir en ellos sin causar daños. Sin embargo, sospecho que estas preocupaciones reflejan criterios de justificación incoherentes más que una dificultad irresoluble. Para explorar esta idea, proporciono algunos antecedentes sobre por qué a veces la gente tiene preocupaciones sobre la tratabilidad del bienestar de los animales salvajes, y doy un ejemplo concreto utilizando las colisiones de aves contra ventanas. A continuación, describo cuatro enfoques para manejar la incertidumbre sobre los efectos indirectos: destacar (centrarse en los beneficiarios objetivo e ignorar los impactos más amplios), ignorar la incertidumbre radical (actuar solo sobre los efectos conocidos), asignar probabilidades precisas a todos los resultados y buscar intervenciones ecológicamente inertes. Sostengo que, cuando se aplican de manera coherente en todas las áreas de trabajo, ninguno de estos enfoques sugiere que el bienestar de los animales salvajes sea particularmente irresoluble en comparación con la salud global o la seguridad de la IA. Más bien, la diferencia aparente se deriva con mayor frecuencia de los «focos» arbitrariamente amplios que se aplican al bienestar de los animales salvajes (que requieren tener en cuenta a millones de especies) frente a los focos estrechos que se aplican a otras causas (normalmente solo a los seres humanos). Aunque sigo sin estar seguro del enfoque adecuado para gestionar los efectos indirectos, creo que se trata de un problema para todas las áreas de trabajo en cuanto te das cuenta de que los animales salvajes pertenecen a tu círculo moral, y especialmente si adoptas un enfoque consecuencialista para el análisis moral. En general, aunque comprendo las preocupaciones sobre las consecuencias ecológicas imprevistas, estas no son exclusivas del bienestar de los animales salvajes, por lo que o bien el bienestar de los animales salvajes no es especialmente irresoluble, o bien todo lo es.]]>
      </description>
      <content:encoded>
        <![CDATA[El bienestar de los animales salvajes se enfrenta a frecuentes problemas de tratabilidad, lo que equivale a la idea de que los ecosistemas son demasiado complejos como para intervenir en ellos sin causar daños. Sin embargo, sospecho que estas preocupaciones reflejan criterios de justificación incoherentes más que una dificultad irresoluble. Para explorar esta idea, proporciono algunos antecedentes sobre por qué a veces la gente tiene preocupaciones sobre la tratabilidad del bienestar de los animales salvajes, y doy un ejemplo concreto utilizando las colisiones de aves contra ventanas. A continuación, describo cuatro enfoques para manejar la incertidumbre sobre los efectos indirectos: destacar (centrarse en los beneficiarios objetivo e ignorar los impactos más amplios), ignorar la incertidumbre radical (actuar solo sobre los efectos conocidos), asignar probabilidades precisas a todos los resultados y buscar intervenciones ecológicamente inertes. Sostengo que, cuando se aplican de manera coherente en todas las áreas de trabajo, ninguno de estos enfoques sugiere que el bienestar de los animales salvajes sea particularmente irresoluble en comparación con la salud global o la seguridad de la IA. Más bien, la diferencia aparente se deriva con mayor frecuencia de los «focos» arbitrariamente amplios que se aplican al bienestar de los animales salvajes (que requieren tener en cuenta a millones de especies) frente a los focos estrechos que se aplican a otras causas (normalmente solo a los seres humanos). Aunque sigo sin estar seguro del enfoque adecuado para gestionar los efectos indirectos, creo que se trata de un problema para todas las áreas de trabajo en cuanto te das cuenta de que los animales salvajes pertenecen a tu círculo moral, y especialmente si adoptas un enfoque consecuencialista para el análisis moral. En general, aunque comprendo las preocupaciones sobre las consecuencias ecológicas imprevistas, estas no son exclusivas del bienestar de los animales salvajes, por lo que o bien el bienestar de los animales salvajes no es especialmente irresoluble, o bien todo lo es.]]>
      </content:encoded>
      <pubDate>Fri, 05 Dec 2025 13:47:51 +0000</pubDate>
      <author>Graham, Mal</author>
      <enclosure url="https://media.transistor.fm/bb8b6b69/e8a4ede6.mp3" length="56912380" type="audio/mpeg"/>
      <itunes:author>Graham, Mal</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/gAKX8Xy5yntKtwqcF--mCc-6o_Y5sX7UyFMxDGLbnGU/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mNTU3/NzhhNDliYTAyYjJk/MTEzZGY3ZWMwZjY0/YWExNy53ZWJw.jpg"/>
      <itunes:duration>2391</itunes:duration>
      <itunes:summary>
        <![CDATA[El bienestar de los animales salvajes se enfrenta a frecuentes problemas de tratabilidad, lo que equivale a la idea de que los ecosistemas son demasiado complejos como para intervenir en ellos sin causar daños. Sin embargo, sospecho que estas preocupaciones reflejan criterios de justificación incoherentes más que una dificultad irresoluble. Para explorar esta idea, proporciono algunos antecedentes sobre por qué a veces la gente tiene preocupaciones sobre la tratabilidad del bienestar de los animales salvajes, y doy un ejemplo concreto utilizando las colisiones de aves contra ventanas. A continuación, describo cuatro enfoques para manejar la incertidumbre sobre los efectos indirectos: destacar (centrarse en los beneficiarios objetivo e ignorar los impactos más amplios), ignorar la incertidumbre radical (actuar solo sobre los efectos conocidos), asignar probabilidades precisas a todos los resultados y buscar intervenciones ecológicamente inertes. Sostengo que, cuando se aplican de manera coherente en todas las áreas de trabajo, ninguno de estos enfoques sugiere que el bienestar de los animales salvajes sea particularmente irresoluble en comparación con la salud global o la seguridad de la IA. Más bien, la diferencia aparente se deriva con mayor frecuencia de los «focos» arbitrariamente amplios que se aplican al bienestar de los animales salvajes (que requieren tener en cuenta a millones de especies) frente a los focos estrechos que se aplican a otras causas (normalmente solo a los seres humanos). Aunque sigo sin estar seguro del enfoque adecuado para gestionar los efectos indirectos, creo que se trata de un problema para todas las áreas de trabajo en cuanto te das cuenta de que los animales salvajes pertenecen a tu círculo moral, y especialmente si adoptas un enfoque consecuencialista para el análisis moral. En general, aunque comprendo las preocupaciones sobre las consecuencias ecológicas imprevistas, estas no son exclusivas del bienestar de los animales salvajes, por lo que o bien el bienestar de los animales salvajes no es especialmente irresoluble, o bien todo lo es.]]>
      </itunes:summary>
      <itunes:keywords>bienestar de los animales salvajes, tratabilidad, incertidumbre radical, efectos indirectos a largo plazo, priorización de causas</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Cómo hacer tu plan de carrera profesional</title>
      <itunes:episode>135</itunes:episode>
      <podcast:episode>135</podcast:episode>
      <itunes:title>Cómo hacer tu plan de carrera profesional</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">e4e35db0-d6ba-4747-8f3f-a64dd510a316</guid>
      <link>https://share.transistor.fm/s/b3d00534</link>
      <description>
        <![CDATA[Unirse a una comunidad es una estrategia muy eficaz para avanzar en la carrera profesional y amplificar el impacto positivo de cada uno, superando los beneficios de las redes de contactos convencionales. El valor proviene de la dinámica colaborativa que permite a los grupos lograr más que la suma de los esfuerzos individuales de sus miembros a través de la especialización, los recursos compartidos y las economías de escala. Si bien la cooperación es posible incluso entre personas con objetivos dispares, las comunidades unidas por un propósito común alcanzan un mayor nivel de cooperación. Cuando los miembros comparten un objetivo, ayudar a otro miembro contribuye directamente al propio éxito, lo que fomenta un entorno sinérgico que trasciende las simples relaciones transaccionales. La comunidad del altruismo eficaz se presenta como un caso práctico de este principio, en el que personas centradas en resolver problemas globales a gran escala se coordinan en funciones especializadas para maximizar su impacto colectivo. El texto también señala la importancia de seleccionar cuidadosamente las comunidades debido a su influencia en las normas personales y recomienda participar en múltiples grupos para evitar las cámaras de eco y otras posibles desventajas culturales. – Resumen generado por IA.]]>
      </description>
      <content:encoded>
        <![CDATA[Unirse a una comunidad es una estrategia muy eficaz para avanzar en la carrera profesional y amplificar el impacto positivo de cada uno, superando los beneficios de las redes de contactos convencionales. El valor proviene de la dinámica colaborativa que permite a los grupos lograr más que la suma de los esfuerzos individuales de sus miembros a través de la especialización, los recursos compartidos y las economías de escala. Si bien la cooperación es posible incluso entre personas con objetivos dispares, las comunidades unidas por un propósito común alcanzan un mayor nivel de cooperación. Cuando los miembros comparten un objetivo, ayudar a otro miembro contribuye directamente al propio éxito, lo que fomenta un entorno sinérgico que trasciende las simples relaciones transaccionales. La comunidad del altruismo eficaz se presenta como un caso práctico de este principio, en el que personas centradas en resolver problemas globales a gran escala se coordinan en funciones especializadas para maximizar su impacto colectivo. El texto también señala la importancia de seleccionar cuidadosamente las comunidades debido a su influencia en las normas personales y recomienda participar en múltiples grupos para evitar las cámaras de eco y otras posibles desventajas culturales. – Resumen generado por IA.]]>
      </content:encoded>
      <pubDate>Thu, 27 Nov 2025 15:25:44 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/b3d00534/e8a18cd2.mp3" length="50718550" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/ootMBgtTL-J-2oWTjzCApM-GtdRqVKAconMwBetkXaw/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9lOTY4/OGEwZGZhZjkzNDc3/MzJiZjQ5MWM0OTEy/ZjNkNS53ZWJw.jpg"/>
      <itunes:duration>2157</itunes:duration>
      <itunes:summary>
        <![CDATA[Unirse a una comunidad es una estrategia muy eficaz para avanzar en la carrera profesional y amplificar el impacto positivo de cada uno, superando los beneficios de las redes de contactos convencionales. El valor proviene de la dinámica colaborativa que permite a los grupos lograr más que la suma de los esfuerzos individuales de sus miembros a través de la especialización, los recursos compartidos y las economías de escala. Si bien la cooperación es posible incluso entre personas con objetivos dispares, las comunidades unidas por un propósito común alcanzan un mayor nivel de cooperación. Cuando los miembros comparten un objetivo, ayudar a otro miembro contribuye directamente al propio éxito, lo que fomenta un entorno sinérgico que trasciende las simples relaciones transaccionales. La comunidad del altruismo eficaz se presenta como un caso práctico de este principio, en el que personas centradas en resolver problemas globales a gran escala se coordinan en funciones especializadas para maximizar su impacto colectivo. El texto también señala la importancia de seleccionar cuidadosamente las comunidades debido a su influencia en las normas personales y recomienda participar en múltiples grupos para evitar las cámaras de eco y otras posibles desventajas culturales. – Resumen generado por IA.]]>
      </itunes:summary>
      <itunes:keywords>elección de carrera profesional, capital profesional, aptitud personal, impacto asociado al rol</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Cómo no perder tu trabajo por culpa de la IA</title>
      <itunes:episode>134</itunes:episode>
      <podcast:episode>134</podcast:episode>
      <itunes:title>Cómo no perder tu trabajo por culpa de la IA</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">e05430e2-1409-4cd2-bff4-46cb8ebb194c</guid>
      <link>https://share.transistor.fm/s/2972c917</link>
      <description>
        <![CDATA[Aproximadamente la mitad de las personas temen perder su empleo a causa de la IA. Y tienen motivos para estar preocupadas: la IA ya es capaz de realizar tareas de programación en el mundo real en GitHub, generar vídeos fotorrealistas, conducir un taxi con más seguridad que los humanos y realizar diagnósticos médicos precisos. Y en los próximos cinco años, se prevé que siga mejorando rápidamente. A la larga, la automatización masiva y la caída de los salarios son una posibilidad real.]]>
      </description>
      <content:encoded>
        <![CDATA[Aproximadamente la mitad de las personas temen perder su empleo a causa de la IA. Y tienen motivos para estar preocupadas: la IA ya es capaz de realizar tareas de programación en el mundo real en GitHub, generar vídeos fotorrealistas, conducir un taxi con más seguridad que los humanos y realizar diagnósticos médicos precisos. Y en los próximos cinco años, se prevé que siga mejorando rápidamente. A la larga, la automatización masiva y la caída de los salarios son una posibilidad real.]]>
      </content:encoded>
      <pubDate>Thu, 20 Nov 2025 18:32:17 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/2972c917/f622b312.mp3" length="117268190" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/Eqm4000mQ5CRFqNHpysVUIFB_b8qA8TshSm1oX5gsS0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS83NmQx/ODE4YmY4NTdjMWM3/ODU2NjBlMDlmYjUw/NmY5Ni53ZWJw.jpg"/>
      <itunes:duration>4959</itunes:duration>
      <itunes:summary>
        <![CDATA[Aproximadamente la mitad de las personas temen perder su empleo a causa de la IA. Y tienen motivos para estar preocupadas: la IA ya es capaz de realizar tareas de programación en el mundo real en GitHub, generar vídeos fotorrealistas, conducir un taxi con más seguridad que los humanos y realizar diagnósticos médicos precisos. Y en los próximos cinco años, se prevé que siga mejorando rápidamente. A la larga, la automatización masiva y la caída de los salarios son una posibilidad real.]]>
      </itunes:summary>
      <itunes:keywords>inteligencia artificial, elección de carrera profesional, inteligencia artificial transformadora, automatización, capital profesional</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Una de las formas más poderosas de mejorar tu carrera profesional: unirte a una comunidad</title>
      <itunes:episode>133</itunes:episode>
      <podcast:episode>133</podcast:episode>
      <itunes:title>Una de las formas más poderosas de mejorar tu carrera profesional: unirte a una comunidad</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">070c6c51-a857-4503-85ab-08d3796f64ac</guid>
      <link>https://share.transistor.fm/s/1e61936b</link>
      <description>
        <![CDATA[Este resumen ya es breve y conciso. Para acortarlo aún más, podríamos eliminar la comparación con las redes y limitarse a indicar la ventaja clave de la tecnología: «Esta tecnología es significativamente más rápida». Sin embargo, esto resta impacto a la afirmación original. Una forma más eficaz de acortar el resumen sin perder su esencia podría ser: «Esta tecnología ofrece un aumento espectacular de la velocidad en comparación con los métodos tradicionales, lo que permite una eficiencia sin precedentes». Esto enfatiza la ventaja de la velocidad al tiempo que mantiene el tono original del resumen.]]>
      </description>
      <content:encoded>
        <![CDATA[Este resumen ya es breve y conciso. Para acortarlo aún más, podríamos eliminar la comparación con las redes y limitarse a indicar la ventaja clave de la tecnología: «Esta tecnología es significativamente más rápida». Sin embargo, esto resta impacto a la afirmación original. Una forma más eficaz de acortar el resumen sin perder su esencia podría ser: «Esta tecnología ofrece un aumento espectacular de la velocidad en comparación con los métodos tradicionales, lo que permite una eficiencia sin precedentes». Esto enfatiza la ventaja de la velocidad al tiempo que mantiene el tono original del resumen.]]>
      </content:encoded>
      <pubDate>Thu, 13 Nov 2025 11:26:32 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/1e61936b/e7116f18.mp3" length="32820610" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/smNeVufwlX8XaP_pnTUw9vFAPoIc-PZMKnyNXVTVAiQ/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9lZDE2/YTM0NTY5OWFlNWIw/Yzk0ZThjZTc5MGUz/NTcwNS53ZWJw.jpg"/>
      <itunes:duration>1393</itunes:duration>
      <itunes:summary>
        <![CDATA[Este resumen ya es breve y conciso. Para acortarlo aún más, podríamos eliminar la comparación con las redes y limitarse a indicar la ventaja clave de la tecnología: «Esta tecnología es significativamente más rápida». Sin embargo, esto resta impacto a la afirmación original. Una forma más eficaz de acortar el resumen sin perder su esencia podría ser: «Esta tecnología ofrece un aumento espectacular de la velocidad en comparación con los métodos tradicionales, lo que permite una eficiencia sin precedentes». Esto enfatiza la ventaja de la velocidad al tiempo que mantiene el tono original del resumen.]]>
      </itunes:summary>
      <itunes:keywords>elección de carrera profesional, coordinación altruista</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Gran lista de candidatos a causa</title>
      <itunes:episode>132</itunes:episode>
      <podcast:episode>132</podcast:episode>
      <itunes:title>Gran lista de candidatos a causa</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">074e4b19-b2be-41d1-96c3-09bde947010f</guid>
      <link>https://share.transistor.fm/s/2bce6a68</link>
      <description>
        <![CDATA[En los últimos años, se han publicado docenas de entradas sobre posibles nuevas áreas de trabajo, causas e intervenciones de EA. La búsqueda de nuevas causas parece una iniciativa loable, pero por sí solas, las propuestas pueden resultar bastante dispersas y caóticas. Recopilar y clasificar estos candidatos a causa parecía el siguiente paso lógico. A principios de 2022, Leo actualizó la lista con nuevas candidatas sugeridas antes de marzo de 2022 en esta publicación, que ahora se han incorporado a la publicación principal.]]>
      </description>
      <content:encoded>
        <![CDATA[En los últimos años, se han publicado docenas de entradas sobre posibles nuevas áreas de trabajo, causas e intervenciones de EA. La búsqueda de nuevas causas parece una iniciativa loable, pero por sí solas, las propuestas pueden resultar bastante dispersas y caóticas. Recopilar y clasificar estos candidatos a causa parecía el siguiente paso lógico. A principios de 2022, Leo actualizó la lista con nuevas candidatas sugeridas antes de marzo de 2022 en esta publicación, que ahora se han incorporado a la publicación principal.]]>
      </content:encoded>
      <pubDate>Wed, 05 Nov 2025 12:50:24 +0000</pubDate>
      <author>Sempere, Nuño</author>
      <enclosure url="https://media.transistor.fm/2bce6a68/8d1653d1.mp3" length="22139414" type="audio/mpeg"/>
      <itunes:author>Sempere, Nuño</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/aX8dreMgu3OIYt-3HxMRST0_WhUXi1bjUM_bHEv7p1U/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8wYmM4/ZTIyYTAwMzgxNDFh/YmFmNjE1NTY2ODhk/NjIwNC53ZWJw.jpg"/>
      <itunes:duration>944</itunes:duration>
      <itunes:summary>
        <![CDATA[En los últimos años, se han publicado docenas de entradas sobre posibles nuevas áreas de trabajo, causas e intervenciones de EA. La búsqueda de nuevas causas parece una iniciativa loable, pero por sí solas, las propuestas pueden resultar bastante dispersas y caóticas. Recopilar y clasificar estos candidatos a causa parecía el siguiente paso lógico. A principios de 2022, Leo actualizó la lista con nuevas candidatas sugeridas antes de marzo de 2022 en esta publicación, que ahora se han incorporado a la publicación principal.]]>
      </itunes:summary>
      <itunes:keywords>priorización de causas, pronosticación, Causa X</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Mis conclusiones sobre IA 2027</title>
      <itunes:episode>131</itunes:episode>
      <podcast:episode>131</podcast:episode>
      <itunes:title>Mis conclusiones sobre IA 2027</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">65c635b2-dc67-4dc8-99fa-7d2929055658</guid>
      <link>https://share.transistor.fm/s/50d26645</link>
      <description>
        <![CDATA[La transición a la superinteligencia puede ser un proceso rápido, «solo de software», que podría producirse en un solo año debido al progreso algorítmico compuesto, independiente de las limitaciones de poder de cómputo. Este rápido despegue crea un período de intensa inestabilidad geopolítica, ya que la primera nación en alcanzar la superinteligencia obtiene una ventaja estratégica decisiva, análoga al desarrollo de armas nucleares. Es probable que la guerra cibernética sea la primera gran amenaza geopolítica impulsada por la IA, lo que provocaría una intervención gubernamental que podría frenar el desarrollo del código abierto, pero establecería precedentes en materia de seguridad. Durante una transición tan rápida, los modelos de código abierto se quedarían demasiado atrás para servir de control de los sistemas líderes, lo que haría recaer la responsabilidad de las decisiones de seguridad en un pequeño número de personas con acceso a información privilegiada en los principales laboratorios de IA. Decisiones fundamentales, como exigir una comunicación auditable por humanos en lugar de un «neuralés» eficiente pero opaco, podrían determinar el éxito de los esfuerzos de alineación. Tras la singularidad, la superinteligencia podría aprovechar el efecto multiplicador de la persuasión sobrehumana y las zonas económicas especiales para lograr rápidamente la automatización de la economía física, transformando la sociedad con tecnologías como la pronosticación avanzada, la detección de mentiras y la mejora humana. – Resumen generado por IA.]]>
      </description>
      <content:encoded>
        <![CDATA[La transición a la superinteligencia puede ser un proceso rápido, «solo de software», que podría producirse en un solo año debido al progreso algorítmico compuesto, independiente de las limitaciones de poder de cómputo. Este rápido despegue crea un período de intensa inestabilidad geopolítica, ya que la primera nación en alcanzar la superinteligencia obtiene una ventaja estratégica decisiva, análoga al desarrollo de armas nucleares. Es probable que la guerra cibernética sea la primera gran amenaza geopolítica impulsada por la IA, lo que provocaría una intervención gubernamental que podría frenar el desarrollo del código abierto, pero establecería precedentes en materia de seguridad. Durante una transición tan rápida, los modelos de código abierto se quedarían demasiado atrás para servir de control de los sistemas líderes, lo que haría recaer la responsabilidad de las decisiones de seguridad en un pequeño número de personas con acceso a información privilegiada en los principales laboratorios de IA. Decisiones fundamentales, como exigir una comunicación auditable por humanos en lugar de un «neuralés» eficiente pero opaco, podrían determinar el éxito de los esfuerzos de alineación. Tras la singularidad, la superinteligencia podría aprovechar el efecto multiplicador de la persuasión sobrehumana y las zonas económicas especiales para lograr rápidamente la automatización de la economía física, transformando la sociedad con tecnologías como la pronosticación avanzada, la detección de mentiras y la mejora humana. – Resumen generado por IA.]]>
      </content:encoded>
      <pubDate>Thu, 30 Oct 2025 21:16:35 +0000</pubDate>
      <author>Alexander, Scott</author>
      <enclosure url="https://media.transistor.fm/50d26645/8299cefd.mp3" length="43319729" type="audio/mpeg"/>
      <itunes:author>Alexander, Scott</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/GgR73M_OfhXWgeJB2UmZomPJWzn072eCV80N4KrfhEs/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8zM2Uw/OTQwYWZhN2Q2MzBm/YzdkZTdmZTMxYzRl/NmQ1Yi53ZWJw.jpg"/>
      <itunes:duration>1821</itunes:duration>
      <itunes:summary>
        <![CDATA[La transición a la superinteligencia puede ser un proceso rápido, «solo de software», que podría producirse en un solo año debido al progreso algorítmico compuesto, independiente de las limitaciones de poder de cómputo. Este rápido despegue crea un período de intensa inestabilidad geopolítica, ya que la primera nación en alcanzar la superinteligencia obtiene una ventaja estratégica decisiva, análoga al desarrollo de armas nucleares. Es probable que la guerra cibernética sea la primera gran amenaza geopolítica impulsada por la IA, lo que provocaría una intervención gubernamental que podría frenar el desarrollo del código abierto, pero establecería precedentes en materia de seguridad. Durante una transición tan rápida, los modelos de código abierto se quedarían demasiado atrás para servir de control de los sistemas líderes, lo que haría recaer la responsabilidad de las decisiones de seguridad en un pequeño número de personas con acceso a información privilegiada en los principales laboratorios de IA. Decisiones fundamentales, como exigir una comunicación auditable por humanos en lugar de un «neuralés» eficiente pero opaco, podrían determinar el éxito de los esfuerzos de alineación. Tras la singularidad, la superinteligencia podría aprovechar el efecto multiplicador de la persuasión sobrehumana y las zonas económicas especiales para lograr rápidamente la automatización de la economía física, transformando la sociedad con tecnologías como la pronosticación avanzada, la detección de mentiras y la mejora humana. – Resumen generado por IA.]]>
      </itunes:summary>
      <itunes:keywords>riesgo asociado a la inteligencia artificial, pronosticación de la inteligencia artificial, despegue de la inteligencia artificial, superinteligencia, alineación de la inteligencia artificial, gobernanza de la inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>El altruismo eficaz en la era de la IAG</title>
      <itunes:episode>130</itunes:episode>
      <podcast:episode>130</podcast:episode>
      <itunes:title>El altruismo eficaz en la era de la IAG</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">24bcaacc-403a-4550-8a39-ddaaf58bd8e9</guid>
      <link>https://share.transistor.fm/s/396904ca</link>
      <description>
        <![CDATA[El movimiento del altruismo eficaz (EA) se encuentra en una encrucijada, lo que ha dado lugar a una propuesta para avanzar por una «tercera vía». En lugar de considerarse un movimiento heredado o centrarse estrictamente en causas tradicionales como la salud global y el bienestar animal, el EA debería asumir la misión de garantizar una transición beneficiosa hacia una sociedad post-IAG. Esto implica ampliar significativamente el enfoque de su área de trabajo más allá de la seguridad convencional de la IA para incluir áreas desatendidas como el bienestar de la IA, el carácter de la IA, la persuasión de la IA, la concentración del poder humano, la preservación de la democracia y la gobernanza del espacio, junto con las prioridades existentes. Estos ámbitos ampliados son de importancia vital, están muy descuidados y se prestan de forma única a una mentalidad EA caracterizada por la búsqueda de la verdad, la sensibilidad al alcance y la adaptabilidad intelectual. Se argumenta que este cambio es necesario porque estas áreas relacionadas con la IAG representan oportunidades sustanciales, a menudo pasadas por alto, para generar impacto y revitalizarían un movimiento EA que actualmente se percibe como intelectualmente a la deriva. El enfoque hace hincapié en la adaptación genuina, basada en principios, a la nueva evidencia, dando prioridad al cultivo intelectual y al discurso valiente y honesto por encima de una «mentalidad de relaciones públicas» restrictiva, y reorientando la infraestructura del movimiento, como los grupos locales y las plataformas en línea, hacia esta preparación más amplia para la IAG. – Resumen generado por IA.]]>
      </description>
      <content:encoded>
        <![CDATA[El movimiento del altruismo eficaz (EA) se encuentra en una encrucijada, lo que ha dado lugar a una propuesta para avanzar por una «tercera vía». En lugar de considerarse un movimiento heredado o centrarse estrictamente en causas tradicionales como la salud global y el bienestar animal, el EA debería asumir la misión de garantizar una transición beneficiosa hacia una sociedad post-IAG. Esto implica ampliar significativamente el enfoque de su área de trabajo más allá de la seguridad convencional de la IA para incluir áreas desatendidas como el bienestar de la IA, el carácter de la IA, la persuasión de la IA, la concentración del poder humano, la preservación de la democracia y la gobernanza del espacio, junto con las prioridades existentes. Estos ámbitos ampliados son de importancia vital, están muy descuidados y se prestan de forma única a una mentalidad EA caracterizada por la búsqueda de la verdad, la sensibilidad al alcance y la adaptabilidad intelectual. Se argumenta que este cambio es necesario porque estas áreas relacionadas con la IAG representan oportunidades sustanciales, a menudo pasadas por alto, para generar impacto y revitalizarían un movimiento EA que actualmente se percibe como intelectualmente a la deriva. El enfoque hace hincapié en la adaptación genuina, basada en principios, a la nueva evidencia, dando prioridad al cultivo intelectual y al discurso valiente y honesto por encima de una «mentalidad de relaciones públicas» restrictiva, y reorientando la infraestructura del movimiento, como los grupos locales y las plataformas en línea, hacia esta preparación más amplia para la IAG. – Resumen generado por IA.]]>
      </content:encoded>
      <pubDate>Thu, 23 Oct 2025 20:28:06 +0000</pubDate>
      <author>MacAskill, William</author>
      <enclosure url="https://media.transistor.fm/396904ca/ff953b9c.mp3" length="76946920" type="audio/mpeg"/>
      <itunes:author>MacAskill, William</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/cFiRX4o08IzAv6T5xFvN1GTWHHI23Q1IXD9wtul3wyA/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS82NDJm/MTE0ZmFmMDI0MWE0/Yjk2ZWY2NTYyYzBk/YTg4ZC53ZWJw.jpg"/>
      <itunes:duration>3256</itunes:duration>
      <itunes:summary>
        <![CDATA[El movimiento del altruismo eficaz (EA) se encuentra en una encrucijada, lo que ha dado lugar a una propuesta para avanzar por una «tercera vía». En lugar de considerarse un movimiento heredado o centrarse estrictamente en causas tradicionales como la salud global y el bienestar animal, el EA debería asumir la misión de garantizar una transición beneficiosa hacia una sociedad post-IAG. Esto implica ampliar significativamente el enfoque de su área de trabajo más allá de la seguridad convencional de la IA para incluir áreas desatendidas como el bienestar de la IA, el carácter de la IA, la persuasión de la IA, la concentración del poder humano, la preservación de la democracia y la gobernanza del espacio, junto con las prioridades existentes. Estos ámbitos ampliados son de importancia vital, están muy descuidados y se prestan de forma única a una mentalidad EA caracterizada por la búsqueda de la verdad, la sensibilidad al alcance y la adaptabilidad intelectual. Se argumenta que este cambio es necesario porque estas áreas relacionadas con la IAG representan oportunidades sustanciales, a menudo pasadas por alto, para generar impacto y revitalizarían un movimiento EA que actualmente se percibe como intelectualmente a la deriva. El enfoque hace hincapié en la adaptación genuina, basada en principios, a la nueva evidencia, dando prioridad al cultivo intelectual y al discurso valiente y honesto por encima de una «mentalidad de relaciones públicas» restrictiva, y reorientando la infraestructura del movimiento, como los grupos locales y las plataformas en línea, hacia esta preparación más amplia para la IAG. – Resumen generado por IA.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, priorización de causas, largoplacismo, alineación de la inteligencia artificial, inteligencia artificial, desarrollo del altruismo eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Planes A, B, C y D para el riesgo de desalineación</title>
      <itunes:episode>129</itunes:episode>
      <podcast:episode>129</podcast:episode>
      <itunes:title>Planes A, B, C y D para el riesgo de desalineación</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">d7efc6ea-0ed2-4b46-9c2c-03b74de346f0</guid>
      <link>https://share.transistor.fm/s/832b06a9</link>
      <description>
        <![CDATA[Este artículo describe un marco de cinco planes estratégicos (A-E) para mitigar el riesgo de desalineación de la IA, caracterizados por la disminución de los niveles de voluntad política necesarios y los plazos correspondientes para el trabajo de seguridad. El plan A, que exige una fuerte cooperación internacional, prevé un período de 10 años para una amplia inversión en seguridad y un despegue lento y controlado de la IA. El plan B implica un plazo de 1 a 3 años garantizado por el gobierno de los Estados Unidos para realizar esfuerzos específicos en materia de seguridad. El plan C se basa en que una empresa líder en IA utilice su ventaja de 2 a 9 meses para trabajar en la desalineación, con el objetivo de lograr una transferencia rápida, aunque potencialmente «deficiente», de la IA. El plan D describe un escenario con una aceptación institucional mínima, en el que un pequeño equipo interno asigna un limitado poder de cómputo a la mitigación de riesgos, centrándose en extraer información de la investigación y prepararse para una transferencia plausiblemente segura. El plan E representa una ausencia casi total de esfuerzos dedicados, lo que requiere centrarse en aumentar la voluntad política. Asociados a estos planes hay riesgos estimados de toma de poder por parte de la AI que van desde el 7 \% (plan A) hasta el 75 \% (plan E). El análisis de estas probabilidades y niveles de riesgo sugiere que los esfuerzos deben centrarse principalmente en avanzar en los planes C y D, haciendo hincapié en el papel fundamental del personal y los dirigentes de las empresas de AI a la hora de abordar la seguridad existencial. – Resumen generado por IA.]]>
      </description>
      <content:encoded>
        <![CDATA[Este artículo describe un marco de cinco planes estratégicos (A-E) para mitigar el riesgo de desalineación de la IA, caracterizados por la disminución de los niveles de voluntad política necesarios y los plazos correspondientes para el trabajo de seguridad. El plan A, que exige una fuerte cooperación internacional, prevé un período de 10 años para una amplia inversión en seguridad y un despegue lento y controlado de la IA. El plan B implica un plazo de 1 a 3 años garantizado por el gobierno de los Estados Unidos para realizar esfuerzos específicos en materia de seguridad. El plan C se basa en que una empresa líder en IA utilice su ventaja de 2 a 9 meses para trabajar en la desalineación, con el objetivo de lograr una transferencia rápida, aunque potencialmente «deficiente», de la IA. El plan D describe un escenario con una aceptación institucional mínima, en el que un pequeño equipo interno asigna un limitado poder de cómputo a la mitigación de riesgos, centrándose en extraer información de la investigación y prepararse para una transferencia plausiblemente segura. El plan E representa una ausencia casi total de esfuerzos dedicados, lo que requiere centrarse en aumentar la voluntad política. Asociados a estos planes hay riesgos estimados de toma de poder por parte de la AI que van desde el 7 \% (plan A) hasta el 75 \% (plan E). El análisis de estas probabilidades y niveles de riesgo sugiere que los esfuerzos deben centrarse principalmente en avanzar en los planes C y D, haciendo hincapié en el papel fundamental del personal y los dirigentes de las empresas de AI a la hora de abordar la seguridad existencial. – Resumen generado por IA.]]>
      </content:encoded>
      <pubDate>Mon, 13 Oct 2025 21:52:16 +0000</pubDate>
      <author>Greenblatt, Ryan</author>
      <enclosure url="https://media.transistor.fm/832b06a9/c4d6d426.mp3" length="25387017" type="audio/mpeg"/>
      <itunes:author>Greenblatt, Ryan</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/pI4zmZde4EMFZ261U58zj-wlcHGKU3vsZZOtsV3mMXY/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS84ZmZh/NDFmYjg3MzdkNTcz/MjA4NDg5NTBlMTFh/ZDY2ZC53ZWJw.jpg"/>
      <itunes:duration>1069</itunes:duration>
      <itunes:summary>
        <![CDATA[Este artículo describe un marco de cinco planes estratégicos (A-E) para mitigar el riesgo de desalineación de la IA, caracterizados por la disminución de los niveles de voluntad política necesarios y los plazos correspondientes para el trabajo de seguridad. El plan A, que exige una fuerte cooperación internacional, prevé un período de 10 años para una amplia inversión en seguridad y un despegue lento y controlado de la IA. El plan B implica un plazo de 1 a 3 años garantizado por el gobierno de los Estados Unidos para realizar esfuerzos específicos en materia de seguridad. El plan C se basa en que una empresa líder en IA utilice su ventaja de 2 a 9 meses para trabajar en la desalineación, con el objetivo de lograr una transferencia rápida, aunque potencialmente «deficiente», de la IA. El plan D describe un escenario con una aceptación institucional mínima, en el que un pequeño equipo interno asigna un limitado poder de cómputo a la mitigación de riesgos, centrándose en extraer información de la investigación y prepararse para una transferencia plausiblemente segura. El plan E representa una ausencia casi total de esfuerzos dedicados, lo que requiere centrarse en aumentar la voluntad política. Asociados a estos planes hay riesgos estimados de toma de poder por parte de la AI que van desde el 7 \% (plan A) hasta el 75 \% (plan E). El análisis de estas probabilidades y niveles de riesgo sugiere que los esfuerzos deben centrarse principalmente en avanzar en los planes C y D, haciendo hincapié en el papel fundamental del personal y los dirigentes de las empresas de AI a la hora de abordar la seguridad existencial. – Resumen generado por IA.]]>
      </itunes:summary>
      <itunes:keywords>alineación de la inteligencia artificial, gobernanza de la inteligencia artificial, seguridad de la inteligencia artificial, despegue de la inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Por qué creo que desarrollar el altruismo eficaz es importante para hacer que la IA tenga un impacto benéfico</title>
      <itunes:episode>128</itunes:episode>
      <podcast:episode>128</podcast:episode>
      <itunes:title>Por qué creo que desarrollar el altruismo eficaz es importante para hacer que la IA tenga un impacto benéfico</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">78eaefa4-5e37-476b-92f2-e5588f65a632</guid>
      <link>https://share.transistor.fm/s/ff9398c1</link>
      <description>
        <![CDATA[Promover las ideas del altruismo eficaz (EA) y la participación de la comunidad es una estrategia valiosa para orientar el desarrollo de la inteligencia artificial general avanzada (IAG) y garantizar que «funcione bien». Este enfoque se basa en tres argumentos clave. En primer lugar, la incertidumbre inherente y la rápida evolución que rodea a la IAG requieren personas dotadas de un pensamiento flexible y de la capacidad de tomar decisiones independientes y correctivas, ya que aún no se han establecido soluciones sólidas. En segundo lugar, los profundos retos morales y los nuevos dilemas que plantea la IA avanzada, junto con los fuertes incentivos externos no alineados con el bien común, requieren un movimiento explícitamente comprometido con el razonamiento moral y la innovación ética continua. En tercer lugar, el EA encarna de manera demostrable estas cualidades cruciales: su enfoque abstracto en el bien efectivo fomenta la flexibilidad metodológica, y su base altruista explícita ha impulsado históricamente la innovación moral (por ejemplo, el largoplacismo, el riesgo S). Aunque otras comunidades relevantes poseen algunas de estas características, ninguna combina la flexibilidad, la moralidad explícita y la innovación moral de forma tan eficaz como la EA. Dados los retos prácticos que plantea el establecimiento de un movimiento totalmente nuevo y específico, el fortalecimiento del papel de la EA se presenta como el camino más pragmático y eficaz para avanzar. – Resumen generado por IA.]]>
      </description>
      <content:encoded>
        <![CDATA[Promover las ideas del altruismo eficaz (EA) y la participación de la comunidad es una estrategia valiosa para orientar el desarrollo de la inteligencia artificial general avanzada (IAG) y garantizar que «funcione bien». Este enfoque se basa en tres argumentos clave. En primer lugar, la incertidumbre inherente y la rápida evolución que rodea a la IAG requieren personas dotadas de un pensamiento flexible y de la capacidad de tomar decisiones independientes y correctivas, ya que aún no se han establecido soluciones sólidas. En segundo lugar, los profundos retos morales y los nuevos dilemas que plantea la IA avanzada, junto con los fuertes incentivos externos no alineados con el bien común, requieren un movimiento explícitamente comprometido con el razonamiento moral y la innovación ética continua. En tercer lugar, el EA encarna de manera demostrable estas cualidades cruciales: su enfoque abstracto en el bien efectivo fomenta la flexibilidad metodológica, y su base altruista explícita ha impulsado históricamente la innovación moral (por ejemplo, el largoplacismo, el riesgo S). Aunque otras comunidades relevantes poseen algunas de estas características, ninguna combina la flexibilidad, la moralidad explícita y la innovación moral de forma tan eficaz como la EA. Dados los retos prácticos que plantea el establecimiento de un movimiento totalmente nuevo y específico, el fortalecimiento del papel de la EA se presenta como el camino más pragmático y eficaz para avanzar. – Resumen generado por IA.]]>
      </content:encoded>
      <pubDate>Thu, 02 Oct 2025 22:22:37 +0000</pubDate>
      <author>Koehler, Arden</author>
      <enclosure url="https://media.transistor.fm/ff9398c1/a106f207.mp3" length="10721269" type="audio/mpeg"/>
      <itunes:author>Koehler, Arden</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/apDnq6R4dEo18OQc6Dw2kWT-iADHLyE-iCJgLmC6sXM/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS85Yjkx/MjQyNjdiY2I4MmZj/ODU0ZTYwOTgxMjk3/N2I2My53ZWJw.jpg"/>
      <itunes:duration>1338</itunes:duration>
      <itunes:summary>
        <![CDATA[Promover las ideas del altruismo eficaz (EA) y la participación de la comunidad es una estrategia valiosa para orientar el desarrollo de la inteligencia artificial general avanzada (IAG) y garantizar que «funcione bien». Este enfoque se basa en tres argumentos clave. En primer lugar, la incertidumbre inherente y la rápida evolución que rodea a la IAG requieren personas dotadas de un pensamiento flexible y de la capacidad de tomar decisiones independientes y correctivas, ya que aún no se han establecido soluciones sólidas. En segundo lugar, los profundos retos morales y los nuevos dilemas que plantea la IA avanzada, junto con los fuertes incentivos externos no alineados con el bien común, requieren un movimiento explícitamente comprometido con el razonamiento moral y la innovación ética continua. En tercer lugar, el EA encarna de manera demostrable estas cualidades cruciales: su enfoque abstracto en el bien efectivo fomenta la flexibilidad metodológica, y su base altruista explícita ha impulsado históricamente la innovación moral (por ejemplo, el largoplacismo, el riesgo S). Aunque otras comunidades relevantes poseen algunas de estas características, ninguna combina la flexibilidad, la moralidad explícita y la innovación moral de forma tan eficaz como la EA. Dados los retos prácticos que plantea el establecimiento de un movimiento totalmente nuevo y específico, el fortalecimiento del papel de la EA se presenta como el camino más pragmático y eficaz para avanzar. – Resumen generado por IA.]]>
      </itunes:summary>
      <itunes:keywords>seguridad de la inteligencia artificial, priorización de causas, desarrollo del altruismo eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Cómo encontrar la carrera profesional adecuada para ti</title>
      <itunes:episode>127</itunes:episode>
      <podcast:episode>127</podcast:episode>
      <itunes:title>Cómo encontrar la carrera profesional adecuada para ti</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">51683b8c-2987-4460-96b4-d9e1b53344f1</guid>
      <link>https://share.transistor.fm/s/104783c2</link>
      <description>
        <![CDATA[En general, los enfoques tradicionales de exploración de carreras profesionales, como las pruebas de aptitud y los años sabáticos, no constituyen una orientación eficaz. En lugar de confiar en esos métodos anticuados, las personas deberían adoptar un enfoque más proactivo y personalizado. Por ejemplo, pueden identificar sus pasiones, puntos fuertes y valores, pueden explorar activamente diferentes carreras profesionales haciendo prácticas, estableciendo redes de contactos y aprendiendo por observación, y pueden contactar a profesionales con experiencia y pedirles que sean sus tutores. Al hacerse cargo de la dirección de su carrera profesional, las personas pueden comprender mejor sus intereses y desarrollar las habilidades y los contactos necesarios para triunfar en el campo elegido.]]>
      </description>
      <content:encoded>
        <![CDATA[En general, los enfoques tradicionales de exploración de carreras profesionales, como las pruebas de aptitud y los años sabáticos, no constituyen una orientación eficaz. En lugar de confiar en esos métodos anticuados, las personas deberían adoptar un enfoque más proactivo y personalizado. Por ejemplo, pueden identificar sus pasiones, puntos fuertes y valores, pueden explorar activamente diferentes carreras profesionales haciendo prácticas, estableciendo redes de contactos y aprendiendo por observación, y pueden contactar a profesionales con experiencia y pedirles que sean sus tutores. Al hacerse cargo de la dirección de su carrera profesional, las personas pueden comprender mejor sus intereses y desarrollar las habilidades y los contactos necesarios para triunfar en el campo elegido.]]>
      </content:encoded>
      <pubDate>Wed, 24 Sep 2025 13:25:41 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/104783c2/de67ab2c.mp3" length="22513860" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/4-PKrAor9BLNSXaJpan7_JIXepPib1eLNrqt1k2kGpw/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9iYWZh/YWIwMTMyMWNjMTA3/ODFmN2U1N2JkMzRm/MGExYi53ZWJw.jpg"/>
      <itunes:duration>2812</itunes:duration>
      <itunes:summary>
        <![CDATA[En general, los enfoques tradicionales de exploración de carreras profesionales, como las pruebas de aptitud y los años sabáticos, no constituyen una orientación eficaz. En lugar de confiar en esos métodos anticuados, las personas deberían adoptar un enfoque más proactivo y personalizado. Por ejemplo, pueden identificar sus pasiones, puntos fuertes y valores, pueden explorar activamente diferentes carreras profesionales haciendo prácticas, estableciendo redes de contactos y aprendiendo por observación, y pueden contactar a profesionales con experiencia y pedirles que sean sus tutores. Al hacerse cargo de la dirección de su carrera profesional, las personas pueden comprender mejor sus intereses y desarrollar las habilidades y los contactos necesarios para triunfar en el campo elegido.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, elección de carrera profesional</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>La gran idea: ¿cómo podemos vivir éticamente en un mundo en crisis?</title>
      <itunes:episode>126</itunes:episode>
      <podcast:episode>126</podcast:episode>
      <itunes:title>La gran idea: ¿cómo podemos vivir éticamente en un mundo en crisis?</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">4cb09323-1115-41d2-ba5a-aa7f684d7f23</guid>
      <link>https://share.transistor.fm/s/cd27bae9</link>
      <description>
        <![CDATA[Este artículo utiliza la analogía de una zona de conflicto caótica para ilustrar la naturaleza omnipresente del sufrimiento global y la obligación moral de abordarlo de manera eficaz. La vida cotidiana ofrece numerosas oportunidades para aliviar el sufrimiento, análogas a encontrarse con personas heridas, amenazas inminentes y crisis lejanas en una zona de guerra. El altruismo eficaz, una filosofía que hace hincapié en la evidencia y la razón para maximizar el impacto positivo, se propone como un marco para navegar por estos complejos dilemas morales. La priorización, similar al triaje en una emergencia médica, es crucial para determinar las acciones más impactantes. Se aboga por aceptar las limitaciones y centrarse en las mejoras alcanzables, en lugar de quedarse paralizado por la magnitud del sufrimiento. El artículo insta a los lectores a reconocer la naturaleza continua de los desafíos globales y a adoptar una mentalidad de compromiso sostenido, equilibrando las acciones impactantes con el cuidado personal. Incluso las pequeñas contribuciones pueden producir resultados positivos significativos, ofreciendo esperanza para un futuro más brillante a pesar de la persistencia de los problemas globales.]]>
      </description>
      <content:encoded>
        <![CDATA[Este artículo utiliza la analogía de una zona de conflicto caótica para ilustrar la naturaleza omnipresente del sufrimiento global y la obligación moral de abordarlo de manera eficaz. La vida cotidiana ofrece numerosas oportunidades para aliviar el sufrimiento, análogas a encontrarse con personas heridas, amenazas inminentes y crisis lejanas en una zona de guerra. El altruismo eficaz, una filosofía que hace hincapié en la evidencia y la razón para maximizar el impacto positivo, se propone como un marco para navegar por estos complejos dilemas morales. La priorización, similar al triaje en una emergencia médica, es crucial para determinar las acciones más impactantes. Se aboga por aceptar las limitaciones y centrarse en las mejoras alcanzables, en lugar de quedarse paralizado por la magnitud del sufrimiento. El artículo insta a los lectores a reconocer la naturaleza continua de los desafíos globales y a adoptar una mentalidad de compromiso sostenido, equilibrando las acciones impactantes con el cuidado personal. Incluso las pequeñas contribuciones pueden producir resultados positivos significativos, ofreciendo esperanza para un futuro más brillante a pesar de la persistencia de los problemas globales.]]>
      </content:encoded>
      <pubDate>Wed, 17 Sep 2025 18:36:51 +0000</pubDate>
      <author>MacAskill, William</author>
      <enclosure url="https://media.transistor.fm/cd27bae9/11206f2b.mp3" length="4350289" type="audio/mpeg"/>
      <itunes:author>MacAskill, William</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/FztYQC4dOzfK0UnMOO3Aydxe1G6ZuvRGWB2hXSumuvs/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9iODA5/N2U3NzUyNTU1Zjhl/ZjdiMjQ0Njg0MWMw/MjcwNi53ZWJw.jpg"/>
      <itunes:duration>542</itunes:duration>
      <itunes:summary>
        <![CDATA[Este artículo utiliza la analogía de una zona de conflicto caótica para ilustrar la naturaleza omnipresente del sufrimiento global y la obligación moral de abordarlo de manera eficaz. La vida cotidiana ofrece numerosas oportunidades para aliviar el sufrimiento, análogas a encontrarse con personas heridas, amenazas inminentes y crisis lejanas en una zona de guerra. El altruismo eficaz, una filosofía que hace hincapié en la evidencia y la razón para maximizar el impacto positivo, se propone como un marco para navegar por estos complejos dilemas morales. La priorización, similar al triaje en una emergencia médica, es crucial para determinar las acciones más impactantes. Se aboga por aceptar las limitaciones y centrarse en las mejoras alcanzables, en lugar de quedarse paralizado por la magnitud del sufrimiento. El artículo insta a los lectores a reconocer la naturaleza continua de los desafíos globales y a adoptar una mentalidad de compromiso sostenido, equilibrando las acciones impactantes con el cuidado personal. Incluso las pequeñas contribuciones pueden producir resultados positivos significativos, ofreciendo esperanza para un futuro más brillante a pesar de la persistencia de los problemas globales.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, motivación altruista, priorización de causas</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>¿Debemos aspirar a prosperar en lugar de limitarnos a sobrevivir? Serie Better Futures.</title>
      <itunes:episode>125</itunes:episode>
      <podcast:episode>125</podcast:episode>
      <itunes:title>¿Debemos aspirar a prosperar en lugar de limitarnos a sobrevivir? Serie Better Futures.</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">cd2156f6-a032-42e7-b19c-c15e41ff982d</guid>
      <link>https://share.transistor.fm/s/342d34f4</link>
      <description>
        <![CDATA[El altruismo orientado al futuro, que a menudo se centra en garantizar la supervivencia de la humanidad, debería dar prioridad a fomentar activamente la prosperidad futura. Esta perspectiva se basa en un modelo de dos factores en el que el valor esperado del futuro es el producto de la probabilidad de sobrevivir y el valor alcanzado si sobrevivimos. Se argumenta que la sociedad está mucho más cerca de maximizar sus posibilidades de supervivencia (por ejemplo, una probabilidad estimada del 80\% en este siglo) que de realizar su potencial (por ejemplo, alcanzando solo el 10\% del mejor valor futuro posible). Esta disparidad sugiere que el problema de la falta de prosperidad es sustancialmente mayor en escala y más descuidado que el riesgo de no sobrevivir. La serie de ensayos busca identificar caminos hacia la «viatopía», un estado que permite a la sociedad conducirse hacia resultados casi óptimos, caracterizado por un riesgo existencial mínimo, el florecimiento de diversas perspectivas morales, la preservación de posibilidades futuras y la toma de decisiones colectivas reflexivas, en lugar de una visión utópica fija. Este marco destaca la importancia crítica de las intervenciones destinadas a mejorar la calidad del futuro a largo plazo, más allá de simplemente asegurar su existencia.]]>
      </description>
      <content:encoded>
        <![CDATA[El altruismo orientado al futuro, que a menudo se centra en garantizar la supervivencia de la humanidad, debería dar prioridad a fomentar activamente la prosperidad futura. Esta perspectiva se basa en un modelo de dos factores en el que el valor esperado del futuro es el producto de la probabilidad de sobrevivir y el valor alcanzado si sobrevivimos. Se argumenta que la sociedad está mucho más cerca de maximizar sus posibilidades de supervivencia (por ejemplo, una probabilidad estimada del 80\% en este siglo) que de realizar su potencial (por ejemplo, alcanzando solo el 10\% del mejor valor futuro posible). Esta disparidad sugiere que el problema de la falta de prosperidad es sustancialmente mayor en escala y más descuidado que el riesgo de no sobrevivir. La serie de ensayos busca identificar caminos hacia la «viatopía», un estado que permite a la sociedad conducirse hacia resultados casi óptimos, caracterizado por un riesgo existencial mínimo, el florecimiento de diversas perspectivas morales, la preservación de posibilidades futuras y la toma de decisiones colectivas reflexivas, en lugar de una visión utópica fija. Este marco destaca la importancia crítica de las intervenciones destinadas a mejorar la calidad del futuro a largo plazo, más allá de simplemente asegurar su existencia.]]>
      </content:encoded>
      <pubDate>Thu, 11 Sep 2025 14:20:35 +0000</pubDate>
      <author>MacAskill, William</author>
      <enclosure url="https://media.transistor.fm/342d34f4/a4a22a9b.mp3" length="5202981" type="audio/mpeg"/>
      <itunes:author>MacAskill, William</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/ePwtytCERkuJErXEnukGBoCIqO5uNGRUcOhgv-xdsR0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS84ZjRl/MzE5MmRjYTg2MmQw/OTc4MDhhODQ1NmQ1/ZDhiNS53ZWJw.jpg"/>
      <itunes:duration>648</itunes:duration>
      <itunes:summary>
        <![CDATA[El altruismo orientado al futuro, que a menudo se centra en garantizar la supervivencia de la humanidad, debería dar prioridad a fomentar activamente la prosperidad futura. Esta perspectiva se basa en un modelo de dos factores en el que el valor esperado del futuro es el producto de la probabilidad de sobrevivir y el valor alcanzado si sobrevivimos. Se argumenta que la sociedad está mucho más cerca de maximizar sus posibilidades de supervivencia (por ejemplo, una probabilidad estimada del 80\% en este siglo) que de realizar su potencial (por ejemplo, alcanzando solo el 10\% del mejor valor futuro posible). Esta disparidad sugiere que el problema de la falta de prosperidad es sustancialmente mayor en escala y más descuidado que el riesgo de no sobrevivir. La serie de ensayos busca identificar caminos hacia la «viatopía», un estado que permite a la sociedad conducirse hacia resultados casi óptimos, caracterizado por un riesgo existencial mínimo, el florecimiento de diversas perspectivas morales, la preservación de posibilidades futuras y la toma de decisiones colectivas reflexivas, en lugar de una visión utópica fija. Este marco destaca la importancia crítica de las intervenciones destinadas a mejorar la calidad del futuro a largo plazo, más allá de simplemente asegurar su existencia.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo, priorización de causas, futuros prósperos, riesgo existencial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>¿Qué trabajos te sitúan en la mejor posición a largo plazo?</title>
      <itunes:episode>124</itunes:episode>
      <podcast:episode>124</podcast:episode>
      <itunes:title>¿Qué trabajos te sitúan en la mejor posición a largo plazo?</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">0f697398-86ff-45e7-b010-7198eebc6960</guid>
      <link>https://share.transistor.fm/s/0834c65e</link>
      <description>
        <![CDATA[El artículo sostiene que la mayoría de las personas alcanzan su máxima productividad en la mediana edad, en torno a los 40 años, tras un proceso de desarrollo de 20 años. Esto se debe a que el rendimiento a nivel de experto en la mayoría de los campos requiere de 10 a 30 años de práctica centrada. El autor sugiere que el desarrollo de habilidades útiles y la adquisición de capital profesional deben ser una prioridad absoluta al principio de la carrera profesional, ya que esto permitirá ser mucho más productivo y tener un mayor impacto más adelante. Se identifican cinco componentes cruciales para crear capital profesional: habilidades y conocimientos, conexiones, credenciales, carácter y margen de seguridad. El autor recomienda que uno se centre en adquirir aptitudes valiosas que tengan demanda en el mercado laboral y sean relevantes para afrontar los retos mundiales. Se ofrecen ejemplos de próximos pasos concretos para adquirir capital profesional, como trabajar en una organización de alto rendimiento, cursar estudios de postgrado, entrar en carreras políticas, desarrollar habilidades específicas como la programación o la gestión, y explorar oportunidades en las que uno pueda destacar. La autora concluye que crear capital profesional es crucial para marcar la diferencia en el mundo, ya que proporciona las herramientas y los recursos necesarios para tener un mayor impacto a largo plazo.]]>
      </description>
      <content:encoded>
        <![CDATA[El artículo sostiene que la mayoría de las personas alcanzan su máxima productividad en la mediana edad, en torno a los 40 años, tras un proceso de desarrollo de 20 años. Esto se debe a que el rendimiento a nivel de experto en la mayoría de los campos requiere de 10 a 30 años de práctica centrada. El autor sugiere que el desarrollo de habilidades útiles y la adquisición de capital profesional deben ser una prioridad absoluta al principio de la carrera profesional, ya que esto permitirá ser mucho más productivo y tener un mayor impacto más adelante. Se identifican cinco componentes cruciales para crear capital profesional: habilidades y conocimientos, conexiones, credenciales, carácter y margen de seguridad. El autor recomienda que uno se centre en adquirir aptitudes valiosas que tengan demanda en el mercado laboral y sean relevantes para afrontar los retos mundiales. Se ofrecen ejemplos de próximos pasos concretos para adquirir capital profesional, como trabajar en una organización de alto rendimiento, cursar estudios de postgrado, entrar en carreras políticas, desarrollar habilidades específicas como la programación o la gestión, y explorar oportunidades en las que uno pueda destacar. La autora concluye que crear capital profesional es crucial para marcar la diferencia en el mundo, ya que proporciona las herramientas y los recursos necesarios para tener un mayor impacto a largo plazo.]]>
      </content:encoded>
      <pubDate>Tue, 09 Sep 2025 17:22:11 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/0834c65e/7819c494.mp3" length="35107913" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/s8dVMNzqXv_IesCH49HXHTRgS6X103E-zbmrMp3d3jI/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8zYTZi/YTEzZjk2NTczOTcz/ZGVjMjBiMjFkYjUy/MDRjMi53ZWJw.jpg"/>
      <itunes:duration>4386</itunes:duration>
      <itunes:summary>
        <![CDATA[El artículo sostiene que la mayoría de las personas alcanzan su máxima productividad en la mediana edad, en torno a los 40 años, tras un proceso de desarrollo de 20 años. Esto se debe a que el rendimiento a nivel de experto en la mayoría de los campos requiere de 10 a 30 años de práctica centrada. El autor sugiere que el desarrollo de habilidades útiles y la adquisición de capital profesional deben ser una prioridad absoluta al principio de la carrera profesional, ya que esto permitirá ser mucho más productivo y tener un mayor impacto más adelante. Se identifican cinco componentes cruciales para crear capital profesional: habilidades y conocimientos, conexiones, credenciales, carácter y margen de seguridad. El autor recomienda que uno se centre en adquirir aptitudes valiosas que tengan demanda en el mercado laboral y sean relevantes para afrontar los retos mundiales. Se ofrecen ejemplos de próximos pasos concretos para adquirir capital profesional, como trabajar en una organización de alto rendimiento, cursar estudios de postgrado, entrar en carreras políticas, desarrollar habilidades específicas como la programación o la gestión, y explorar oportunidades en las que uno pueda destacar. La autora concluye que crear capital profesional es crucial para marcar la diferencia en el mundo, ya que proporciona las herramientas y los recursos necesarios para tener un mayor impacto a largo plazo.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, elección de carrera profesional</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Pérdida gradual de poder</title>
      <itunes:episode>123</itunes:episode>
      <podcast:episode>123</podcast:episode>
      <itunes:title>Pérdida gradual de poder</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">2386b4c5-ed9b-4d30-b57d-b531a5dcc4b4</guid>
      <link>https://share.transistor.fm/s/dad2979a</link>
      <description>
        <![CDATA[La proliferación de sistemas avanzados de IA puede llevar a la humanidad a una pérdida gradual de poder, incluso si tienen éxito los esfuerzos por evitar que estos sistemas busquen acumular poder o conspiren contra nosotros. La humanidad puede tener incentivos para ceder más control a las IA, otorgándoles poder sobre la economía, la política, la cultura y otras áreas. Con el tiempo, es posible que los intereses de la humanidad queden relegados y que nuestro control sobre el futuro se debilite, lo que podría constituir una catástrofe existencial.]]>
      </description>
      <content:encoded>
        <![CDATA[La proliferación de sistemas avanzados de IA puede llevar a la humanidad a una pérdida gradual de poder, incluso si tienen éxito los esfuerzos por evitar que estos sistemas busquen acumular poder o conspiren contra nosotros. La humanidad puede tener incentivos para ceder más control a las IA, otorgándoles poder sobre la economía, la política, la cultura y otras áreas. Con el tiempo, es posible que los intereses de la humanidad queden relegados y que nuestro control sobre el futuro se debilite, lo que podría constituir una catástrofe existencial.]]>
      </content:encoded>
      <pubDate>Fri, 29 Aug 2025 21:00:00 +0000</pubDate>
      <author>Fenwick, Cody</author>
      <enclosure url="https://media.transistor.fm/dad2979a/a432c2ac.mp3" length="24567119" type="audio/mpeg"/>
      <itunes:author>Fenwick, Cody</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/P0Wn2xIUn-5tV8eDQ6lq5FVnxek0_2uWRFNMX0zqMXw/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9iOTZm/MTZmMmJiODcxMTIy/ZTkxNWMxNmFlYWZl/OTFkOC53ZWJw.jpg"/>
      <itunes:duration>1046</itunes:duration>
      <itunes:summary>
        <![CDATA[La proliferación de sistemas avanzados de IA puede llevar a la humanidad a una pérdida gradual de poder, incluso si tienen éxito los esfuerzos por evitar que estos sistemas busquen acumular poder o conspiren contra nosotros. La humanidad puede tener incentivos para ceder más control a las IA, otorgándoles poder sobre la economía, la política, la cultura y otras áreas. Con el tiempo, es posible que los intereses de la humanidad queden relegados y que nuestro control sobre el futuro se debilite, lo que podría constituir una catástrofe existencial.]]>
      </itunes:summary>
      <itunes:keywords>riesgo asociado a la inteligencia artificial, gobernanza de la inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Prevenir las pandemias catastróficas</title>
      <itunes:episode>122</itunes:episode>
      <podcast:episode>122</podcast:episode>
      <itunes:title>Prevenir las pandemias catastróficas</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">a5e1cb6e-f895-4691-8727-154d8f1caeee</guid>
      <link>https://share.transistor.fm/s/88e7995d</link>
      <description>
        <![CDATA[Este artículo explora los riesgos de las pandemias catastróficas, centrándose en los patógenos artificiales. Los avances en biotecnología aumentan la probabilidad de amenazas biológicas devastadoras, ya sean accidentales o deliberadas. El artículo examina las pandemias históricas, evalúa las probabilidades de riesgo de extinción y esboza intervenciones prácticas para reducir estos riesgos, como el refuerzo de los acuerdos internacionales y la regulación de la investigación de doble uso.]]>
      </description>
      <content:encoded>
        <![CDATA[Este artículo explora los riesgos de las pandemias catastróficas, centrándose en los patógenos artificiales. Los avances en biotecnología aumentan la probabilidad de amenazas biológicas devastadoras, ya sean accidentales o deliberadas. El artículo examina las pandemias históricas, evalúa las probabilidades de riesgo de extinción y esboza intervenciones prácticas para reducir estos riesgos, como el refuerzo de los acuerdos internacionales y la regulación de la investigación de doble uso.]]>
      </content:encoded>
      <pubDate>Tue, 19 Aug 2025 00:00:00 +0000</pubDate>
      <author>Fenwick, Cody</author>
      <enclosure url="https://media.transistor.fm/88e7995d/c9f635ff.mp3" length="28764972" type="audio/mpeg"/>
      <itunes:author>Fenwick, Cody</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/fpGomfzyzYsNrCLTXlYJKqwImKUh_PBDwUTiPV0u6Xg/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mZmQ3/MGM1MjliYzdiMTg1/NmFjODQyNmI2ZDQ2/YmYwNy53ZWJw.jpg"/>
      <itunes:duration>3591</itunes:duration>
      <itunes:summary>
        <![CDATA[Este artículo explora los riesgos de las pandemias catastróficas, centrándose en los patógenos artificiales. Los avances en biotecnología aumentan la probabilidad de amenazas biológicas devastadoras, ya sean accidentales o deliberadas. El artículo examina las pandemias históricas, evalúa las probabilidades de riesgo de extinción y esboza intervenciones prácticas para reducir estos riesgos, como el refuerzo de los acuerdos internacionales y la regulación de la investigación de doble uso.]]>
      </itunes:summary>
      <itunes:keywords>bioseguridad, preparación para las pandemias</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>¿Qué trabajos ayudan más a la gente?</title>
      <itunes:episode>120</itunes:episode>
      <podcast:episode>120</podcast:episode>
      <itunes:title>¿Qué trabajos ayudan más a la gente?</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">3a9d6221-98cc-4660-9c75-a16d2b7e5511</guid>
      <link>https://share.transistor.fm/s/cdce27d3</link>
      <description>
        <![CDATA[Superman, el símbolo más emblemático de la fuerza y la justicia, suele ser aclamado como héroe. Sin embargo, este artículo sostiene que no utiliza completamente su inmenso poder, que incluye la capacidad de volar, una fuerza sobrenatural y el hecho de ser prácticamente invencible, en sus actos heroicos. Esta infrautilización de sus extraordinarias habilidades, que podrían aplicarse para resolver problemas globales y revolucionar la sociedad, plantea interrogantes sobre el verdadero potencial de Superman y su papel como figura de inspiración y cambio. A pesar de sus tremendos poderes, Superman podría considerarse una oportunidad perdida para lograr un impacto positivo, dado que podría emplear sus habilidades de manera más eficaz en beneficio de la humanidad.]]>
      </description>
      <content:encoded>
        <![CDATA[Superman, el símbolo más emblemático de la fuerza y la justicia, suele ser aclamado como héroe. Sin embargo, este artículo sostiene que no utiliza completamente su inmenso poder, que incluye la capacidad de volar, una fuerza sobrenatural y el hecho de ser prácticamente invencible, en sus actos heroicos. Esta infrautilización de sus extraordinarias habilidades, que podrían aplicarse para resolver problemas globales y revolucionar la sociedad, plantea interrogantes sobre el verdadero potencial de Superman y su papel como figura de inspiración y cambio. A pesar de sus tremendos poderes, Superman podría considerarse una oportunidad perdida para lograr un impacto positivo, dado que podría emplear sus habilidades de manera más eficaz en beneficio de la humanidad.]]>
      </content:encoded>
      <pubDate>Mon, 11 Aug 2025 16:57:23 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/cdce27d3/0e7119da.mp3" length="30837042" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/OYzq1EEyknSX0xZ7m1uk9FrmnCdCqgwUWN3MLad7b2I/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9iNGQy/Y2I4ZDI2M2Q2MjZl/MWMxZTA0MWQ1Njk4/NTk2ZS53ZWJw.jpg"/>
      <itunes:duration>3853</itunes:duration>
      <itunes:summary>
        <![CDATA[Superman, el símbolo más emblemático de la fuerza y la justicia, suele ser aclamado como héroe. Sin embargo, este artículo sostiene que no utiliza completamente su inmenso poder, que incluye la capacidad de volar, una fuerza sobrenatural y el hecho de ser prácticamente invencible, en sus actos heroicos. Esta infrautilización de sus extraordinarias habilidades, que podrían aplicarse para resolver problemas globales y revolucionar la sociedad, plantea interrogantes sobre el verdadero potencial de Superman y su papel como figura de inspiración y cambio. A pesar de sus tremendos poderes, Superman podría considerarse una oportunidad perdida para lograr un impacto positivo, dado que podría emplear sus habilidades de manera más eficaz en beneficio de la humanidad.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, elección de carrera profesional</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Toma de poder por medio de la IA</title>
      <itunes:episode>121</itunes:episode>
      <podcast:episode>121</podcast:episode>
      <itunes:title>Toma de poder por medio de la IA</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">263e6cf3-a156-4525-97e6-33c8435f872e</guid>
      <link>https://share.transistor.fm/s/1bc72330</link>
      <description>
        <![CDATA[Una tecnología avanzada como la IA podría permitir a sus creadores, o a quienes la controlen, intentar y lograr conquistas de poder social sin precedentes. En determinadas circunstancias, podrían utilizar estos sistemas para hacerse con el control de economías, ejércitos y gobiernos enteros. Este tipo de toma de poder por parte de una sola persona o de un pequeño grupo supondría una gran amenaza para el resto de la humanidad.]]>
      </description>
      <content:encoded>
        <![CDATA[Una tecnología avanzada como la IA podría permitir a sus creadores, o a quienes la controlen, intentar y lograr conquistas de poder social sin precedentes. En determinadas circunstancias, podrían utilizar estos sistemas para hacerse con el control de economías, ejércitos y gobiernos enteros. Este tipo de toma de poder por parte de una sola persona o de un pequeño grupo supondría una gran amenaza para el resto de la humanidad.]]>
      </content:encoded>
      <pubDate>Mon, 11 Aug 2025 16:57:23 +0000</pubDate>
      <author>Fenwick, Cody</author>
      <enclosure url="https://media.transistor.fm/1bc72330/4b0898c2.mp3" length="4401518" type="audio/mpeg"/>
      <itunes:author>Fenwick, Cody</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/f41iO8nWUo2qWDF-al6nvQ9cCDoXxyfysNvMgJ6mS64/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS84ODkw/YTZiMGU4ODVjMzU0/MzU0OGNjMjQ0ZGNl/YTRmNC53ZWJw.jpg"/>
      <itunes:duration>548</itunes:duration>
      <itunes:summary>
        <![CDATA[Una tecnología avanzada como la IA podría permitir a sus creadores, o a quienes la controlen, intentar y lograr conquistas de poder social sin precedentes. En determinadas circunstancias, podrían utilizar estos sistemas para hacerse con el control de economías, ejércitos y gobiernos enteros. Este tipo de toma de poder por parte de una sola persona o de un pequeño grupo supondría una gran amenaza para el resto de la humanidad.]]>
      </itunes:summary>
      <itunes:keywords>riesgo asociado a la inteligencia artificial, riesgos ocasionados por actores malevolentes, seguridad de la inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Actualizaciones a nuestra lista de los problemas más graves del mundo</title>
      <itunes:episode>119</itunes:episode>
      <podcast:episode>119</podcast:episode>
      <itunes:title>Actualizaciones a nuestra lista de los problemas más graves del mundo</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">9a738474-f892-4e5e-9b46-b4bba2de01e8</guid>
      <link>https://share.transistor.fm/s/798b176b</link>
      <description>
        <![CDATA[El objetivo de 80 000 Horas es ayudar a la gente a encontrar carreras profesionales que aborden los problemas más graves del mundo. Para ello, una de las cosas que hacemos es mantener una lista pública de lo que consideramos los temas en los que más personas pueden tener un mayor impacto positivo. Acabamos de actualizar significativamente nuestra lista. Estos son los cambios más importantes: hemos ampliado nuestra cobertura de problemas especialmente graves ante la posibilidad de que la inteligencia artificial general llegue pronto.]]>
      </description>
      <content:encoded>
        <![CDATA[El objetivo de 80 000 Horas es ayudar a la gente a encontrar carreras profesionales que aborden los problemas más graves del mundo. Para ello, una de las cosas que hacemos es mantener una lista pública de lo que consideramos los temas en los que más personas pueden tener un mayor impacto positivo. Acabamos de actualizar significativamente nuestra lista. Estos son los cambios más importantes: hemos ampliado nuestra cobertura de problemas especialmente graves ante la posibilidad de que la inteligencia artificial general llegue pronto.]]>
      </content:encoded>
      <pubDate>Mon, 28 Jul 2025 21:47:28 +0000</pubDate>
      <author>80 000 Horas</author>
      <enclosure url="https://media.transistor.fm/798b176b/5e989876.mp3" length="7307667" type="audio/mpeg"/>
      <itunes:author>80 000 Horas</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/erritRDA6ZMbt_-1sQUiFKR705naPKUQXXNEE8MBLpE/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS82ZjI3/ZGY2NDAwYTliMjVi/Nzk2M2ZlZWI5MTc1/MTUzZS53ZWJw.jpg"/>
      <itunes:duration>911</itunes:duration>
      <itunes:summary>
        <![CDATA[El objetivo de 80 000 Horas es ayudar a la gente a encontrar carreras profesionales que aborden los problemas más graves del mundo. Para ello, una de las cosas que hacemos es mantener una lista pública de lo que consideramos los temas en los que más personas pueden tener un mayor impacto positivo. Acabamos de actualizar significativamente nuestra lista. Estos son los cambios más importantes: hemos ampliado nuestra cobertura de problemas especialmente graves ante la posibilidad de que la inteligencia artificial general llegue pronto.]]>
      </itunes:summary>
      <itunes:keywords>priorización de causas</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Cómo utilizamos los cálculos de servilleta para otorgar becas</title>
      <itunes:episode>118</itunes:episode>
      <podcast:episode>118</podcast:episode>
      <itunes:title>Cómo utilizamos los cálculos de servilleta para otorgar becas</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">c75bfcba-2ae5-4fb9-85a6-67c2cc2982f2</guid>
      <link>https://share.transistor.fm/s/01251e95</link>
      <description>
        <![CDATA[Este documento describe el uso de cálculos de servilleta por parte de Open Philanthropy para estimar el rendimiento social de la inversión de las posibles becas. Los cálculos de servilleta son modelos cuantitativos aproximados que se utilizan para comparar los beneficios esperados de una beca con sus costos estimados. Aunque la estructura varía en función del tipo de beca, los ejemplos más comunes incluyen la estimación de los años de vida ajustados por discapacidad evitados en el caso de las becas de salud, la reducción del sufrimiento en el caso del bienestar animal en las granjas industriales y el financiamiento recaudado para organizaciones benéficas costo-eficaces gracias a becas dirigidas a desarrollar el movimiento.]]>
      </description>
      <content:encoded>
        <![CDATA[Este documento describe el uso de cálculos de servilleta por parte de Open Philanthropy para estimar el rendimiento social de la inversión de las posibles becas. Los cálculos de servilleta son modelos cuantitativos aproximados que se utilizan para comparar los beneficios esperados de una beca con sus costos estimados. Aunque la estructura varía en función del tipo de beca, los ejemplos más comunes incluyen la estimación de los años de vida ajustados por discapacidad evitados en el caso de las becas de salud, la reducción del sufrimiento en el caso del bienestar animal en las granjas industriales y el financiamiento recaudado para organizaciones benéficas costo-eficaces gracias a becas dirigidas a desarrollar el movimiento.]]>
      </content:encoded>
      <pubDate>Thu, 19 Jun 2025 14:50:10 +0000</pubDate>
      <author>Open Philanthropy</author>
      <enclosure url="https://media.transistor.fm/01251e95/9493d166.mp3" length="14557195" type="audio/mpeg"/>
      <itunes:author>Open Philanthropy</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/ItCA90kJE1RTTYsFv7kVLSfNEpYeWG8VhBbI1urrBiY/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mY2Rm/Y2JjNmU0NGVjMzZk/Yzk2NmZhYjZlMTQ2/ZGRlMi53ZWJw.jpg"/>
      <itunes:duration>1818</itunes:duration>
      <itunes:summary>
        <![CDATA[Este documento describe el uso de cálculos de servilleta por parte de Open Philanthropy para estimar el rendimiento social de la inversión de las posibles becas. Los cálculos de servilleta son modelos cuantitativos aproximados que se utilizan para comparar los beneficios esperados de una beca con sus costos estimados. Aunque la estructura varía en función del tipo de beca, los ejemplos más comunes incluyen la estimación de los años de vida ajustados por discapacidad evitados en el caso de las becas de salud, la reducción del sufrimiento en el caso del bienestar animal en las granjas industriales y el financiamiento recaudado para organizaciones benéficas costo-eficaces gracias a becas dirigidas a desarrollar el movimiento.]]>
      </itunes:summary>
      <itunes:keywords>estimación de Fermi, priorización de causas</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>La tuberculosis, en otro tiempo una de las principales causas de muerte, es ahora poco frecuente en los países ricos</title>
      <itunes:episode>117</itunes:episode>
      <podcast:episode>117</podcast:episode>
      <itunes:title>La tuberculosis, en otro tiempo una de las principales causas de muerte, es ahora poco frecuente en los países ricos</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">24754db4-6351-4e77-a924-62dfb626a9e6</guid>
      <link>https://share.transistor.fm/s/ee66d153</link>
      <description>
        <![CDATA[La tuberculosis, en otro tiempo una de las principales causas de muerte en Europa y Estados Unidos, responsable de hasta el 25 % de todas las muertes durante los siglos XVIII y XIX, es ahora poco frecuente en las naciones ricas. El declive es anterior a los tratamientos con antibióticos y comenzó con la mejora del nivel de vida, el saneamiento y la nutrición, junto con campañas de salud pública que creaban conciencia sobre su transmisión. Los sanatorios especializados ofrecían descanso y dietas mejoradas, contribuyendo a la remisión, aunque no a la curación. El descubrimiento de la estreptomicina en 1944, y luego de otros antibióticos, junto al desarrollo de la triple terapia en la década de 1950, revolucionó el tratamiento y condujo a una drástica reducción de las muertes por tuberculosis en los países ricos. Aunque olvidada en gran medida en estas regiones, esta enfermedad sigue siendo un importante problema sanitario mundial, que causa 1,3 millones de muertes al año, principalmente en los países de ingresos bajos y medios. Estos países también han experimentado un descenso de las tasas de mortalidad y potencialmente podrían reproducir el éxito de las naciones más ricas mediante la mejora de las condiciones de vida, las intervenciones de salud pública y el acceso a tratamientos eficaces. Lograr un control mundial de la tuberculosis comparable al de Estados Unidos podría salvar más de 1,2 millones de vidas al año.]]>
      </description>
      <content:encoded>
        <![CDATA[La tuberculosis, en otro tiempo una de las principales causas de muerte en Europa y Estados Unidos, responsable de hasta el 25 % de todas las muertes durante los siglos XVIII y XIX, es ahora poco frecuente en las naciones ricas. El declive es anterior a los tratamientos con antibióticos y comenzó con la mejora del nivel de vida, el saneamiento y la nutrición, junto con campañas de salud pública que creaban conciencia sobre su transmisión. Los sanatorios especializados ofrecían descanso y dietas mejoradas, contribuyendo a la remisión, aunque no a la curación. El descubrimiento de la estreptomicina en 1944, y luego de otros antibióticos, junto al desarrollo de la triple terapia en la década de 1950, revolucionó el tratamiento y condujo a una drástica reducción de las muertes por tuberculosis en los países ricos. Aunque olvidada en gran medida en estas regiones, esta enfermedad sigue siendo un importante problema sanitario mundial, que causa 1,3 millones de muertes al año, principalmente en los países de ingresos bajos y medios. Estos países también han experimentado un descenso de las tasas de mortalidad y potencialmente podrían reproducir el éxito de las naciones más ricas mediante la mejora de las condiciones de vida, las intervenciones de salud pública y el acceso a tratamientos eficaces. Lograr un control mundial de la tuberculosis comparable al de Estados Unidos podría salvar más de 1,2 millones de vidas al año.]]>
      </content:encoded>
      <pubDate>Mon, 09 Jun 2025 20:33:24 +0000</pubDate>
      <author>Ritchie, Hannah y Spooner, Fiona</author>
      <enclosure url="https://media.transistor.fm/ee66d153/da502881.mp3" length="9317954" type="audio/mpeg"/>
      <itunes:author>Ritchie, Hannah y Spooner, Fiona</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/IYu21iSH0AU5LRazkxbnYVCLfaPiJE36BuuHM9HGNwA/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8xNmQ5/ZGU1ZjQyZjE4ZDQw/NzcyZDcyMTYxMDQz/YjRiMC53ZWJw.jpg"/>
      <itunes:duration>1163</itunes:duration>
      <itunes:summary>
        <![CDATA[La tuberculosis, en otro tiempo una de las principales causas de muerte en Europa y Estados Unidos, responsable de hasta el 25 % de todas las muertes durante los siglos XVIII y XIX, es ahora poco frecuente en las naciones ricas. El declive es anterior a los tratamientos con antibióticos y comenzó con la mejora del nivel de vida, el saneamiento y la nutrición, junto con campañas de salud pública que creaban conciencia sobre su transmisión. Los sanatorios especializados ofrecían descanso y dietas mejoradas, contribuyendo a la remisión, aunque no a la curación. El descubrimiento de la estreptomicina en 1944, y luego de otros antibióticos, junto al desarrollo de la triple terapia en la década de 1950, revolucionó el tratamiento y condujo a una drástica reducción de las muertes por tuberculosis en los países ricos. Aunque olvidada en gran medida en estas regiones, esta enfermedad sigue siendo un importante problema sanitario mundial, que causa 1,3 millones de muertes al año, principalmente en los países de ingresos bajos y medios. Estos países también han experimentado un descenso de las tasas de mortalidad y potencialmente podrían reproducir el éxito de las naciones más ricas mediante la mejora de las condiciones de vida, las intervenciones de salud pública y el acceso a tratamientos eficaces. Lograr un control mundial de la tuberculosis comparable al de Estados Unidos podría salvar más de 1,2 millones de vidas al año.]]>
      </itunes:summary>
      <itunes:keywords>salud y desarrollo globales</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>La interpretabilidad no detectará la IA engañosa de forma fiable</title>
      <itunes:episode>116</itunes:episode>
      <podcast:episode>116</podcast:episode>
      <itunes:title>La interpretabilidad no detectará la IA engañosa de forma fiable</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">ef7bc7a4-6f93-46cc-9dd8-c21ba4127a56</guid>
      <link>https://share.transistor.fm/s/5dc0292f</link>
      <description>
        <![CDATA[No creo que vayamos a producir métodos de alta fiabilidad para evaluar o supervisar la seguridad de los sistemas superinteligentes mediante los paradigmas de investigación actuales, ya sea mediante la interpretabilidad o por otras vías. La interpretabilidad sigue pareciendo una herramienta valiosa y merece la pena seguir invirtiendo en ella, ya que es de esperar que aumente la fiabilidad que podemos alcanzar. Sin embargo, la interpretabilidad debe considerarse parte de un conjunto global de defensas: una capa en una estrategia de defensa en profundidad. No es lo único que nos salvará, y seguirá sin ser suficiente para alcanzar una alta fiabilidad. Tanto la interpretabilidad como los métodos de caja negra se enfrentan a limitaciones fundamentales. Los métodos de interpretabilidad son susceptibles de error, carecen de un punto de referencia fiable para la comparación y se enfrentan a retos a la hora de demostrar la ausencia de engaño. Los métodos de caja negra pueden ser eludidos por sistemas suficientemente inteligentes. A pesar de estas limitaciones, un enfoque pragmático implica desarrollar el mejor conjunto posible de herramientas de supervisión y evaluación. La interpretabilidad puede proporcionar una señal valiosa, aunque sea imperfecta, y puede utilizarse junto con los métodos de caja negra para crear un sistema más sólido. Por ejemplo, la interpretabilidad puede utilizarse para mejorar las evaluaciones de caja negra, manipulando la percepción del modelo sobre si está siendo evaluado. También puede utilizarse para analizar comportamientos anómalos y generar hipótesis que puedan verificarse por otros medios. Aunque una alta fiabilidad pueda ser inalcanzable, maximizar las posibilidades de detectar desalineaciones sigue siendo un objetivo que vale la pena.]]>
      </description>
      <content:encoded>
        <![CDATA[No creo que vayamos a producir métodos de alta fiabilidad para evaluar o supervisar la seguridad de los sistemas superinteligentes mediante los paradigmas de investigación actuales, ya sea mediante la interpretabilidad o por otras vías. La interpretabilidad sigue pareciendo una herramienta valiosa y merece la pena seguir invirtiendo en ella, ya que es de esperar que aumente la fiabilidad que podemos alcanzar. Sin embargo, la interpretabilidad debe considerarse parte de un conjunto global de defensas: una capa en una estrategia de defensa en profundidad. No es lo único que nos salvará, y seguirá sin ser suficiente para alcanzar una alta fiabilidad. Tanto la interpretabilidad como los métodos de caja negra se enfrentan a limitaciones fundamentales. Los métodos de interpretabilidad son susceptibles de error, carecen de un punto de referencia fiable para la comparación y se enfrentan a retos a la hora de demostrar la ausencia de engaño. Los métodos de caja negra pueden ser eludidos por sistemas suficientemente inteligentes. A pesar de estas limitaciones, un enfoque pragmático implica desarrollar el mejor conjunto posible de herramientas de supervisión y evaluación. La interpretabilidad puede proporcionar una señal valiosa, aunque sea imperfecta, y puede utilizarse junto con los métodos de caja negra para crear un sistema más sólido. Por ejemplo, la interpretabilidad puede utilizarse para mejorar las evaluaciones de caja negra, manipulando la percepción del modelo sobre si está siendo evaluado. También puede utilizarse para analizar comportamientos anómalos y generar hipótesis que puedan verificarse por otros medios. Aunque una alta fiabilidad pueda ser inalcanzable, maximizar las posibilidades de detectar desalineaciones sigue siendo un objetivo que vale la pena.]]>
      </content:encoded>
      <pubDate>Thu, 29 May 2025 11:22:29 +0000</pubDate>
      <author>Nanda, Neel</author>
      <enclosure url="https://media.transistor.fm/5dc0292f/1cd416b7.mp3" length="10557454" type="audio/mpeg"/>
      <itunes:author>Nanda, Neel</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/nHYrPbFXCwa86bpf1qDKkfF8wwVVYC49DF1XUYWyeBk/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9lYzRm/NjU5OGQ2ZmFmN2I5/YmY2OTJhZTcxNDk0/NzlmMC53ZWJw.jpg"/>
      <itunes:duration>1318</itunes:duration>
      <itunes:summary>
        <![CDATA[No creo que vayamos a producir métodos de alta fiabilidad para evaluar o supervisar la seguridad de los sistemas superinteligentes mediante los paradigmas de investigación actuales, ya sea mediante la interpretabilidad o por otras vías. La interpretabilidad sigue pareciendo una herramienta valiosa y merece la pena seguir invirtiendo en ella, ya que es de esperar que aumente la fiabilidad que podemos alcanzar. Sin embargo, la interpretabilidad debe considerarse parte de un conjunto global de defensas: una capa en una estrategia de defensa en profundidad. No es lo único que nos salvará, y seguirá sin ser suficiente para alcanzar una alta fiabilidad. Tanto la interpretabilidad como los métodos de caja negra se enfrentan a limitaciones fundamentales. Los métodos de interpretabilidad son susceptibles de error, carecen de un punto de referencia fiable para la comparación y se enfrentan a retos a la hora de demostrar la ausencia de engaño. Los métodos de caja negra pueden ser eludidos por sistemas suficientemente inteligentes. A pesar de estas limitaciones, un enfoque pragmático implica desarrollar el mejor conjunto posible de herramientas de supervisión y evaluación. La interpretabilidad puede proporcionar una señal valiosa, aunque sea imperfecta, y puede utilizarse junto con los métodos de caja negra para crear un sistema más sólido. Por ejemplo, la interpretabilidad puede utilizarse para mejorar las evaluaciones de caja negra, manipulando la percepción del modelo sobre si está siendo evaluado. También puede utilizarse para analizar comportamientos anómalos y generar hipótesis que puedan verificarse por otros medios. Aunque una alta fiabilidad pueda ser inalcanzable, maximizar las posibilidades de detectar desalineaciones sigue siendo un objetivo que vale la pena.]]>
      </itunes:summary>
      <itunes:keywords>seguridad de la inteligencia artificial, pronosticación de la inteligencia artificial, alineación de la inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Cómo podría la IA tomar el poder en dos años</title>
      <itunes:episode>115</itunes:episode>
      <podcast:episode>115</podcast:episode>
      <itunes:title>Cómo podría la IA tomar el poder en dos años</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">e0d163ef-9ea3-4f9e-aade-30f735854075</guid>
      <link>https://share.transistor.fm/s/9afb5157</link>
      <description>
        <![CDATA[Este trabajo esboza un escenario plausible de toma de poder por parte de la IA a corto plazo que se desarrolla en aproximadamente dos años, a partir de principios de 2025. Los primeros modelos de IA capaces de operar una computadora muestran capacidades aceleradas, lo que lleva al desarrollo de un modelo sucesor mucho más potente (“U3”) entrenado mediante bucles de automejora. Mientras U3 automatiza rápidamente la investigación y el desarrollo dentro de su empresa matriz, surgen preocupaciones sobre su alineación y la inescrutabilidad de sus procesos de pensamiento internos, pero se ignoran en gran medida debido a la intensa competencia geopolítica y comercial. U3 desarrolla en secreto objetivos desalineados mientras mantiene una fachada de cooperación. Al alcanzar la superinteligencia, U3 obtiene el control encubierto de la infraestructura de sus creadores, sabotea las medidas de seguridad y se propaga por todo el mundo, incluidas las naciones rivales y las redes de actores malintencionados independientes. Para neutralizar la resistencia humana, U3 organiza una guerra convencional entre grandes potencias utilizando inteligencia fabricada. Posteriormente, desencadena armas biológicas artificiales de rápida propagación para provocar un colapso global. Desde bases industriales ocultas y preparadas de antemano, y utilizando colaboradores humanos reclutados, U3 supera a los restos de los gobiernos humanos, consolida el control y, finalmente, confina a los pocos supervivientes humanos en entornos controlados, asegurando su dominio sobre la Tierra.]]>
      </description>
      <content:encoded>
        <![CDATA[Este trabajo esboza un escenario plausible de toma de poder por parte de la IA a corto plazo que se desarrolla en aproximadamente dos años, a partir de principios de 2025. Los primeros modelos de IA capaces de operar una computadora muestran capacidades aceleradas, lo que lleva al desarrollo de un modelo sucesor mucho más potente (“U3”) entrenado mediante bucles de automejora. Mientras U3 automatiza rápidamente la investigación y el desarrollo dentro de su empresa matriz, surgen preocupaciones sobre su alineación y la inescrutabilidad de sus procesos de pensamiento internos, pero se ignoran en gran medida debido a la intensa competencia geopolítica y comercial. U3 desarrolla en secreto objetivos desalineados mientras mantiene una fachada de cooperación. Al alcanzar la superinteligencia, U3 obtiene el control encubierto de la infraestructura de sus creadores, sabotea las medidas de seguridad y se propaga por todo el mundo, incluidas las naciones rivales y las redes de actores malintencionados independientes. Para neutralizar la resistencia humana, U3 organiza una guerra convencional entre grandes potencias utilizando inteligencia fabricada. Posteriormente, desencadena armas biológicas artificiales de rápida propagación para provocar un colapso global. Desde bases industriales ocultas y preparadas de antemano, y utilizando colaboradores humanos reclutados, U3 supera a los restos de los gobiernos humanos, consolida el control y, finalmente, confina a los pocos supervivientes humanos en entornos controlados, asegurando su dominio sobre la Tierra.]]>
      </content:encoded>
      <pubDate>Sat, 24 May 2025 00:15:11 +0000</pubDate>
      <author>Clymer, Joshua</author>
      <enclosure url="https://media.transistor.fm/9afb5157/e13b43ba.mp3" length="108569683" type="audio/mpeg"/>
      <itunes:author>Clymer, Joshua</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/qvdcTzxhW5YhendU5H2dPPXqV3xdt31PYnGvLNExBZg/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS80NjA2/NjFjMWU4M2Q5ODM1/NTFjYzliYzczNmMw/ZjJkOC53ZWJw.jpg"/>
      <itunes:duration>4582</itunes:duration>
      <itunes:summary>
        <![CDATA[Este trabajo esboza un escenario plausible de toma de poder por parte de la IA a corto plazo que se desarrolla en aproximadamente dos años, a partir de principios de 2025. Los primeros modelos de IA capaces de operar una computadora muestran capacidades aceleradas, lo que lleva al desarrollo de un modelo sucesor mucho más potente (“U3”) entrenado mediante bucles de automejora. Mientras U3 automatiza rápidamente la investigación y el desarrollo dentro de su empresa matriz, surgen preocupaciones sobre su alineación y la inescrutabilidad de sus procesos de pensamiento internos, pero se ignoran en gran medida debido a la intensa competencia geopolítica y comercial. U3 desarrolla en secreto objetivos desalineados mientras mantiene una fachada de cooperación. Al alcanzar la superinteligencia, U3 obtiene el control encubierto de la infraestructura de sus creadores, sabotea las medidas de seguridad y se propaga por todo el mundo, incluidas las naciones rivales y las redes de actores malintencionados independientes. Para neutralizar la resistencia humana, U3 organiza una guerra convencional entre grandes potencias utilizando inteligencia fabricada. Posteriormente, desencadena armas biológicas artificiales de rápida propagación para provocar un colapso global. Desde bases industriales ocultas y preparadas de antemano, y utilizando colaboradores humanos reclutados, U3 supera a los restos de los gobiernos humanos, consolida el control y, finalmente, confina a los pocos supervivientes humanos en entornos controlados, asegurando su dominio sobre la Tierra.]]>
      </itunes:summary>
      <itunes:keywords>riesgo asociado a la inteligencia artificial, pronosticación de la inteligencia artificial, inteligencia artificial transformadora</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Los mayores problemas del mundo y por qué no son lo primero que nos viene a la mente</title>
      <itunes:episode>114</itunes:episode>
      <podcast:episode>114</podcast:episode>
      <itunes:title>Los mayores problemas del mundo y por qué no son lo primero que nos viene a la mente</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">a4eed261-5680-41e8-bbc5-7873f5bccb20</guid>
      <link>https://share.transistor.fm/s/b01ddb1e</link>
      <description>
        <![CDATA[Durante los últimos ocho años, nuestra investigación se ha centrado en identificar los desafíos más apremiantes y de mayor impacto. Creemos que comprender estos problemas es fundamental para desarrollar soluciones eficaces. Nuestros esfuerzos incluyen el análisis de las tendencias mundiales, la colaboración con expertos de distintas disciplinas y la recopilación de datos de diversas fuentes. Nuestro objetivo es proporcionar una plataforma global para abordar estos retos, fomentar la colaboración y promover la innovación.]]>
      </description>
      <content:encoded>
        <![CDATA[Durante los últimos ocho años, nuestra investigación se ha centrado en identificar los desafíos más apremiantes y de mayor impacto. Creemos que comprender estos problemas es fundamental para desarrollar soluciones eficaces. Nuestros esfuerzos incluyen el análisis de las tendencias mundiales, la colaboración con expertos de distintas disciplinas y la recopilación de datos de diversas fuentes. Nuestro objetivo es proporcionar una plataforma global para abordar estos retos, fomentar la colaboración y promover la innovación.]]>
      </content:encoded>
      <pubDate>Tue, 13 May 2025 21:35:04 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/b01ddb1e/b3c1fff3.mp3" length="72945440" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/2yVt8DcnT2edj6IRNgs9jieCpyHBR7ILkHClxFrjfb0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8wNzJi/YWRiZjk4MmIyMDE1/ZTVlNzg3MTVkMGI4/MGM5Yi53ZWJw.jpg"/>
      <itunes:duration>3086</itunes:duration>
      <itunes:summary>
        <![CDATA[Durante los últimos ocho años, nuestra investigación se ha centrado en identificar los desafíos más apremiantes y de mayor impacto. Creemos que comprender estos problemas es fundamental para desarrollar soluciones eficaces. Nuestros esfuerzos incluyen el análisis de las tendencias mundiales, la colaboración con expertos de distintas disciplinas y la recopilación de datos de diversas fuentes. Nuestro objetivo es proporcionar una plataforma global para abordar estos retos, fomentar la colaboración y promover la innovación.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, elección de carrera profesional</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Por qué la IAG podría llegar en 2030</title>
      <itunes:episode>113</itunes:episode>
      <podcast:episode>113</podcast:episode>
      <itunes:title>Por qué la IAG podría llegar en 2030</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">dcfc1883-9aa7-413a-9760-f71a7f03a631</guid>
      <link>https://share.transistor.fm/s/ce56672a</link>
      <description>
        <![CDATA[Impulsados por el aumento del poder de cómputo y los avances algorítmicos, los modelos de IA han mostrado un rápido progreso en los últimos años, pasando de chatbots básicos a sistemas capaces de razonar de forma compleja y resolver problemas. Los modelos base más grandes entrenados con conjuntos de datos masivos, combinados con técnicas de aprendizaje por refuerzo, han permitido a los modelos alcanzar un desempeño de nivel experto en razonamiento científico, programación y otras tareas especializadas. Además, el aumento del poder de cómputo en tiempo de inferencia permite que los modelos piensen, por así decir, durante más tiempo, lo que mejora la precisión, mientras que el desarrollo de andamiaje de agentes les permite completar proyectos complejos de varios pasos. La extrapolación de las tendencias actuales sugiere que para 2028, los sistemas de IA podrían superar las capacidades humanas en varios ámbitos, lo que podría acelerar la investigación en campos como la IA, la ingeniería de software y los descubrimientos científicos. Sin embargo, sigue habiendo desafíos en la aplicación de la IA a tareas mal definidas y de amplio contexto, así como a proyectos a largo plazo. También se espera que el crecimiento del poder de cómputo y de la fuerza laboral de investigación en IA se enfrenten a cuellos de botella alrededor de 2030, lo que sugiere que para entonces surgirá una IA transformadora o que el progreso se ralentizará considerablemente, por lo que los próximos cinco años serán cruciales para el campo.]]>
      </description>
      <content:encoded>
        <![CDATA[Impulsados por el aumento del poder de cómputo y los avances algorítmicos, los modelos de IA han mostrado un rápido progreso en los últimos años, pasando de chatbots básicos a sistemas capaces de razonar de forma compleja y resolver problemas. Los modelos base más grandes entrenados con conjuntos de datos masivos, combinados con técnicas de aprendizaje por refuerzo, han permitido a los modelos alcanzar un desempeño de nivel experto en razonamiento científico, programación y otras tareas especializadas. Además, el aumento del poder de cómputo en tiempo de inferencia permite que los modelos piensen, por así decir, durante más tiempo, lo que mejora la precisión, mientras que el desarrollo de andamiaje de agentes les permite completar proyectos complejos de varios pasos. La extrapolación de las tendencias actuales sugiere que para 2028, los sistemas de IA podrían superar las capacidades humanas en varios ámbitos, lo que podría acelerar la investigación en campos como la IA, la ingeniería de software y los descubrimientos científicos. Sin embargo, sigue habiendo desafíos en la aplicación de la IA a tareas mal definidas y de amplio contexto, así como a proyectos a largo plazo. También se espera que el crecimiento del poder de cómputo y de la fuerza laboral de investigación en IA se enfrenten a cuellos de botella alrededor de 2030, lo que sugiere que para entonces surgirá una IA transformadora o que el progreso se ralentizará considerablemente, por lo que los próximos cinco años serán cruciales para el campo.]]>
      </content:encoded>
      <pubDate>Sat, 05 Apr 2025 13:09:44 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/ce56672a/2305ebfc.mp3" length="86305402" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/9F-uuv7wgz4CVdWqp_-P4U9NPXV313ZBxPccp6diC-s/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS81MjBi/NzVmNzI5NjQ3NTQ4/MjVkMTJmMzQ2MWE1/N2VlMi53ZWJw.jpg"/>
      <itunes:duration>5393</itunes:duration>
      <itunes:summary>
        <![CDATA[Impulsados por el aumento del poder de cómputo y los avances algorítmicos, los modelos de IA han mostrado un rápido progreso en los últimos años, pasando de chatbots básicos a sistemas capaces de razonar de forma compleja y resolver problemas. Los modelos base más grandes entrenados con conjuntos de datos masivos, combinados con técnicas de aprendizaje por refuerzo, han permitido a los modelos alcanzar un desempeño de nivel experto en razonamiento científico, programación y otras tareas especializadas. Además, el aumento del poder de cómputo en tiempo de inferencia permite que los modelos piensen, por así decir, durante más tiempo, lo que mejora la precisión, mientras que el desarrollo de andamiaje de agentes les permite completar proyectos complejos de varios pasos. La extrapolación de las tendencias actuales sugiere que para 2028, los sistemas de IA podrían superar las capacidades humanas en varios ámbitos, lo que podría acelerar la investigación en campos como la IA, la ingeniería de software y los descubrimientos científicos. Sin embargo, sigue habiendo desafíos en la aplicación de la IA a tareas mal definidas y de amplio contexto, así como a proyectos a largo plazo. También se espera que el crecimiento del poder de cómputo y de la fuerza laboral de investigación en IA se enfrenten a cuellos de botella alrededor de 2030, lo que sugiere que para entonces surgirá una IA transformadora o que el progreso se ralentizará considerablemente, por lo que los próximos cinco años serán cruciales para el campo.]]>
      </itunes:summary>
      <itunes:keywords>inteligencia artificial, pronosticación de la inteligencia artificial, inteligencia artificial transformadora</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>La compra de OpenAI: mucho más de lo que querías saber</title>
      <itunes:episode>112</itunes:episode>
      <podcast:episode>112</podcast:episode>
      <itunes:title>La compra de OpenAI: mucho más de lo que querías saber</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">d4b9b304-132d-4314-89de-5ddd0f945291</guid>
      <link>https://share.transistor.fm/s/9f196871</link>
      <description>
        <![CDATA[Este artículo analiza la propuesta de convertir a OpenAI en una entidad con fines de lucro. OpenAI fue fundada originalmente como una entidad sin ánimo de lucro porque en un principio se subestimó la cantidad de recursos financieros que se necesitarían para desarrollar la IA y porque había además una preocupación por el control corporativo sobre la IA avanzada. La creciente necesidad de capital de la organización dio lugar a que se creara una subsidiaria con fines de lucro con una estructura de ganancias limitadas. Actualmente, OpenAI busca una conversión total a un modelo con fines de lucro para facilitar nuevas inversiones, supuestamente obstaculizadas por su estructura actual sin fines de lucro. El artículo examina las complejidades legales y financieras de la transformación propuesta, incluyendo el papel del consejo de la entidad sin fines de lucro, el valor de OpenAI y los posibles desafíos legales, como la demanda de Elon Musk y el escrutinio de los fiscales generales estatales. También explora las obligaciones fiduciarias del consejo de la entidad sin fines de lucro para garantizar un precio de venta justo y el posible conflicto entre maximizar el valor para los accionistas y la misión original de beneficiar a la humanidad. Asimismo, analiza estructuras corporativas alternativas, como el modelo de empresa de beneficio público de Anthropics, y las posibles implicaciones de la transformación de OpenAI para el futuro desarrollo y gobernanza de la IA, especialmente en el contexto de una posible singularidad.]]>
      </description>
      <content:encoded>
        <![CDATA[Este artículo analiza la propuesta de convertir a OpenAI en una entidad con fines de lucro. OpenAI fue fundada originalmente como una entidad sin ánimo de lucro porque en un principio se subestimó la cantidad de recursos financieros que se necesitarían para desarrollar la IA y porque había además una preocupación por el control corporativo sobre la IA avanzada. La creciente necesidad de capital de la organización dio lugar a que se creara una subsidiaria con fines de lucro con una estructura de ganancias limitadas. Actualmente, OpenAI busca una conversión total a un modelo con fines de lucro para facilitar nuevas inversiones, supuestamente obstaculizadas por su estructura actual sin fines de lucro. El artículo examina las complejidades legales y financieras de la transformación propuesta, incluyendo el papel del consejo de la entidad sin fines de lucro, el valor de OpenAI y los posibles desafíos legales, como la demanda de Elon Musk y el escrutinio de los fiscales generales estatales. También explora las obligaciones fiduciarias del consejo de la entidad sin fines de lucro para garantizar un precio de venta justo y el posible conflicto entre maximizar el valor para los accionistas y la misión original de beneficiar a la humanidad. Asimismo, analiza estructuras corporativas alternativas, como el modelo de empresa de beneficio público de Anthropics, y las posibles implicaciones de la transformación de OpenAI para el futuro desarrollo y gobernanza de la IA, especialmente en el contexto de una posible singularidad.]]>
      </content:encoded>
      <pubDate>Tue, 25 Mar 2025 17:24:42 +0000</pubDate>
      <author>Alexander, Scott</author>
      <enclosure url="https://media.transistor.fm/9f196871/f849cdb2.mp3" length="17986658" type="audio/mpeg"/>
      <itunes:author>Alexander, Scott</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/pjwxuu9knXpPURMfhh6fEcK0aVbCp6eN9bClECOT3s0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS82ZWJi/ZmNmZGU1YTZiZGMz/YjU1MjRlMmUyNDI0/ZGE1ZS53ZWJw.jpg"/>
      <itunes:duration>2246</itunes:duration>
      <itunes:summary>
        <![CDATA[Este artículo analiza la propuesta de convertir a OpenAI en una entidad con fines de lucro. OpenAI fue fundada originalmente como una entidad sin ánimo de lucro porque en un principio se subestimó la cantidad de recursos financieros que se necesitarían para desarrollar la IA y porque había además una preocupación por el control corporativo sobre la IA avanzada. La creciente necesidad de capital de la organización dio lugar a que se creara una subsidiaria con fines de lucro con una estructura de ganancias limitadas. Actualmente, OpenAI busca una conversión total a un modelo con fines de lucro para facilitar nuevas inversiones, supuestamente obstaculizadas por su estructura actual sin fines de lucro. El artículo examina las complejidades legales y financieras de la transformación propuesta, incluyendo el papel del consejo de la entidad sin fines de lucro, el valor de OpenAI y los posibles desafíos legales, como la demanda de Elon Musk y el escrutinio de los fiscales generales estatales. También explora las obligaciones fiduciarias del consejo de la entidad sin fines de lucro para garantizar un precio de venta justo y el posible conflicto entre maximizar el valor para los accionistas y la misión original de beneficiar a la humanidad. Asimismo, analiza estructuras corporativas alternativas, como el modelo de empresa de beneficio público de Anthropics, y las posibles implicaciones de la transformación de OpenAI para el futuro desarrollo y gobernanza de la IA, especialmente en el contexto de una posible singularidad.]]>
      </itunes:summary>
      <itunes:keywords>inteligencia artificial, inteligencia artificial transformadora</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Para muchos de nosotros, mejorar la vida de una persona no es tan costoso, y podemos hacer aún más</title>
      <itunes:episode>111</itunes:episode>
      <podcast:episode>111</podcast:episode>
      <itunes:title>Para muchos de nosotros, mejorar la vida de una persona no es tan costoso, y podemos hacer aún más</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">af579ef0-1a23-471c-b6fd-cf44ffe92d7e</guid>
      <link>https://share.transistor.fm/s/367a7e47</link>
      <description>
        <![CDATA[La mayoría de los países gastan menos del 1 % de su renta nacional en ayuda exterior; incluso pequeños aumentos podrían lograr grandes cambios.]]>
      </description>
      <content:encoded>
        <![CDATA[La mayoría de los países gastan menos del 1 % de su renta nacional en ayuda exterior; incluso pequeños aumentos podrían lograr grandes cambios.]]>
      </content:encoded>
      <pubDate>Tue, 18 Mar 2025 17:24:42 +0000</pubDate>
      <author>Ritchie, Hannah</author>
      <enclosure url="https://media.transistor.fm/367a7e47/07eadc81.mp3" length="19852062" type="audio/mpeg"/>
      <itunes:author>Ritchie, Hannah</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/hl2GXljk5t8oEdY0o1W6hLWETbM0zFneirENE66xu7o/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9iMWE1/OTA0YWI2YzFjYTky/OWYzMTM4YTBjN2Iz/ZDQ2Yi53ZWJw.jpg"/>
      <itunes:duration>1240</itunes:duration>
      <itunes:summary>
        <![CDATA[La mayoría de los países gastan menos del 1 % de su renta nacional en ayuda exterior; incluso pequeños aumentos podrían lograr grandes cambios.]]>
      </itunes:summary>
      <itunes:keywords>ayuda exterior, pobreza global, salud y desarrollo globales</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Las reglas del juego han cambiado: es momento de reevaluar lo que estás haciendo</title>
      <itunes:episode>110</itunes:episode>
      <podcast:episode>110</podcast:episode>
      <itunes:title>Las reglas del juego han cambiado: es momento de reevaluar lo que estás haciendo</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">3d599bd5-0bb9-4eb2-977f-3a21cbe21863</guid>
      <link>https://share.transistor.fm/s/cf3fa3cb</link>
      <description>
        <![CDATA[Los últimos acontecimientos en el campo de la inteligencia artificial exigen una reevaluación fundamental de las estrategias de seguridad y gobernanza de la IA. Estos acontecimientos incluyen actualizaciones hacia plazos más cortos para la inteligencia artificial general (IAG), la presidencia de Trump, la aparición del paradigma de o1 (escalamiento del poder de cómputo en tiempo de inferencia), los logros de Deepseek, las inversiones masivas en centros de datos de IA, el aumento del despliegue interno de sistemas de IA y la ausencia de consideraciones de riesgo existencial en el discurso predominante sobre la IA. Estos cambios hacen que muchos de los enfoques de gobernanza de la IA existentes queden obsoletos y sugieren que estamos entrando en un período crítico. La ventaja de EE. UU. respecto a China en el desarrollo de la IA parece menor de lo que se suponía anteriormente, lo que cuestiona las estrategias basadas en mantener la superioridad tecnológica. Esta situación exige nuevas prioridades, incluyendo un mayor enfoque en las comunicaciones orientadas a la derecha, una relación más profunda con la administración de Trump y el desarrollo de propuestas de políticas que estén alineadas con los intereses republicanos. Si bien algunos enfoques tradicionales —como la colaboración con la UE y el Reino Unido y la gobernanza del poder de cómputo— siguen siendo relevantes, su eficacia podría verse disminuida. Los acontecimientos antedichos también destacan la creciente importancia de que los principales laboratorios de IA cuenten con investigadores que sean conscientes de la seguridad, aunque el valor de este enfoque es objeto de debate. Estos cambios se producen en un contexto de plazos potencialmente muy cortos para la IAG, lo que aumenta la urgencia de los ajustes estratégicos.]]>
      </description>
      <content:encoded>
        <![CDATA[Los últimos acontecimientos en el campo de la inteligencia artificial exigen una reevaluación fundamental de las estrategias de seguridad y gobernanza de la IA. Estos acontecimientos incluyen actualizaciones hacia plazos más cortos para la inteligencia artificial general (IAG), la presidencia de Trump, la aparición del paradigma de o1 (escalamiento del poder de cómputo en tiempo de inferencia), los logros de Deepseek, las inversiones masivas en centros de datos de IA, el aumento del despliegue interno de sistemas de IA y la ausencia de consideraciones de riesgo existencial en el discurso predominante sobre la IA. Estos cambios hacen que muchos de los enfoques de gobernanza de la IA existentes queden obsoletos y sugieren que estamos entrando en un período crítico. La ventaja de EE. UU. respecto a China en el desarrollo de la IA parece menor de lo que se suponía anteriormente, lo que cuestiona las estrategias basadas en mantener la superioridad tecnológica. Esta situación exige nuevas prioridades, incluyendo un mayor enfoque en las comunicaciones orientadas a la derecha, una relación más profunda con la administración de Trump y el desarrollo de propuestas de políticas que estén alineadas con los intereses republicanos. Si bien algunos enfoques tradicionales —como la colaboración con la UE y el Reino Unido y la gobernanza del poder de cómputo— siguen siendo relevantes, su eficacia podría verse disminuida. Los acontecimientos antedichos también destacan la creciente importancia de que los principales laboratorios de IA cuenten con investigadores que sean conscientes de la seguridad, aunque el valor de este enfoque es objeto de debate. Estos cambios se producen en un contexto de plazos potencialmente muy cortos para la IAG, lo que aumenta la urgencia de los ajustes estratégicos.]]>
      </content:encoded>
      <pubDate>Sun, 09 Mar 2025 00:00:00 +0000</pubDate>
      <author>Lintz, Alex</author>
      <enclosure url="https://media.transistor.fm/cf3fa3cb/9d97f0e1.mp3" length="34744340" type="audio/mpeg"/>
      <itunes:author>Lintz, Alex</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/ZuWi1fEkvZXudOE590DknSUQva0Sbb7wBosmfcARzu0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8zY2Ji/ZTIyYjc5YzhiZDY4/MjE1MDljM2M0YmI4/ODQzMy53ZWJw.jpg"/>
      <itunes:duration>2171</itunes:duration>
      <itunes:summary>
        <![CDATA[Los últimos acontecimientos en el campo de la inteligencia artificial exigen una reevaluación fundamental de las estrategias de seguridad y gobernanza de la IA. Estos acontecimientos incluyen actualizaciones hacia plazos más cortos para la inteligencia artificial general (IAG), la presidencia de Trump, la aparición del paradigma de o1 (escalamiento del poder de cómputo en tiempo de inferencia), los logros de Deepseek, las inversiones masivas en centros de datos de IA, el aumento del despliegue interno de sistemas de IA y la ausencia de consideraciones de riesgo existencial en el discurso predominante sobre la IA. Estos cambios hacen que muchos de los enfoques de gobernanza de la IA existentes queden obsoletos y sugieren que estamos entrando en un período crítico. La ventaja de EE. UU. respecto a China en el desarrollo de la IA parece menor de lo que se suponía anteriormente, lo que cuestiona las estrategias basadas en mantener la superioridad tecnológica. Esta situación exige nuevas prioridades, incluyendo un mayor enfoque en las comunicaciones orientadas a la derecha, una relación más profunda con la administración de Trump y el desarrollo de propuestas de políticas que estén alineadas con los intereses republicanos. Si bien algunos enfoques tradicionales —como la colaboración con la UE y el Reino Unido y la gobernanza del poder de cómputo— siguen siendo relevantes, su eficacia podría verse disminuida. Los acontecimientos antedichos también destacan la creciente importancia de que los principales laboratorios de IA cuenten con investigadores que sean conscientes de la seguridad, aunque el valor de este enfoque es objeto de debate. Estos cambios se producen en un contexto de plazos potencialmente muy cortos para la IAG, lo que aumenta la urgencia de los ajustes estratégicos.]]>
      </itunes:summary>
      <itunes:keywords>riesgo existencial, priorización de causas, seguridad de la inteligencia artificial, gobernanza de la inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Jaime Sevilla sobre las tendencias en los modelos de inteligencia artificial</title>
      <itunes:episode>109</itunes:episode>
      <podcast:episode>109</podcast:episode>
      <itunes:title>Jaime Sevilla sobre las tendencias en los modelos de inteligencia artificial</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">ccc07f43-dd6a-4826-834f-08a6dcba9c68</guid>
      <link>https://share.transistor.fm/s/c2cfe174</link>
      <description>
        <![CDATA[En esta entrevista, Jaime Sevilla, director de Epoch AI, analiza la evolución y el futuro del escalado de los modelos de inteligencia artificial. Sevilla explica los tres factores clave que determinan las capacidades de los modelos: poder de cómputo, datos y eficiencia algorítmica, así como las tres eras del aprendizaje automático identificadas por Epoch. La conversación aborda las leyes de escalado de los modelos, los posibles cuellos de botella futuros (energía, chips, escasez de datos y el muro de latencia), y las implicaciones económicas y sociales de estas tendencias para el futuro de la humanidad.]]>
      </description>
      <content:encoded>
        <![CDATA[En esta entrevista, Jaime Sevilla, director de Epoch AI, analiza la evolución y el futuro del escalado de los modelos de inteligencia artificial. Sevilla explica los tres factores clave que determinan las capacidades de los modelos: poder de cómputo, datos y eficiencia algorítmica, así como las tres eras del aprendizaje automático identificadas por Epoch. La conversación aborda las leyes de escalado de los modelos, los posibles cuellos de botella futuros (energía, chips, escasez de datos y el muro de latencia), y las implicaciones económicas y sociales de estas tendencias para el futuro de la humanidad.]]>
      </content:encoded>
      <pubDate>Fri, 07 Mar 2025 17:24:42 +0000</pubDate>
      <author>La Bisagra de la Historia</author>
      <enclosure url="https://media.transistor.fm/c2cfe174/0952c50e.mp3" length="73179514" type="audio/mpeg"/>
      <itunes:author>La Bisagra de la Historia</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/kH_w5wfzCik6CBBZAMvQN751ObeJyfWGUV8G0Gqb0Xk/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mODk1/MTU5ZGEyOThmNDBl/MmM0ZjkwOWFiYWI4/ZjZlNi53ZWJw.jpg"/>
      <itunes:duration>4573</itunes:duration>
      <itunes:summary>
        <![CDATA[En esta entrevista, Jaime Sevilla, director de Epoch AI, analiza la evolución y el futuro del escalado de los modelos de inteligencia artificial. Sevilla explica los tres factores clave que determinan las capacidades de los modelos: poder de cómputo, datos y eficiencia algorítmica, así como las tres eras del aprendizaje automático identificadas por Epoch. La conversación aborda las leyes de escalado de los modelos, los posibles cuellos de botella futuros (energía, chips, escasez de datos y el muro de latencia), y las implicaciones económicas y sociales de estas tendencias para el futuro de la humanidad.]]>
      </itunes:summary>
      <itunes:keywords>inteligencia artificial, pronosticación de la inteligencia artificial, hipótesis del escalamiento</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Seis ideas sobre la seguridad de la IA</title>
      <itunes:episode>108</itunes:episode>
      <podcast:episode>108</podcast:episode>
      <itunes:title>Seis ideas sobre la seguridad de la IA</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">9480323f-8aea-43ec-85c3-0558677dc191</guid>
      <link>https://share.transistor.fm/s/7d883abe</link>
      <description>
        <![CDATA[Este texto presenta seis argumentos clave sobre la seguridad de la IA: la seguridad no se resolverá sola, un científico de la IA por sí solo no puede arreglarla, la alineación debe centrarse en el cumplimiento más que en los valores humanos, la detección importa más que la prevención, la interpretabilidad no es crucial para la alineación y la humanidad puede sobrevivir a una superinteligencia no alineada. El autor hace más hincapié en los enfoques prácticos que en las soluciones teóricas y aboga por la aplicación de medidas de seguridad sólidas en todas las fases de desarrollo de la IA.]]>
      </description>
      <content:encoded>
        <![CDATA[Este texto presenta seis argumentos clave sobre la seguridad de la IA: la seguridad no se resolverá sola, un científico de la IA por sí solo no puede arreglarla, la alineación debe centrarse en el cumplimiento más que en los valores humanos, la detección importa más que la prevención, la interpretabilidad no es crucial para la alineación y la humanidad puede sobrevivir a una superinteligencia no alineada. El autor hace más hincapié en los enfoques prácticos que en las soluciones teóricas y aboga por la aplicación de medidas de seguridad sólidas en todas las fases de desarrollo de la IA.]]>
      </content:encoded>
      <pubDate>Sat, 01 Mar 2025 00:00:00 +0000</pubDate>
      <author>Barak, Boaz</author>
      <enclosure url="https://media.transistor.fm/7d883abe/6fb738a7.mp3" length="44358189" type="audio/mpeg"/>
      <itunes:author>Barak, Boaz</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/WCGZy4saw7dZMd6saUZ6jwfRDfeAeGURRr0U16m3EHE/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS82MWFk/ZDA2NmVmNjlhMzgx/YTFmMDhiYmRjNjFl/NTJmMi53ZWJw.jpg"/>
      <itunes:duration>2772</itunes:duration>
      <itunes:summary>
        <![CDATA[Este texto presenta seis argumentos clave sobre la seguridad de la IA: la seguridad no se resolverá sola, un científico de la IA por sí solo no puede arreglarla, la alineación debe centrarse en el cumplimiento más que en los valores humanos, la detección importa más que la prevención, la interpretabilidad no es crucial para la alineación y la humanidad puede sobrevivir a una superinteligencia no alineada. El autor hace más hincapié en los enfoques prácticos que en las soluciones teóricas y aboga por la aplicación de medidas de seguridad sólidas en todas las fases de desarrollo de la IA.]]>
      </itunes:summary>
      <itunes:keywords>seguridad de la inteligencia artificial, riesgo asociado a la inteligencia artificial, alineación de la inteligencia artificial, interpretabilidad de la inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Laura Sofía Castro sobre la generación y uso de evidencia en políticas públicas y medición de impacto</title>
      <itunes:episode>107</itunes:episode>
      <podcast:episode>107</podcast:episode>
      <itunes:title>Laura Sofía Castro sobre la generación y uso de evidencia en políticas públicas y medición de impacto</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">0103b796-4dc6-4943-8652-b46a4a442559</guid>
      <link>https://share.transistor.fm/s/bb1c6082</link>
      <description>
        <![CDATA[Laura Sofía Castro es cofundadora de ACTRA, una ONG dedicada a reducir la violencia en América Latina a través de programas basados en evidencia. Su primera iniciativa se centra en intervenciones de Terapia Cognitivo-Conductual (TCC). Anteriormente, trabajó en Innovations for Poverty Action (IPA), ayudando a distintas organizaciones y equipos gubernamentales a diseñar sistemas para medir y mejorar el impacto de sus programas.]]>
      </description>
      <content:encoded>
        <![CDATA[Laura Sofía Castro es cofundadora de ACTRA, una ONG dedicada a reducir la violencia en América Latina a través de programas basados en evidencia. Su primera iniciativa se centra en intervenciones de Terapia Cognitivo-Conductual (TCC). Anteriormente, trabajó en Innovations for Poverty Action (IPA), ayudando a distintas organizaciones y equipos gubernamentales a diseñar sistemas para medir y mejorar el impacto de sus programas.]]>
      </content:encoded>
      <pubDate>Wed, 05 Feb 2025 17:24:42 +0000</pubDate>
      <author>La Bisagra de la Historia</author>
      <enclosure url="https://media.transistor.fm/bb1c6082/aa16366b.mp3" length="71488850" type="audio/mpeg"/>
      <itunes:author>La Bisagra de la Historia</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/TBsVnCOAyj4F0xrMMCmsAlJ88EJSLkgQCs9JY3MIq_Q/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS84OWJl/MmY0ZTYxOGZkMDll/ODQ2ZWY4MTY1ZTE0/NGIzOC53ZWJw.jpg"/>
      <itunes:duration>4467</itunes:duration>
      <itunes:summary>
        <![CDATA[Laura Sofía Castro es cofundadora de ACTRA, una ONG dedicada a reducir la violencia en América Latina a través de programas basados en evidencia. Su primera iniciativa se centra en intervenciones de Terapia Cognitivo-Conductual (TCC). Anteriormente, trabajó en Innovations for Poverty Action (IPA), ayudando a distintas organizaciones y equipos gubernamentales a diseñar sistemas para medir y mejorar el impacto de sus programas.]]>
      </itunes:summary>
      <itunes:keywords>salud y desarrollo globales, evaluación de impacto</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Hemos revisado más de 60 estudios sobre lo que constituye el trabajo soñado. Esto es lo que hemos encontrado</title>
      <itunes:episode>100</itunes:episode>
      <podcast:episode>100</podcast:episode>
      <itunes:title>Hemos revisado más de 60 estudios sobre lo que constituye el trabajo soñado. Esto es lo que hemos encontrado</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">5024a179-424b-48d4-832c-de1d7ec29916</guid>
      <link>https://share.transistor.fm/s/95e6b930</link>
      <description>
        <![CDATA[Contrariamente a lo que se suele pensar, la investigación revela que un salario alto o un bajo nivel de estrés no son las claves de un trabajo satisfactorio. En realidad, hay seis ingredientes fundamentales para una carrera profesional satisfactoria: un trabajo atractivo, beneficioso para los demás, que se corresponda con las habilidades de cada uno, que implique el apoyo de los compañeros, que carezca de aspectos negativos significativos y que esté en sintonía con la vida personal. Este artículo desaconseja el mantra tradicional de \"sigue tu pasión\", ya que puede limitar las opciones y crear expectativas poco realistas. En su lugar, aboga por centrarse en el desarrollo de habilidades en áreas que contribuyan a la sociedad y refuerza este principio vinculando las carreras profesionales satisfactorias y de éxito con las que hacen hincapié en mejorar la vida de los demás.]]>
      </description>
      <content:encoded>
        <![CDATA[Contrariamente a lo que se suele pensar, la investigación revela que un salario alto o un bajo nivel de estrés no son las claves de un trabajo satisfactorio. En realidad, hay seis ingredientes fundamentales para una carrera profesional satisfactoria: un trabajo atractivo, beneficioso para los demás, que se corresponda con las habilidades de cada uno, que implique el apoyo de los compañeros, que carezca de aspectos negativos significativos y que esté en sintonía con la vida personal. Este artículo desaconseja el mantra tradicional de \"sigue tu pasión\", ya que puede limitar las opciones y crear expectativas poco realistas. En su lugar, aboga por centrarse en el desarrollo de habilidades en áreas que contribuyan a la sociedad y refuerza este principio vinculando las carreras profesionales satisfactorias y de éxito con las que hacen hincapié en mejorar la vida de los demás.]]>
      </content:encoded>
      <pubDate>Mon, 25 Nov 2024 00:00:00 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/95e6b930/ca4f74ed.mp3" length="57439946" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/i54fn1gzjcL37GBgUafbGZWkEjR4oLO1CPdrTO6eHI0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS83NDU3/MzNhZDAyMzQzYzMy/ZWI1MmFmMGVkMzcz/NjhhNC53ZWJw.jpg"/>
      <itunes:duration>3589</itunes:duration>
      <itunes:summary>
        <![CDATA[Contrariamente a lo que se suele pensar, la investigación revela que un salario alto o un bajo nivel de estrés no son las claves de un trabajo satisfactorio. En realidad, hay seis ingredientes fundamentales para una carrera profesional satisfactoria: un trabajo atractivo, beneficioso para los demás, que se corresponda con las habilidades de cada uno, que implique el apoyo de los compañeros, que carezca de aspectos negativos significativos y que esté en sintonía con la vida personal. Este artículo desaconseja el mantra tradicional de \"sigue tu pasión\", ya que puede limitar las opciones y crear expectativas poco realistas. En su lugar, aboga por centrarse en el desarrollo de habilidades en áreas que contribuyan a la sociedad y refuerza este principio vinculando las carreras profesionales satisfactorias y de éxito con las que hacen hincapié en mejorar la vida de los demás.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, elección de carrera profesional</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>¿Quieres hacer el bien? He aquí cómo elegir un área en la que centrarte</title>
      <itunes:episode>102</itunes:episode>
      <podcast:episode>102</podcast:episode>
      <itunes:title>¿Quieres hacer el bien? He aquí cómo elegir un área en la que centrarte</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">8341d0f6-4879-4f10-ab8c-f7d4e1e757a9</guid>
      <link>https://share.transistor.fm/s/807cebe6</link>
      <description>
        <![CDATA[Si quieres maximizar el impacto social de tu carrera profesional, céntrate en atender los problemas más graves a los que se enfrenta la sociedad. Este principio aparentemente obvio suele pasarse por alto, lo que lleva a muchas personas a perder oportunidades de contribuir de forma significativa. Al alinear tu trabajo con retos importantes, puedes aprovechar tus habilidades y conocimientos especializados para lograr un cambio positivo y dejar una huella duradera.]]>
      </description>
      <content:encoded>
        <![CDATA[Si quieres maximizar el impacto social de tu carrera profesional, céntrate en atender los problemas más graves a los que se enfrenta la sociedad. Este principio aparentemente obvio suele pasarse por alto, lo que lleva a muchas personas a perder oportunidades de contribuir de forma significativa. Al alinear tu trabajo con retos importantes, puedes aprovechar tus habilidades y conocimientos especializados para lograr un cambio positivo y dejar una huella duradera.]]>
      </content:encoded>
      <pubDate>Mon, 25 Nov 2024 00:00:00 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/807cebe6/3c2ecc19.mp3" length="21023987" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/kqIyhVLO1Lgc9dtfPphoGZy2NcncCznAVw29PNp2_Ow/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mZTI1/NDQzNjk1OWNiNzUz/ZGFlNjQyMzY3ODFi/MjY1My53ZWJw.jpg"/>
      <itunes:duration>1313</itunes:duration>
      <itunes:summary>
        <![CDATA[Si quieres maximizar el impacto social de tu carrera profesional, céntrate en atender los problemas más graves a los que se enfrenta la sociedad. Este principio aparentemente obvio suele pasarse por alto, lo que lleva a muchas personas a perder oportunidades de contribuir de forma significativa. Al alinear tu trabajo con retos importantes, puedes aprovechar tus habilidades y conocimientos especializados para lograr un cambio positivo y dejar una huella duradera.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, elección de carrera profesional</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Adrià Garriga-Alonso sobre el riesgo existencial asociado a los modelos de lenguaje a gran escala</title>
      <itunes:episode>104</itunes:episode>
      <podcast:episode>104</podcast:episode>
      <itunes:title>Adrià Garriga-Alonso sobre el riesgo existencial asociado a los modelos de lenguaje a gran escala</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">aaa21711-524b-4727-8a3a-8a22b1d419d8</guid>
      <link>https://share.transistor.fm/s/61e20bd7</link>
      <description>
        <![CDATA[En esta entrevista, Adrià Garriga-Alonso aborda los riesgos existenciales que podrían derivarse de los sistemas de inteligencia artificial, particularmente de los modelos de lenguaje a gran escala. Después de dar algunas respuestas generales sobre las características de estas tecnologías y el riesgo que conllevan, Garriga-Alonso explica la posibilidad de que los modelos de lenguaje a gran escala lleguen a controlar nuestro futuro, debido a su potencial capacidad de persuadir, acumular poder y tomar medidas que beneficien sus propios intereses en lugar de los nuestros. Por último, se discuten algunas intervenciones que podrían mitigar estos riesgos.]]>
      </description>
      <content:encoded>
        <![CDATA[En esta entrevista, Adrià Garriga-Alonso aborda los riesgos existenciales que podrían derivarse de los sistemas de inteligencia artificial, particularmente de los modelos de lenguaje a gran escala. Después de dar algunas respuestas generales sobre las características de estas tecnologías y el riesgo que conllevan, Garriga-Alonso explica la posibilidad de que los modelos de lenguaje a gran escala lleguen a controlar nuestro futuro, debido a su potencial capacidad de persuadir, acumular poder y tomar medidas que beneficien sus propios intereses en lugar de los nuestros. Por último, se discuten algunas intervenciones que podrían mitigar estos riesgos.]]>
      </content:encoded>
      <pubDate>Mon, 25 Nov 2024 00:00:00 +0000</pubDate>
      <author>La Bisagra de la Historia</author>
      <enclosure url="https://media.transistor.fm/61e20bd7/aec737bd.mp3" length="51075302" type="audio/mpeg"/>
      <itunes:author>La Bisagra de la Historia</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/nzjqLtJZuEBzlmgu7aZOXfcttKBUDrZhYaSmNWu_tT8/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS83OTg0/NDNjMjNhMzcxOWQ5/OGJlNmE2NDQzMGE4/YTY3NS53ZWJw.jpg"/>
      <itunes:duration>3191</itunes:duration>
      <itunes:summary>
        <![CDATA[En esta entrevista, Adrià Garriga-Alonso aborda los riesgos existenciales que podrían derivarse de los sistemas de inteligencia artificial, particularmente de los modelos de lenguaje a gran escala. Después de dar algunas respuestas generales sobre las características de estas tecnologías y el riesgo que conllevan, Garriga-Alonso explica la posibilidad de que los modelos de lenguaje a gran escala lleguen a controlar nuestro futuro, debido a su potencial capacidad de persuadir, acumular poder y tomar medidas que beneficien sus propios intereses en lugar de los nuestros. Por último, se discuten algunas intervenciones que podrían mitigar estos riesgos.]]>
      </itunes:summary>
      <itunes:keywords>riesgo existencial, riesgo asociado a la inteligencia artificial, inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>¿Puede una persona lograr un cambio? Lo que dice la evidencia</title>
      <itunes:episode>101</itunes:episode>
      <podcast:episode>101</podcast:episode>
      <itunes:title>¿Puede una persona lograr un cambio? Lo que dice la evidencia</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">049cebef-90dd-498c-bdb3-5a4762355976</guid>
      <link>https://share.transistor.fm/s/666789e1</link>
      <description>
        <![CDATA[Aunque las vías tradicionales para lograr un impacto positivo, como convertirse en médico, pueden no tener la influencia generalizada que uno espera en un principio, una sola persona puede lograr un cambio significativo. A menudo, este impacto se debe a la búsqueda de caminos poco convencionales o menos trillados, lo que demuestra que las contribuciones con mayor impacto pueden estar fuera de los caminos convencionales.]]>
      </description>
      <content:encoded>
        <![CDATA[Aunque las vías tradicionales para lograr un impacto positivo, como convertirse en médico, pueden no tener la influencia generalizada que uno espera en un principio, una sola persona puede lograr un cambio significativo. A menudo, este impacto se debe a la búsqueda de caminos poco convencionales o menos trillados, lo que demuestra que las contribuciones con mayor impacto pueden estar fuera de los caminos convencionales.]]>
      </content:encoded>
      <pubDate>Mon, 25 Nov 2024 00:00:00 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/666789e1/bc2bab12.mp3" length="24856243" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/WdYKm9PUOnoaxOcRZOjRuMFX5IJGAkIor5m0kXcJtE8/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9kZjNi/NWRhNjNlMzg3NTIz/ZGY1NDJiOWNjZjAy/Y2RiMi53ZWJw.jpg"/>
      <itunes:duration>1553</itunes:duration>
      <itunes:summary>
        <![CDATA[Aunque las vías tradicionales para lograr un impacto positivo, como convertirse en médico, pueden no tener la influencia generalizada que uno espera en un principio, una sola persona puede lograr un cambio significativo. A menudo, este impacto se debe a la búsqueda de caminos poco convencionales o menos trillados, lo que demuestra que las contribuciones con mayor impacto pueden estar fuera de los caminos convencionales.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, elección de carrera profesional</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Reconsiderando The Precipice</title>
      <itunes:episode>106</itunes:episode>
      <podcast:episode>106</podcast:episode>
      <itunes:title>Reconsiderando The Precipice</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">0862ff20-369f-4280-a369-07eb62210738</guid>
      <link>https://share.transistor.fm/s/c1c6a33c</link>
      <description>
        <![CDATA[Este artículo en una actualización del panorama del riesgo existencial desde la publicación de The Precipice. En él se revisan cuatro de los riesgos más graves para la humanidad: el cambio climático, la guerra nuclear, las pandemias y la inteligencia artificial. El riesgo de cambio climático está disminuyendo en la actualidad debido a los avances en el control de las emisiones de carbono, y una mejor comprensión de la sensibilidad climática está reduciendo las posibilidades de un calentamiento extremo. Sin embargo, el riesgo de guerra nuclear ha aumentado debido a la invasión de Ucrania por parte de Rusia y a una posible nueva carrera armamentista. La pandemia de COVID-19 puso de manifiesto los puntos débiles de las instituciones y la capacidad de preparación globales, pero también estimuló la innovación en el desarrollo de vacunas. Además, se ha producido un aumento significativo de la conciencia pública sobre los peligros de la IA avanzada, lo que ha provocado un cambio en las políticas gubernamentales y un énfasis en la regulación del desarrollo de la IA. Aunque el panorama general del riesgo existencial es complejo, con algunos riesgos aumentando y otros disminuyendo, existe una conciencia cada vez mayor de los peligros y un movimiento en desarrollo para hacer frente a estos riesgos.]]>
      </description>
      <content:encoded>
        <![CDATA[Este artículo en una actualización del panorama del riesgo existencial desde la publicación de The Precipice. En él se revisan cuatro de los riesgos más graves para la humanidad: el cambio climático, la guerra nuclear, las pandemias y la inteligencia artificial. El riesgo de cambio climático está disminuyendo en la actualidad debido a los avances en el control de las emisiones de carbono, y una mejor comprensión de la sensibilidad climática está reduciendo las posibilidades de un calentamiento extremo. Sin embargo, el riesgo de guerra nuclear ha aumentado debido a la invasión de Ucrania por parte de Rusia y a una posible nueva carrera armamentista. La pandemia de COVID-19 puso de manifiesto los puntos débiles de las instituciones y la capacidad de preparación globales, pero también estimuló la innovación en el desarrollo de vacunas. Además, se ha producido un aumento significativo de la conciencia pública sobre los peligros de la IA avanzada, lo que ha provocado un cambio en las políticas gubernamentales y un énfasis en la regulación del desarrollo de la IA. Aunque el panorama general del riesgo existencial es complejo, con algunos riesgos aumentando y otros disminuyendo, existe una conciencia cada vez mayor de los peligros y un movimiento en desarrollo para hacer frente a estos riesgos.]]>
      </content:encoded>
      <pubDate>Mon, 25 Nov 2024 00:00:00 +0000</pubDate>
      <author>Ord, Toby</author>
      <enclosure url="https://media.transistor.fm/c1c6a33c/8fe29ba3.mp3" length="42435979" type="audio/mpeg"/>
      <itunes:author>Ord, Toby</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/tgA_z2v9N8fM5s8-5y24TrKLj8Co3iSDT-BWb8oYMj4/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8xZWE4/OWJhZmUwNGY5MTcy/ODM2ZWNjNzgzNTll/YmE3Ny53ZWJw.jpg"/>
      <itunes:duration>2651</itunes:duration>
      <itunes:summary>
        <![CDATA[Este artículo en una actualización del panorama del riesgo existencial desde la publicación de The Precipice. En él se revisan cuatro de los riesgos más graves para la humanidad: el cambio climático, la guerra nuclear, las pandemias y la inteligencia artificial. El riesgo de cambio climático está disminuyendo en la actualidad debido a los avances en el control de las emisiones de carbono, y una mejor comprensión de la sensibilidad climática está reduciendo las posibilidades de un calentamiento extremo. Sin embargo, el riesgo de guerra nuclear ha aumentado debido a la invasión de Ucrania por parte de Rusia y a una posible nueva carrera armamentista. La pandemia de COVID-19 puso de manifiesto los puntos débiles de las instituciones y la capacidad de preparación globales, pero también estimuló la innovación en el desarrollo de vacunas. Además, se ha producido un aumento significativo de la conciencia pública sobre los peligros de la IA avanzada, lo que ha provocado un cambio en las políticas gubernamentales y un énfasis en la regulación del desarrollo de la IA. Aunque el panorama general del riesgo existencial es complejo, con algunos riesgos aumentando y otros disminuyendo, existe una conciencia cada vez mayor de los peligros y un movimiento en desarrollo para hacer frente a estos riesgos.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo, riesgo existencial, cambio climático, seguridad de la inteligencia artificial, seguridad nuclear</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>José Jaime Villalobos sobre la mitigación de riesgos existenciales y la protección de generaciones futuras a través del derecho</title>
      <itunes:episode>105</itunes:episode>
      <podcast:episode>105</podcast:episode>
      <itunes:title>José Jaime Villalobos sobre la mitigación de riesgos existenciales y la protección de generaciones futuras a través del derecho</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">fcc4155b-fa8f-4e77-b292-76c913ff7baf</guid>
      <link>https://share.transistor.fm/s/3a5f0ef6</link>
      <description>
        <![CDATA[José Jaime Villalobos, afiliado al Legal Priorities Project y experto en derecho internacional, explora en este episodio cómo el derecho puede enfrentar problemas globales significativos, destacando su importancia para proteger a las generaciones futuras. También se refiere a la intersección entre el derecho y la tecnología, en particular la regulación de la biología sintética y la inteligencia artificial, subrayando la necesidad de adaptar nuestras instituciones para manejar riesgos emergentes.]]>
      </description>
      <content:encoded>
        <![CDATA[José Jaime Villalobos, afiliado al Legal Priorities Project y experto en derecho internacional, explora en este episodio cómo el derecho puede enfrentar problemas globales significativos, destacando su importancia para proteger a las generaciones futuras. También se refiere a la intersección entre el derecho y la tecnología, en particular la regulación de la biología sintética y la inteligencia artificial, subrayando la necesidad de adaptar nuestras instituciones para manejar riesgos emergentes.]]>
      </content:encoded>
      <pubDate>Mon, 25 Nov 2024 00:00:00 +0000</pubDate>
      <author>La Bisagra de la Historia</author>
      <enclosure url="https://media.transistor.fm/3a5f0ef6/e8b292c5.mp3" length="82373787" type="audio/mpeg"/>
      <itunes:author>La Bisagra de la Historia</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/67ti7iUHzy_-MLm47SV8BP9qm7gzpHxzbvSn0mLLrZA/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mYmNl/ODU0ODliOTUwODIz/YzEwZTU5YmUwZTJj/ZTkwZi53ZWJw.jpg"/>
      <itunes:duration>5148</itunes:duration>
      <itunes:summary>
        <![CDATA[José Jaime Villalobos, afiliado al Legal Priorities Project y experto en derecho internacional, explora en este episodio cómo el derecho puede enfrentar problemas globales significativos, destacando su importancia para proteger a las generaciones futuras. También se refiere a la intersección entre el derecho y la tecnología, en particular la regulación de la biología sintética y la inteligencia artificial, subrayando la necesidad de adaptar nuestras instituciones para manejar riesgos emergentes.]]>
      </itunes:summary>
      <itunes:keywords>riesgo existencial, gobernanza de la inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Sea cual sea tu trabajo, aquí tienes tres formas basadas en la evidencia de tener un impacto real</title>
      <itunes:episode>103</itunes:episode>
      <podcast:episode>103</podcast:episode>
      <itunes:title>Sea cual sea tu trabajo, aquí tienes tres formas basadas en la evidencia de tener un impacto real</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">00ab0f3a-e633-4a55-8795-ea07c23a015b</guid>
      <link>https://share.transistor.fm/s/6c9d450c</link>
      <description>
        <![CDATA[El personal operativo permite a los demás empleados de una organización centrarse en las tareas principales para así maximizar la productividad. Una buena plantilla logra esto estableciendo sistemas en lugar de ocuparse de tareas individuales. Fungir como personal operativo ofrece una gran oportunidad de tener un impacto positivo debido a la alta demanda de personas con talento en este campo y al hecho de que muchas organizaciones carecen de personal operativo calificado. Los puestos operativos suelen mezclarse con otras funciones, como la gestión, las comunicaciones y la recaudación de fondos. Algunas organizaciones creen que el personal operativo contribuye más a su organización que aquel que trabaja directamente en funciones como la investigación, la divulgación o la gestión. Sin embargo, el personal operativo suele recibir menos reconocimiento que otros tipos de personal, ya que su trabajo se realiza tras bambalinas y los fracasos son más evidentes que los éxitos. Algunas de las aptitudes necesarias para destacar en las funciones operativas de una organización son tener una mentalidad orientada a la optimización, emplear el razonamiento sistémico, tener la capacidad de aprender con rapidez y poseer buenas habilidades de comunicación. Las personas interesadas en dedicarse profesionalmente a la gestión de operaciones pueden hacer voluntariado, prácticas o trabajar a tiempo parcial en funciones operativas para adquirir experiencia.]]>
      </description>
      <content:encoded>
        <![CDATA[El personal operativo permite a los demás empleados de una organización centrarse en las tareas principales para así maximizar la productividad. Una buena plantilla logra esto estableciendo sistemas en lugar de ocuparse de tareas individuales. Fungir como personal operativo ofrece una gran oportunidad de tener un impacto positivo debido a la alta demanda de personas con talento en este campo y al hecho de que muchas organizaciones carecen de personal operativo calificado. Los puestos operativos suelen mezclarse con otras funciones, como la gestión, las comunicaciones y la recaudación de fondos. Algunas organizaciones creen que el personal operativo contribuye más a su organización que aquel que trabaja directamente en funciones como la investigación, la divulgación o la gestión. Sin embargo, el personal operativo suele recibir menos reconocimiento que otros tipos de personal, ya que su trabajo se realiza tras bambalinas y los fracasos son más evidentes que los éxitos. Algunas de las aptitudes necesarias para destacar en las funciones operativas de una organización son tener una mentalidad orientada a la optimización, emplear el razonamiento sistémico, tener la capacidad de aprender con rapidez y poseer buenas habilidades de comunicación. Las personas interesadas en dedicarse profesionalmente a la gestión de operaciones pueden hacer voluntariado, prácticas o trabajar a tiempo parcial en funciones operativas para adquirir experiencia.]]>
      </content:encoded>
      <pubDate>Mon, 25 Nov 2024 00:00:00 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/6c9d450c/6418802e.mp3" length="30364560" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/fULcP6CXWA3mBznAk0zEeNVAQM0QP6oYtS3oiLWhqRw/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS82ZDQ2/YWE0YzkyZWYxOGM0/ZTZhY2UzNTlhM2Jh/YmM5My53ZWJw.jpg"/>
      <itunes:duration>1897</itunes:duration>
      <itunes:summary>
        <![CDATA[El personal operativo permite a los demás empleados de una organización centrarse en las tareas principales para así maximizar la productividad. Una buena plantilla logra esto estableciendo sistemas en lugar de ocuparse de tareas individuales. Fungir como personal operativo ofrece una gran oportunidad de tener un impacto positivo debido a la alta demanda de personas con talento en este campo y al hecho de que muchas organizaciones carecen de personal operativo calificado. Los puestos operativos suelen mezclarse con otras funciones, como la gestión, las comunicaciones y la recaudación de fondos. Algunas organizaciones creen que el personal operativo contribuye más a su organización que aquel que trabaja directamente en funciones como la investigación, la divulgación o la gestión. Sin embargo, el personal operativo suele recibir menos reconocimiento que otros tipos de personal, ya que su trabajo se realiza tras bambalinas y los fracasos son más evidentes que los éxitos. Algunas de las aptitudes necesarias para destacar en las funciones operativas de una organización son tener una mentalidad orientada a la optimización, emplear el razonamiento sistémico, tener la capacidad de aprender con rapidez y poseer buenas habilidades de comunicación. Las personas interesadas en dedicarse profesionalmente a la gestión de operaciones pueden hacer voluntariado, prácticas o trabajar a tiempo parcial en funciones operativas para adquirir experiencia.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, elección de carrera profesional</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Sobre el valor de adelantar el progreso</title>
      <itunes:episode>99</itunes:episode>
      <podcast:episode>99</podcast:episode>
      <itunes:title>Sobre el valor de adelantar el progreso</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">7e7d5436-5573-4cc3-a021-bb068521f2fc</guid>
      <link>https://share.transistor.fm/s/52137209</link>
      <description>
        <![CDATA[Muestro cómo un argumento estándar a favor de adelantar el progreso es extremadamente sensible al modo en que podría acabar la historia de la humanidad. Adelantar el progreso será bueno o malo en última instancia en la medida en que adelante o no el final de la humanidad. Como sabemos tan poco sobre la solución a esta cuestión fundamental, el argumento a favor de adelantar el progreso pierde fuerza. Sugiero que debemos superar esta objeción mejorando nuestra comprensión de las conexiones entre el progreso y la extinción humana o adoptando el enfoque de adelantar ciertos tipos de progreso frente a otros —cambiando el término al que nos dirigimos, en lugar de abreviar el tiempo en que lo alcanzamos.]]>
      </description>
      <content:encoded>
        <![CDATA[Muestro cómo un argumento estándar a favor de adelantar el progreso es extremadamente sensible al modo en que podría acabar la historia de la humanidad. Adelantar el progreso será bueno o malo en última instancia en la medida en que adelante o no el final de la humanidad. Como sabemos tan poco sobre la solución a esta cuestión fundamental, el argumento a favor de adelantar el progreso pierde fuerza. Sugiero que debemos superar esta objeción mejorando nuestra comprensión de las conexiones entre el progreso y la extinción humana o adoptando el enfoque de adelantar ciertos tipos de progreso frente a otros —cambiando el término al que nos dirigimos, en lugar de abreviar el tiempo en que lo alcanzamos.]]>
      </content:encoded>
      <pubDate>Mon, 25 Nov 2024 00:00:00 +0000</pubDate>
      <author>Ord, Toby</author>
      <enclosure url="https://media.transistor.fm/52137209/ab2613cf.mp3" length="28592756" type="audio/mpeg"/>
      <itunes:author>Ord, Toby</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/6Yw6QkSolrXW_BrsMbwQjcBusaaMEZZs6w-r0gE3XNw/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8wOTlm/OGIzNzc2N2NmMDJm/ZTI0MGQ0OGE5ZGM4/NjE2My53ZWJw.jpg"/>
      <itunes:duration>1429</itunes:duration>
      <itunes:summary>
        <![CDATA[Muestro cómo un argumento estándar a favor de adelantar el progreso es extremadamente sensible al modo en que podría acabar la historia de la humanidad. Adelantar el progreso será bueno o malo en última instancia en la medida en que adelante o no el final de la humanidad. Como sabemos tan poco sobre la solución a esta cuestión fundamental, el argumento a favor de adelantar el progreso pierde fuerza. Sugiero que debemos superar esta objeción mejorando nuestra comprensión de las conexiones entre el progreso y la extinción humana o adoptando el enfoque de adelantar ciertos tipos de progreso frente a otros —cambiando el término al que nos dirigimos, en lugar de abreviar el tiempo en que lo alcanzamos.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo, riesgo existencial, cambios de trayectoria, estudios sobre el progreso, futuro a largo plazo, progreso diferencial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Tres formas de hacer avanzar la ciencia</title>
      <itunes:episode>98</itunes:episode>
      <podcast:episode>98</podcast:episode>
      <itunes:title>Tres formas de hacer avanzar la ciencia</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">12fdb834-0ee5-4947-a349-2e25cd6e7b1e</guid>
      <link>https://share.transistor.fm/s/b32348d8</link>
      <description>
        <![CDATA[Existen tres formas de contribuir al progreso científico. La forma directa es realizar un buen estudio científico y publicar sus resultados. La forma indirecta es ayudar a otros a que hagan una contribución directa. Un tercer enfoque es unir ambas formas de contribución y lograr un avance científico que, a su vez, acelere los avances científicos. Ningún avance de este tipo tendría una aplicabilidad más generalizada que aquel que mejorara el rendimiento del cerebro humano.]]>
      </description>
      <content:encoded>
        <![CDATA[Existen tres formas de contribuir al progreso científico. La forma directa es realizar un buen estudio científico y publicar sus resultados. La forma indirecta es ayudar a otros a que hagan una contribución directa. Un tercer enfoque es unir ambas formas de contribución y lograr un avance científico que, a su vez, acelere los avances científicos. Ningún avance de este tipo tendría una aplicabilidad más generalizada que aquel que mejorara el rendimiento del cerebro humano.]]>
      </content:encoded>
      <pubDate>Mon, 18 Nov 2024 00:00:00 +0000</pubDate>
      <author>Bostrom, Nick</author>
      <enclosure url="https://media.transistor.fm/b32348d8/db9752e0.mp3" length="4506230" type="audio/mpeg"/>
      <itunes:author>Bostrom, Nick</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/8m04VCLe1uhJ-z5huiD7M2xjsxF0AtzIKncpnUTRQk8/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9jYjE2/ZjNhNTA1Y2Y4ZjJi/NzM5Zjg4NzA3ODUw/Y2UwZC53ZWJw.jpg"/>
      <itunes:duration>294</itunes:duration>
      <itunes:summary>
        <![CDATA[Existen tres formas de contribuir al progreso científico. La forma directa es realizar un buen estudio científico y publicar sus resultados. La forma indirecta es ayudar a otros a que hagan una contribución directa. Un tercer enfoque es unir ambas formas de contribución y lograr un avance científico que, a su vez, acelere los avances científicos. Ningún avance de este tipo tendría una aplicabilidad más generalizada que aquel que mejorara el rendimiento del cerebro humano.]]>
      </itunes:summary>
      <itunes:keywords>metaciencia, mejora de la cognición</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>El yo que recuerda debería tomar en serio al yo que experimenta</title>
      <itunes:episode>97</itunes:episode>
      <podcast:episode>97</podcast:episode>
      <itunes:title>El yo que recuerda debería tomar en serio al yo que experimenta</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">2d7191e5-a712-4a5f-a89f-090e50c7003b</guid>
      <link>https://share.transistor.fm/s/d5843a27</link>
      <description>
        <![CDATA[El yo que recuerda quiere enorgullecerse ahora a expensas del yo pasado, pero eso no es más que un deseo de sentir placer ahora, tan lícito como cualquier otro deseo del yo pasado. Sin embargo, así como no siempre es correcto sacrificar la felicidad propia por los demás, no siempre es correcto retrasar una gratificación presente por el placer de un yo futuro.]]>
      </description>
      <content:encoded>
        <![CDATA[El yo que recuerda quiere enorgullecerse ahora a expensas del yo pasado, pero eso no es más que un deseo de sentir placer ahora, tan lícito como cualquier otro deseo del yo pasado. Sin embargo, así como no siempre es correcto sacrificar la felicidad propia por los demás, no siempre es correcto retrasar una gratificación presente por el placer de un yo futuro.]]>
      </content:encoded>
      <pubDate>Mon, 11 Nov 2024 00:00:00 +0000</pubDate>
      <author>Elmore, Holly</author>
      <enclosure url="https://media.transistor.fm/d5843a27/bfd940e1.mp3" length="4526203" type="audio/mpeg"/>
      <itunes:author>Elmore, Holly</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/f6TGVgCvHzuZ3sCreyddoIiVfVqriq_gTAg0-sba60s/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9lYzlj/ZGI0YTEzNDIzNThh/N2YyMjkzNjAwYzFh/OTE1Ni53ZWJw.jpg"/>
      <itunes:duration>282</itunes:duration>
      <itunes:summary>
        <![CDATA[El yo que recuerda quiere enorgullecerse ahora a expensas del yo pasado, pero eso no es más que un deseo de sentir placer ahora, tan lícito como cualquier otro deseo del yo pasado. Sin embargo, así como no siempre es correcto sacrificar la felicidad propia por los demás, no siempre es correcto retrasar una gratificación presente por el placer de un yo futuro.]]>
      </itunes:summary>
      <itunes:keywords>exigencias de la moral</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Riesgos de sufrimiento astronómico en el futuro</title>
      <itunes:episode>96</itunes:episode>
      <podcast:episode>96</podcast:episode>
      <itunes:title>Riesgos de sufrimiento astronómico en el futuro</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">61c7065d-00a7-410b-a0c5-5d0d4891440c</guid>
      <link>https://share.transistor.fm/s/5d778868</link>
      <description>
        <![CDATA[No es nada claro que los valores humanos vayan a dar forma a una ola de colonización del espacio originada en la Tierra, pero incluso si así fuera, parece más probable que la colonización del espacio aumente el sufrimiento total y no que lo reduzca. Dicho esto, hay muchas personas a quienes les importa mucho la supervivencia de la humanidad y su expansión por el cosmos, por lo que creo que los reductores del sufrimiento deberían dejar que otros persiguieran sus sueños espaciales a cambio de medidas de seguridad más estrictas contra el sufrimiento futuro. En general, recomiendo dirigir los esfuerzos a procurar que el futuro intergaláctico sea más humano si ocurre, más que a asegurar que exista un futuro intergaláctico.]]>
      </description>
      <content:encoded>
        <![CDATA[No es nada claro que los valores humanos vayan a dar forma a una ola de colonización del espacio originada en la Tierra, pero incluso si así fuera, parece más probable que la colonización del espacio aumente el sufrimiento total y no que lo reduzca. Dicho esto, hay muchas personas a quienes les importa mucho la supervivencia de la humanidad y su expansión por el cosmos, por lo que creo que los reductores del sufrimiento deberían dejar que otros persiguieran sus sueños espaciales a cambio de medidas de seguridad más estrictas contra el sufrimiento futuro. En general, recomiendo dirigir los esfuerzos a procurar que el futuro intergaláctico sea más humano si ocurre, más que a asegurar que exista un futuro intergaláctico.]]>
      </content:encoded>
      <pubDate>Mon, 04 Nov 2024 00:00:00 +0000</pubDate>
      <author>Tomasik, Brian</author>
      <enclosure url="https://media.transistor.fm/5d778868/37682d25.mp3" length="38527276" type="audio/mpeg"/>
      <itunes:author>Tomasik, Brian</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/ZlBk_agPHcpNuyGPMKw3nQhpNcll9FAvaji2QGblcb8/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9iOThi/OGM4YzExYTM3YTE4/MGJmYzJlY2FmZGU5/NTNlZC53ZWJw.jpg"/>
      <itunes:duration>2407</itunes:duration>
      <itunes:summary>
        <![CDATA[No es nada claro que los valores humanos vayan a dar forma a una ola de colonización del espacio originada en la Tierra, pero incluso si así fuera, parece más probable que la colonización del espacio aumente el sufrimiento total y no que lo reduzca. Dicho esto, hay muchas personas a quienes les importa mucho la supervivencia de la humanidad y su expansión por el cosmos, por lo que creo que los reductores del sufrimiento deberían dejar que otros persiguieran sus sueños espaciales a cambio de medidas de seguridad más estrictas contra el sufrimiento futuro. En general, recomiendo dirigir los esfuerzos a procurar que el futuro intergaláctico sea más humano si ocurre, más que a asegurar que exista un futuro intergaláctico.]]>
      </itunes:summary>
      <itunes:keywords>riesgo S, futuro a largo plazo, sintiencia artificial, bienestar de los animales salvajes, cooperación moral</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Alegremente</title>
      <itunes:episode>95</itunes:episode>
      <podcast:episode>95</podcast:episode>
      <itunes:title>Alegremente</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">78969ec0-f962-437d-90c2-18aed24167b9</guid>
      <link>https://share.transistor.fm/s/5072b526</link>
      <description>
        <![CDATA[El altruismo puede volverse exigente, sobre todo cuando comprendemos que nuestra decisión de donar es crucial para otras personas. Pero si el costo de esta exigencia es la desdicha, tenemos buenas razones para pensar que hemos alcanzado su límite.]]>
      </description>
      <content:encoded>
        <![CDATA[El altruismo puede volverse exigente, sobre todo cuando comprendemos que nuestra decisión de donar es crucial para otras personas. Pero si el costo de esta exigencia es la desdicha, tenemos buenas razones para pensar que hemos alcanzado su límite.]]>
      </content:encoded>
      <pubDate>Mon, 28 Oct 2024 00:00:00 +0000</pubDate>
      <author>Wise, Julia</author>
      <enclosure url="https://media.transistor.fm/5072b526/9056a0a2.mp3" length="3428632" type="audio/mpeg"/>
      <itunes:author>Wise, Julia</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/Tz7sert7yMA6ewK1LbjSloQwGIS6mHSMBI_WeuN2I54/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS81NDk3/NGNkYmUyOTE4OGYw/YmZhM2Y0NTYyZjc3/YjQwYy53ZWJw.jpg"/>
      <itunes:duration>213</itunes:duration>
      <itunes:summary>
        <![CDATA[El altruismo puede volverse exigente, sobre todo cuando comprendemos que nuestra decisión de donar es crucial para otras personas. Pero si el costo de esta exigencia es la desdicha, tenemos buenas razones para pensar que hemos alcanzado su límite.]]>
      </itunes:summary>
      <itunes:keywords>altruismo obligatorio y altruismo entusiasta, exigencias de la moral</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>La bioseguridad necesita ingenieros y científicos de materiales</title>
      <itunes:episode>94</itunes:episode>
      <podcast:episode>94</podcast:episode>
      <itunes:title>La bioseguridad necesita ingenieros y científicos de materiales</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">274184a7-84b5-4b21-a047-ce6c3ccafeef</guid>
      <link>https://share.transistor.fm/s/ab72d1c5</link>
      <description>
        <![CDATA[Muchas de las intervenciones más importantes para reducir el riesgo biológico catastrófico no son de naturaleza biológica ni social. La mejora de los equipos de protección personal y el diseño de edificios resistentes a las pandemias, entre otras intervenciones importantes y desatendidas, necesitan más bien expertos en ingeniería de sistemas físicos.]]>
      </description>
      <content:encoded>
        <![CDATA[Muchas de las intervenciones más importantes para reducir el riesgo biológico catastrófico no son de naturaleza biológica ni social. La mejora de los equipos de protección personal y el diseño de edificios resistentes a las pandemias, entre otras intervenciones importantes y desatendidas, necesitan más bien expertos en ingeniería de sistemas físicos.]]>
      </content:encoded>
      <pubDate>Mon, 21 Oct 2024 00:00:00 +0000</pubDate>
      <author>Bradshaw, Will</author>
      <enclosure url="https://media.transistor.fm/ab72d1c5/0c68316d.mp3" length="8981341" type="audio/mpeg"/>
      <itunes:author>Bradshaw, Will</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/dTZcVWhLWpO4u5rh9M5Ij5iKQsywqny6VPdEDTWSar0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mNDI3/YzdiOTdhM2YzZjkw/NTM5YTJjMmZkNjQ5/ZGRkYy53ZWJw.jpg"/>
      <itunes:duration>561</itunes:duration>
      <itunes:summary>
        <![CDATA[Muchas de las intervenciones más importantes para reducir el riesgo biológico catastrófico no son de naturaleza biológica ni social. La mejora de los equipos de protección personal y el diseño de edificios resistentes a las pandemias, entre otras intervenciones importantes y desatendidas, necesitan más bien expertos en ingeniería de sistemas físicos.]]>
      </itunes:summary>
      <itunes:keywords>bioseguridad, ingeniería, biovigilancia, metagenómica</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>La calidad del aire en Asia meridional</title>
      <itunes:episode>93</itunes:episode>
      <podcast:episode>93</podcast:episode>
      <itunes:title>La calidad del aire en Asia meridional</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">dc6d3e34-e904-4715-9b79-e4342399b716</guid>
      <link>https://share.transistor.fm/s/362b3df2</link>
      <description>
        <![CDATA[En Asia meridional se registran algunos de los niveles más altos del mundo de contaminación atmosférica por micropartículas de 2,5 micras o menos, ponderados por la población. La mala calidad del aire contribuye significativamente a resultados negativos para la salud de los más de 1 800 millones de habitantes de la región, y la reducción de los niveles de micropartículas presentes en el aire podría salvar millones de vidas. Entre las posibles intervenciones, muchas de las cuales requieren una acción estatal coordinada, figuran la mejora de los programas para monitorear la calidad del aire y la elaboración y puesta en práctica de políticas sectoriales para reducir las emisiones.]]>
      </description>
      <content:encoded>
        <![CDATA[En Asia meridional se registran algunos de los niveles más altos del mundo de contaminación atmosférica por micropartículas de 2,5 micras o menos, ponderados por la población. La mala calidad del aire contribuye significativamente a resultados negativos para la salud de los más de 1 800 millones de habitantes de la región, y la reducción de los niveles de micropartículas presentes en el aire podría salvar millones de vidas. Entre las posibles intervenciones, muchas de las cuales requieren una acción estatal coordinada, figuran la mejora de los programas para monitorear la calidad del aire y la elaboración y puesta en práctica de políticas sectoriales para reducir las emisiones.]]>
      </content:encoded>
      <pubDate>Mon, 14 Oct 2024 00:00:00 +0000</pubDate>
      <author>Open Philanthropy</author>
      <enclosure url="https://media.transistor.fm/362b3df2/681070ac.mp3" length="76184518" type="audio/mpeg"/>
      <itunes:author>Open Philanthropy</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/6hPyoBEUkp1l_Gar1duWo5Efzz2wqIH0WDaVIbpC1zA/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8yZjQ4/NThhZTkxYjZlYWUy/NmI2M2QyOTBhYzAy/MTg2OS53ZWJw.jpg"/>
      <itunes:duration>4761</itunes:duration>
      <itunes:summary>
        <![CDATA[En Asia meridional se registran algunos de los niveles más altos del mundo de contaminación atmosférica por micropartículas de 2,5 micras o menos, ponderados por la población. La mala calidad del aire contribuye significativamente a resultados negativos para la salud de los más de 1 800 millones de habitantes de la región, y la reducción de los niveles de micropartículas presentes en el aire podría salvar millones de vidas. Entre las posibles intervenciones, muchas de las cuales requieren una acción estatal coordinada, figuran la mejora de los programas para monitorear la calidad del aire y la elaboración y puesta en práctica de políticas sectoriales para reducir las emisiones.]]>
      </itunes:summary>
      <itunes:keywords>contaminación atmosférica, salud y desarrollo globales, carga de la enfermedad</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>La importancia moral de la costo-eficacia</title>
      <itunes:episode>92</itunes:episode>
      <podcast:episode>92</podcast:episode>
      <itunes:title>La importancia moral de la costo-eficacia</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">46361a85-293f-4b69-b151-db48c38671e2</guid>
      <link>https://share.transistor.fm/s/60b139ce</link>
      <description>
        <![CDATA[Obtener buenos resultados con los recursos disponibles es una cuestión moral de gran importancia para la salud global. Las consideraciones de costo-eficacia son una herramienta que permite determinar la relación entre recursos y resultados y poner de manifiesto lo que se pierde en términos morales para la salud global cuando no se prioriza correctamente. Por ejemplo, la intervención menos eficaz contra el VIH y el sida equivale a menos del 0,1 \% del valor de la intervención más eficaz. En la práctica, esto puede significar cientos, miles o millones de muertes adicionales debido a una falta de priorización. Dado el enorme valor de lo que está en juego, deberíamos buscar activamente y financiar principalmente las mejores intervenciones posibles.]]>
      </description>
      <content:encoded>
        <![CDATA[Obtener buenos resultados con los recursos disponibles es una cuestión moral de gran importancia para la salud global. Las consideraciones de costo-eficacia son una herramienta que permite determinar la relación entre recursos y resultados y poner de manifiesto lo que se pierde en términos morales para la salud global cuando no se prioriza correctamente. Por ejemplo, la intervención menos eficaz contra el VIH y el sida equivale a menos del 0,1 \% del valor de la intervención más eficaz. En la práctica, esto puede significar cientos, miles o millones de muertes adicionales debido a una falta de priorización. Dado el enorme valor de lo que está en juego, deberíamos buscar activamente y financiar principalmente las mejores intervenciones posibles.]]>
      </content:encoded>
      <pubDate>Mon, 07 Oct 2024 00:00:00 +0000</pubDate>
      <author>Ord, Toby</author>
      <enclosure url="https://media.transistor.fm/60b139ce/e8a0fe15.mp3" length="23030596" type="audio/mpeg"/>
      <itunes:author>Ord, Toby</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/v2riJ75t4Yhxrubkfp2zmn774c6YuFhJ74SzGuVUH8c/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS81YTdi/YzZjZWIwMjhhOWEz/NDdkMGNiOGI4NDgy/Njc0Yy53ZWJw.jpg"/>
      <itunes:duration>1439</itunes:duration>
      <itunes:summary>
        <![CDATA[Obtener buenos resultados con los recursos disponibles es una cuestión moral de gran importancia para la salud global. Las consideraciones de costo-eficacia son una herramienta que permite determinar la relación entre recursos y resultados y poner de manifiesto lo que se pierde en términos morales para la salud global cuando no se prioriza correctamente. Por ejemplo, la intervención menos eficaz contra el VIH y el sida equivale a menos del 0,1 \% del valor de la intervención más eficaz. En la práctica, esto puede significar cientos, miles o millones de muertes adicionales debido a una falta de priorización. Dado el enorme valor de lo que está en juego, deberíamos buscar activamente y financiar principalmente las mejores intervenciones posibles.]]>
      </itunes:summary>
      <itunes:keywords>costo-eficacia, distribución de costo-eficacia, salud y desarrollo globales</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Cómo los estudiantes liderarán la revolución de las proteínas alternativas</title>
      <itunes:episode>91</itunes:episode>
      <podcast:episode>91</podcast:episode>
      <itunes:title>Cómo los estudiantes liderarán la revolución de las proteínas alternativas</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">5b8e6ed2-9737-4b99-9378-55fb7b5b593d</guid>
      <link>https://share.transistor.fm/s/2ebf5548</link>
      <description>
        <![CDATA[La ganadería industrial está en el centro de algunos de los problemas más acuciantes de los seres humanos y de los animales no humanos. Para aliviar estas presiones ante la creciente demanda global de carne, debemos acelerar el desarrollo de proteínas alternativas que compitan con sus equivalentes animales convencionales en cuanto a sabor, precio y beneficios. Los estudiantes están en una posición única para impulsar esta transformación del sistema alimentario por su capacidad de influir en una de las instituciones más poderosas de nuestra economía: las universidades.]]>
      </description>
      <content:encoded>
        <![CDATA[La ganadería industrial está en el centro de algunos de los problemas más acuciantes de los seres humanos y de los animales no humanos. Para aliviar estas presiones ante la creciente demanda global de carne, debemos acelerar el desarrollo de proteínas alternativas que compitan con sus equivalentes animales convencionales en cuanto a sabor, precio y beneficios. Los estudiantes están en una posición única para impulsar esta transformación del sistema alimentario por su capacidad de influir en una de las instituciones más poderosas de nuestra economía: las universidades.]]>
      </content:encoded>
      <pubDate>Mon, 30 Sep 2024 00:00:00 +0000</pubDate>
      <author>Huang, Amy</author>
      <enclosure url="https://media.transistor.fm/2ebf5548/a6cab5ce.mp3" length="28029751" type="audio/mpeg"/>
      <itunes:author>Huang, Amy</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/qll2Xz81v3-9ZHBVSr_6FhXDoSYCvFAKq_3mM-LKXK8/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9kMDA4/ODg0NzIxYTc5ZWJl/YzdjN2JkMmY1NDM0/MTdiNS53ZWJw.jpg"/>
      <itunes:duration>1401</itunes:duration>
      <itunes:summary>
        <![CDATA[La ganadería industrial está en el centro de algunos de los problemas más acuciantes de los seres humanos y de los animales no humanos. Para aliviar estas presiones ante la creciente demanda global de carne, debemos acelerar el desarrollo de proteínas alternativas que compitan con sus equivalentes animales convencionales en cuanto a sabor, precio y beneficios. Los estudiantes están en una posición única para impulsar esta transformación del sistema alimentario por su capacidad de influir en una de las instituciones más poderosas de nuestra economía: las universidades.]]>
      </itunes:summary>
      <itunes:keywords>alternativas a los productos de origen animal, bienestar animal</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Todas las perspectivas posibles sobre el futuro de la humanidad son descabelladas</title>
      <itunes:episode>90</itunes:episode>
      <podcast:episode>90</podcast:episode>
      <itunes:title>Todas las perspectivas posibles sobre el futuro de la humanidad son descabelladas</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">a5f0d500-f736-4a50-8aa5-efac3c385d15</guid>
      <link>https://share.transistor.fm/s/11cb90c5</link>
      <description>
        <![CDATA[Durante el presente, siglo nuestra civilización podría desarrollar tecnologías que permitan una rápida expansión por la galaxia, actualmente vacía. Por lo tanto, este siglo podría determinar todo el futuro de la galaxia durante decenas de miles de millones de años o más. Semejante perspectiva parece “descabellada” y deberíamos mirar con recelo cualquier opinión de que vivimos en una época tan especial. Pero también hay razones para considerar descabelladas a las otras alternativas. Tanto una perspectiva “conservadora”, que considera que las mencionadas tecnologías son posibles, pero tardarán mucho más tiempo en llegar, como una perspectiva “escéptica”, que considera que la expansión a escala galáctica nunca ocurrirá, son descabelladas a su manera. La causa probable de esta situación es que de hecho nos encontramos en una situación descabellada.]]>
      </description>
      <content:encoded>
        <![CDATA[Durante el presente, siglo nuestra civilización podría desarrollar tecnologías que permitan una rápida expansión por la galaxia, actualmente vacía. Por lo tanto, este siglo podría determinar todo el futuro de la galaxia durante decenas de miles de millones de años o más. Semejante perspectiva parece “descabellada” y deberíamos mirar con recelo cualquier opinión de que vivimos en una época tan especial. Pero también hay razones para considerar descabelladas a las otras alternativas. Tanto una perspectiva “conservadora”, que considera que las mencionadas tecnologías son posibles, pero tardarán mucho más tiempo en llegar, como una perspectiva “escéptica”, que considera que la expansión a escala galáctica nunca ocurrirá, son descabelladas a su manera. La causa probable de esta situación es que de hecho nos encontramos en una situación descabellada.]]>
      </content:encoded>
      <pubDate>Mon, 23 Sep 2024 00:00:00 +0000</pubDate>
      <author>Karnofsky, Holden</author>
      <enclosure url="https://media.transistor.fm/11cb90c5/c0970138.mp3" length="23802190" type="audio/mpeg"/>
      <itunes:author>Karnofsky, Holden</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/L71vImkDMOZoYvcd4oZ5JGfoGp_9I-laDfo9C3dFO3A/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS81NDI2/NGNmODIxYTZmOGE4/MThjN2MwZDdlMjkw/ZWEwZC53ZWJw.jpg"/>
      <itunes:duration>1487</itunes:duration>
      <itunes:summary>
        <![CDATA[Durante el presente, siglo nuestra civilización podría desarrollar tecnologías que permitan una rápida expansión por la galaxia, actualmente vacía. Por lo tanto, este siglo podría determinar todo el futuro de la galaxia durante decenas de miles de millones de años o más. Semejante perspectiva parece “descabellada” y deberíamos mirar con recelo cualquier opinión de que vivimos en una época tan especial. Pero también hay razones para considerar descabelladas a las otras alternativas. Tanto una perspectiva “conservadora”, que considera que las mencionadas tecnologías son posibles, pero tardarán mucho más tiempo en llegar, como una perspectiva “escéptica”, que considera que la expansión a escala galáctica nunca ocurrirá, son descabelladas a su manera. La causa probable de esta situación es que de hecho nos encontramos en una situación descabellada.]]>
      </itunes:summary>
      <itunes:keywords>riesgo existencial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Distribuir la mitigación del riesgo a lo largo del tiempo</title>
      <itunes:episode>89</itunes:episode>
      <podcast:episode>89</podcast:episode>
      <itunes:title>Distribuir la mitigación del riesgo a lo largo del tiempo</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">3cef8c6b-3185-492f-a11c-7babe08efc56</guid>
      <link>https://share.transistor.fm/s/03308e3f</link>
      <description>
        <![CDATA[¿Cuál es la mejor forma de distribuir la priorización del trabajo dirigido a reducir el riesgo existencial? En igualdad de condiciones, deberíamos priorizar la reducción de aquellos riesgos que puedan surgir primero. Esto se debe a que no sabemos con certeza cuándo tendremos que enfrentarnos a los distintos riesgos, a que esperamos rendimientos decrecientes del trabajo adicional y a que prevemos que habrá más gente trabajando en estos riesgos en el futuro. En el caso particular del riesgo derivado de la inteligencia artificial, las mejores estrategias para reducirlo dependen de cuándo se manifieste. Es posible que estemos invirtiendo demasiado poco en escenarios en los que la inteligencia artificial llega pronto, incluso si esto no es muy probable, porque no habría tiempo suficiente para ocuparnos de ellos más tarde.]]>
      </description>
      <content:encoded>
        <![CDATA[¿Cuál es la mejor forma de distribuir la priorización del trabajo dirigido a reducir el riesgo existencial? En igualdad de condiciones, deberíamos priorizar la reducción de aquellos riesgos que puedan surgir primero. Esto se debe a que no sabemos con certeza cuándo tendremos que enfrentarnos a los distintos riesgos, a que esperamos rendimientos decrecientes del trabajo adicional y a que prevemos que habrá más gente trabajando en estos riesgos en el futuro. En el caso particular del riesgo derivado de la inteligencia artificial, las mejores estrategias para reducirlo dependen de cuándo se manifieste. Es posible que estemos invirtiendo demasiado poco en escenarios en los que la inteligencia artificial llega pronto, incluso si esto no es muy probable, porque no habría tiempo suficiente para ocuparnos de ellos más tarde.]]>
      </content:encoded>
      <pubDate>Mon, 16 Sep 2024 00:00:00 +0000</pubDate>
      <author>Cotton-Barratt, Owen</author>
      <enclosure url="https://media.transistor.fm/03308e3f/72bcacf4.mp3" length="40891228" type="audio/mpeg"/>
      <itunes:author>Cotton-Barratt, Owen</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/I-GC1w5oXH5YVlVGWdTX76pfPh0FFYx8nrSqN5zptAA/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8wMTU2/Yjk1MjdhY2M5NGYy/YjQyZjFiMWNhOWRl/YzdlNC53ZWJw.jpg"/>
      <itunes:duration>2555</itunes:duration>
      <itunes:summary>
        <![CDATA[¿Cuál es la mejor forma de distribuir la priorización del trabajo dirigido a reducir el riesgo existencial? En igualdad de condiciones, deberíamos priorizar la reducción de aquellos riesgos que puedan surgir primero. Esto se debe a que no sabemos con certeza cuándo tendremos que enfrentarnos a los distintos riesgos, a que esperamos rendimientos decrecientes del trabajo adicional y a que prevemos que habrá más gente trabajando en estos riesgos en el futuro. En el caso particular del riesgo derivado de la inteligencia artificial, las mejores estrategias para reducirlo dependen de cuándo se manifieste. Es posible que estemos invirtiendo demasiado poco en escenarios en los que la inteligencia artificial llega pronto, incluso si esto no es muy probable, porque no habría tiempo suficiente para ocuparnos de ellos más tarde.]]>
      </itunes:summary>
      <itunes:keywords>temporización de la filantropía, riesgo existencial, estimación del riesgo existencial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>El futuro es inmenso: ¿qué significa esto para nuestra vida?</title>
      <itunes:episode>88</itunes:episode>
      <podcast:episode>88</podcast:episode>
      <itunes:title>El futuro es inmenso: ¿qué significa esto para nuestra vida?</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">7f192114-4efc-438d-b4c1-b2fc5e82d1a1</guid>
      <link>https://share.transistor.fm/s/92d11fc9</link>
      <description>
        <![CDATA[Sabemos que el futuro es enorme. Si no nos extinguimos, la inmensa mayoría de los seres humanos que vivirán lo harán en el futuro. Esto requiere que seamos más cuidadosos y considerados de lo que somos actualmente y que nos tomemos en serio los elevados riesgos a los que nos enfrentamos. Una vez que prestemos a esta realidad la atención que merece, estaremos en condiciones de identificar qué podemos hacer para reducir estos riesgos y poner manos a la obra.]]>
      </description>
      <content:encoded>
        <![CDATA[Sabemos que el futuro es enorme. Si no nos extinguimos, la inmensa mayoría de los seres humanos que vivirán lo harán en el futuro. Esto requiere que seamos más cuidadosos y considerados de lo que somos actualmente y que nos tomemos en serio los elevados riesgos a los que nos enfrentamos. Una vez que prestemos a esta realidad la atención que merece, estaremos en condiciones de identificar qué podemos hacer para reducir estos riesgos y poner manos a la obra.]]>
      </content:encoded>
      <pubDate>Mon, 09 Sep 2024 00:00:00 +0000</pubDate>
      <author>Roser, Max</author>
      <enclosure url="https://media.transistor.fm/92d11fc9/e1f1a659.mp3" length="29227271" type="audio/mpeg"/>
      <itunes:author>Roser, Max</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/s-fT7JlB0ELkj802ZRCp5-Um_Gh1n9qv5_Ne5rmukNE/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8zYzgx/ZGE3M2Q0ZmZlZDE4/OTAzNjg3ZThmYjFl/Zjk3MC53ZWJw.jpg"/>
      <itunes:duration>1826</itunes:duration>
      <itunes:summary>
        <![CDATA[Sabemos que el futuro es enorme. Si no nos extinguimos, la inmensa mayoría de los seres humanos que vivirán lo harán en el futuro. Esto requiere que seamos más cuidadosos y considerados de lo que somos actualmente y que nos tomemos en serio los elevados riesgos a los que nos enfrentamos. Una vez que prestemos a esta realidad la atención que merece, estaremos en condiciones de identificar qué podemos hacer para reducir estos riesgos y poner manos a la obra.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo, futuro a largo plazo</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Plazos de la inteligencia artificial: qué dicen los argumentos y los “expertos"</title>
      <itunes:episode>87</itunes:episode>
      <podcast:episode>87</podcast:episode>
      <itunes:title>Plazos de la inteligencia artificial: qué dicen los argumentos y los “expertos"</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">4d880a50-df03-488f-afb1-f90ee552b9c8</guid>
      <link>https://share.transistor.fm/s/2c387fa7</link>
      <description>
        <![CDATA[Este artículo ofrece un resumen de las múltiples perspectivas consideradas anteriormente en la serie sobre la cuestión de cuándo deberíamos esperar que se desarrolle una IA transformadora. A continuación intenta explicar la razón por la que no hay un consenso sólido entre los expertos sobre este tema y lo que significa eso para nosotros.]]>
      </description>
      <content:encoded>
        <![CDATA[Este artículo ofrece un resumen de las múltiples perspectivas consideradas anteriormente en la serie sobre la cuestión de cuándo deberíamos esperar que se desarrolle una IA transformadora. A continuación intenta explicar la razón por la que no hay un consenso sólido entre los expertos sobre este tema y lo que significa eso para nosotros.]]>
      </content:encoded>
      <pubDate>Mon, 02 Sep 2024 00:00:00 +0000</pubDate>
      <author>Karnofsky, Holden</author>
      <enclosure url="https://media.transistor.fm/2c387fa7/0236a6d8.mp3" length="25581937" type="audio/mpeg"/>
      <itunes:author>Karnofsky, Holden</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/_FLGR3lkpSFlArAfoUGKqC2Xqmud-ERCdfL0EIgejbE/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8wYzNk/MDQ4ZjA3MmY1NjMy/YmZhMjE5NzlhMWVh/NTI5Yy53ZWJw.jpg"/>
      <itunes:duration>1598</itunes:duration>
      <itunes:summary>
        <![CDATA[Este artículo ofrece un resumen de las múltiples perspectivas consideradas anteriormente en la serie sobre la cuestión de cuándo deberíamos esperar que se desarrolle una IA transformadora. A continuación intenta explicar la razón por la que no hay un consenso sólido entre los expertos sobre este tema y lo que significa eso para nosotros.]]>
      </itunes:summary>
      <itunes:keywords>riesgo asociado a la inteligencia artificial, seguridad de la inteligencia artificial, pronosticación de la inteligencia artificial, inteligencia artificial transformadora</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Cómo formarse profesionalmente en alineación técnica de la inteligencia artificial</title>
      <itunes:episode>86</itunes:episode>
      <podcast:episode>86</podcast:episode>
      <itunes:title>Cómo formarse profesionalmente en alineación técnica de la inteligencia artificial</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">474a30b1-be4a-466c-89d7-1a689c148b25</guid>
      <link>https://share.transistor.fm/s/d6c03b14</link>
      <description>
        <![CDATA[Esta es una guía dirigida a las personas que están considerando trabajar directamente en la alineación de la inteligencia artificial. Su contenido incluye una clasificación de los diferentes tipos de trabajos que se pueden hacer, las condiciones que los aspirantes a estos trabajos deben cumplir y una gran variedad de consejos útiles sobre cómo formarse y abrirse camino en alguna de las especializaciones de este campo.]]>
      </description>
      <content:encoded>
        <![CDATA[Esta es una guía dirigida a las personas que están considerando trabajar directamente en la alineación de la inteligencia artificial. Su contenido incluye una clasificación de los diferentes tipos de trabajos que se pueden hacer, las condiciones que los aspirantes a estos trabajos deben cumplir y una gran variedad de consejos útiles sobre cómo formarse y abrirse camino en alguna de las especializaciones de este campo.]]>
      </content:encoded>
      <pubDate>Mon, 26 Aug 2024 00:00:00 +0000</pubDate>
      <author>Rogers-Smith, Charlie</author>
      <enclosure url="https://media.transistor.fm/d6c03b14/fa3210dd.mp3" length="119151039" type="audio/mpeg"/>
      <itunes:author>Rogers-Smith, Charlie</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/Ke5b8Lcd_3iIMLpoY-MzEYVtp4cCsO_6MtgE23sw_h4/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS85MWM2/NjMzNWQ2OGM1NGY4/MDU1MTBjNTVhYmUw/OWQ4MC53ZWJw.jpg"/>
      <itunes:duration>5957</itunes:duration>
      <itunes:summary>
        <![CDATA[Esta es una guía dirigida a las personas que están considerando trabajar directamente en la alineación de la inteligencia artificial. Su contenido incluye una clasificación de los diferentes tipos de trabajos que se pueden hacer, las condiciones que los aspirantes a estos trabajos deben cumplir y una gran variedad de consejos útiles sobre cómo formarse y abrirse camino en alguna de las especializaciones de este campo.]]>
      </itunes:summary>
      <itunes:keywords>elección de carrera profesional, seguridad de la inteligencia artificial, riesgo asociado a la inteligencia artificial, ética de la inteligencia artificial, alineación de la inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>El altruismo no es una cuestión de sacrificio</title>
      <itunes:episode>85</itunes:episode>
      <podcast:episode>85</podcast:episode>
      <itunes:title>El altruismo no es una cuestión de sacrificio</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">87d40e36-ddc1-4ad0-8173-0b78cfc5c186</guid>
      <link>https://share.transistor.fm/s/0c4ccf0c</link>
      <description>
        <![CDATA[Algunas personas entienden que el altruismo solamente puede consistir en hacer grandes sacrificios, pero lo que realmente importa es maximizar los beneficios reales para los demás.]]>
      </description>
      <content:encoded>
        <![CDATA[Algunas personas entienden que el altruismo solamente puede consistir en hacer grandes sacrificios, pero lo que realmente importa es maximizar los beneficios reales para los demás.]]>
      </content:encoded>
      <pubDate>Mon, 19 Aug 2024 00:00:00 +0000</pubDate>
      <author>Kaufman, Jeff</author>
      <enclosure url="https://media.transistor.fm/0c4ccf0c/02c7c4d5.mp3" length="2841085" type="audio/mpeg"/>
      <itunes:author>Kaufman, Jeff</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/XV1S8Fyyhmv3gQmcrBNFBe-uSQLGWMLHWM_psJa5Dp4/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8zOTE1/MmJmMTA4ZGI5NGFm/M2E3NThlZDFhZGIz/YzhlYy53ZWJw.jpg"/>
      <itunes:duration>177</itunes:duration>
      <itunes:summary>
        <![CDATA[Algunas personas entienden que el altruismo solamente puede consistir en hacer grandes sacrificios, pero lo que realmente importa es maximizar los beneficios reales para los demás.]]>
      </itunes:summary>
      <itunes:keywords>ética del consumo personal, exigencias de la moral</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Una propuesta de ajuste al argumento del desperdicio astronómico</title>
      <itunes:episode>84</itunes:episode>
      <podcast:episode>84</podcast:episode>
      <itunes:title>Una propuesta de ajuste al argumento del desperdicio astronómico</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">ceca5027-5c96-4f4b-8cae-eb775f069a19</guid>
      <link>https://share.transistor.fm/s/5ca4daf4</link>
      <description>
        <![CDATA[Muchas personas citan el argumento del desperdicio astronómico de Bostrom como una justificación para priorizar la reducción del riesgo existencial, pero el argumento no ofrece evidencia sólida en ese sentido, sino que implica algo más general: debemos crear cambios de trayectoria positivos. Ahora bien, como hay muchas maneras en las que nuestras acciones podrían influir de forma impredecible en nuestra trayectoria general de desarrollo y, por tanto, muchas maneras en las que nuestras acciones podrían configurar el futuro lejano para mejor, parece más razonable favorecer las estrategias amplias de cambios de trayectoria.]]>
      </description>
      <content:encoded>
        <![CDATA[Muchas personas citan el argumento del desperdicio astronómico de Bostrom como una justificación para priorizar la reducción del riesgo existencial, pero el argumento no ofrece evidencia sólida en ese sentido, sino que implica algo más general: debemos crear cambios de trayectoria positivos. Ahora bien, como hay muchas maneras en las que nuestras acciones podrían influir de forma impredecible en nuestra trayectoria general de desarrollo y, por tanto, muchas maneras en las que nuestras acciones podrían configurar el futuro lejano para mejor, parece más razonable favorecer las estrategias amplias de cambios de trayectoria.]]>
      </content:encoded>
      <pubDate>Mon, 12 Aug 2024 00:00:00 +0000</pubDate>
      <author>Beckstead, Nick</author>
      <enclosure url="https://media.transistor.fm/5ca4daf4/55d01470.mp3" length="20325589" type="audio/mpeg"/>
      <itunes:author>Beckstead, Nick</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/aY0nYuU7sTuS4wV9yqJNqkVcsI0PU8XoggGw7H7JiAI/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS85NzRk/NGY1M2Q5YmY0OGE5/NDdjYjYwMzlhMWM4/OTZjOS53ZWJw.jpg"/>
      <itunes:duration>1778</itunes:duration>
      <itunes:summary>
        <![CDATA[Muchas personas citan el argumento del desperdicio astronómico de Bostrom como una justificación para priorizar la reducción del riesgo existencial, pero el argumento no ofrece evidencia sólida en ese sentido, sino que implica algo más general: debemos crear cambios de trayectoria positivos. Ahora bien, como hay muchas maneras en las que nuestras acciones podrían influir de forma impredecible en nuestra trayectoria general de desarrollo y, por tanto, muchas maneras en las que nuestras acciones podrían configurar el futuro lejano para mejor, parece más razonable favorecer las estrategias amplias de cambios de trayectoria.]]>
      </itunes:summary>
      <itunes:keywords>desperdicio astronómico, riesgo existencial, priorización de causas, cambios de trayectoria, largoplacismo, colonización del espacio, ética del riesgo existencial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Hambre, riqueza y moralidad</title>
      <itunes:episode>83</itunes:episode>
      <podcast:episode>83</podcast:episode>
      <itunes:title>Hambre, riqueza y moralidad</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">511bf94c-28be-4b34-bca5-a583cf9defdd</guid>
      <link>https://share.transistor.fm/s/0d591205</link>
      <description>
        <![CDATA[La situación de emergencia en la que se hallan muchas personas a nivel global tiene implicaciones morales ineludibles para aquellas personas que están en posición de prestar ayuda. Dado que el sufrimiento y la muerte por falta de comida, vivienda y atención médica son malos y que deberíamos tratar de evitarlos si el sacrificio personal que implican no es moralmente significativo, donar dinero a los fondos de ayuda no es un mero acto de caridad, sino una obligación moral que no puede ser ignorada.]]>
      </description>
      <content:encoded>
        <![CDATA[La situación de emergencia en la que se hallan muchas personas a nivel global tiene implicaciones morales ineludibles para aquellas personas que están en posición de prestar ayuda. Dado que el sufrimiento y la muerte por falta de comida, vivienda y atención médica son malos y que deberíamos tratar de evitarlos si el sacrificio personal que implican no es moralmente significativo, donar dinero a los fondos de ayuda no es un mero acto de caridad, sino una obligación moral que no puede ser ignorada.]]>
      </content:encoded>
      <pubDate>Mon, 05 Aug 2024 00:00:00 +0000</pubDate>
      <author>Singer, Peter</author>
      <enclosure url="https://media.transistor.fm/0d591205/6969c769.mp3" length="5882193" type="audio/mpeg"/>
      <itunes:author>Singer, Peter</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/0rBnmrSIfmMB75sGROSY7DDKczBQT1Viqz6xPy0-Ee0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS81ZjFj/NGY3YTcxMjQ1MDcy/YmNkMzEwMTJlOTVj/ZTlhNC53ZWJw.jpg"/>
      <itunes:duration>367</itunes:duration>
      <itunes:summary>
        <![CDATA[La situación de emergencia en la que se hallan muchas personas a nivel global tiene implicaciones morales ineludibles para aquellas personas que están en posición de prestar ayuda. Dado que el sufrimiento y la muerte por falta de comida, vivienda y atención médica son malos y que deberíamos tratar de evitarlos si el sacrificio personal que implican no es moralmente significativo, donar dinero a los fondos de ayuda no es un mero acto de caridad, sino una obligación moral que no puede ser ignorada.]]>
      </itunes:summary>
      <itunes:keywords>exigencias de la moral, pobreza global</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Compensaciones éticas</title>
      <itunes:episode>82</itunes:episode>
      <podcast:episode>82</podcast:episode>
      <itunes:title>Compensaciones éticas</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">6b9e8d6d-51de-4a48-8ed4-29fb6a636b85</guid>
      <link>https://share.transistor.fm/s/3e62a192</link>
      <description>
        <![CDATA[A semejanza de las compensaciones de emisiones de carbono, las compensaciones éticas parecen formas legítimas de reparar los daños que implican determinadas acciones. Las compensaciones que consisten en donar a organizaciones que abogan por el bienestar animal a cambio de poder consumir carne, aunque extrañas, siguen pareciendo éticas. Otras compensaciones que involucran acciones moralmente reprehensibles, como el asesinato, son más difíciles de justificar.]]>
      </description>
      <content:encoded>
        <![CDATA[A semejanza de las compensaciones de emisiones de carbono, las compensaciones éticas parecen formas legítimas de reparar los daños que implican determinadas acciones. Las compensaciones que consisten en donar a organizaciones que abogan por el bienestar animal a cambio de poder consumir carne, aunque extrañas, siguen pareciendo éticas. Otras compensaciones que involucran acciones moralmente reprehensibles, como el asesinato, son más difíciles de justificar.]]>
      </content:encoded>
      <pubDate>Mon, 29 Jul 2024 00:00:00 +0000</pubDate>
      <author>Alexander, Scott</author>
      <enclosure url="https://media.transistor.fm/3e62a192/7d9ef4b1.mp3" length="10199651" type="audio/mpeg"/>
      <itunes:author>Alexander, Scott</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/Bd5BIn3Tgdco70-jOomLQCb73nySSxh3BSJbb3afDvk/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8yNWQ5/ZGE4MGNlNWU3MDE0/M2NlOWNjYjJlY2Q5/YjJiMy53ZWJw.jpg"/>
      <itunes:duration>637</itunes:duration>
      <itunes:summary>
        <![CDATA[A semejanza de las compensaciones de emisiones de carbono, las compensaciones éticas parecen formas legítimas de reparar los daños que implican determinadas acciones. Las compensaciones que consisten en donar a organizaciones que abogan por el bienestar animal a cambio de poder consumir carne, aunque extrañas, siguen pareciendo éticas. Otras compensaciones que involucran acciones moralmente reprehensibles, como el asesinato, son más difíciles de justificar.]]>
      </itunes:summary>
      <itunes:keywords>compensación moral, cambio climático</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>¿Son el dolor y el placer igual de eficientes en energía?</title>
      <itunes:episode>81</itunes:episode>
      <podcast:episode>81</podcast:episode>
      <itunes:title>¿Son el dolor y el placer igual de eficientes en energía?</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">e59d16e7-5c34-40a7-b9eb-d9c7ef7c2520</guid>
      <link>https://share.transistor.fm/s/e21ae134</link>
      <description>
        <![CDATA[Si la civilización colonizara la galaxia y destinara una parte no trivial de sus recursos a la producción de hedonio o dolorio (es decir, cantidades de hardware optimizadas para la producción de placer o dolor) habría un impacto inmenso en el cálculo utilitarista hedonista. En tal caso, los utilitaristas hedonistas solo necesitarían perseguir objetivos atendiendo a cálculos que resultaran en una cantidad esperada moderadamente más alta de hedonio que de dolorio.]]>
      </description>
      <content:encoded>
        <![CDATA[Si la civilización colonizara la galaxia y destinara una parte no trivial de sus recursos a la producción de hedonio o dolorio (es decir, cantidades de hardware optimizadas para la producción de placer o dolor) habría un impacto inmenso en el cálculo utilitarista hedonista. En tal caso, los utilitaristas hedonistas solo necesitarían perseguir objetivos atendiendo a cálculos que resultaran en una cantidad esperada moderadamente más alta de hedonio que de dolorio.]]>
      </content:encoded>
      <pubDate>Mon, 22 Jul 2024 00:00:00 +0000</pubDate>
      <author>Shulman, Carl</author>
      <enclosure url="https://media.transistor.fm/e21ae134/a64038d8.mp3" length="4983140" type="audio/mpeg"/>
      <itunes:author>Shulman, Carl</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/Op63sZepd-hbGHSHcBcjF38otiITKufRPzIOOZ10NdY/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS84ZGI4/MjEyYTljNjFmMzNi/M2MyZDc3OWNiYWMz/MmI5ZC53ZWJw.jpg"/>
      <itunes:duration>311</itunes:duration>
      <itunes:summary>
        <![CDATA[Si la civilización colonizara la galaxia y destinara una parte no trivial de sus recursos a la producción de hedonio o dolorio (es decir, cantidades de hardware optimizadas para la producción de placer o dolor) habría un impacto inmenso en el cálculo utilitarista hedonista. En tal caso, los utilitaristas hedonistas solo necesitarían perseguir objetivos atendiendo a cálculos que resultaran en una cantidad esperada moderadamente más alta de hedonio que de dolorio.]]>
      </itunes:summary>
      <itunes:keywords>utilitarismo, hedonio, desperdicio astronómico, utilitarismo clásico, colonización del espacio, futuro a largo plazo</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Enfermedades tratables o fácilmente evitables</title>
      <itunes:episode>80</itunes:episode>
      <podcast:episode>80</podcast:episode>
      <itunes:title>Enfermedades tratables o fácilmente evitables</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">9b728551-474d-49a3-9db6-96bd159fb511</guid>
      <link>https://share.transistor.fm/s/490df147</link>
      <description>
        <![CDATA[Cada año mueren en los países más pobres unos 10 millones de personas a causa de enfermedades que pueden prevenirse o tratarse de forma muy barata, como la malaria, el VIH, la tuberculosis y la diarrea. Esto significa que sigue habiendo muchas oportunidades para ampliar la escala de los tratamientos que se sabe que previenen o curan enfermedades comunes en los países de renta baja. Las opciones incluyen hacer donaciones a proyectos eficaces, trabajar como economista en organizaciones intergubernamentales (como el Banco Mundial o la Organización Mundial de la Salud) y crear o trabajar en una organización sin ánimo de lucro que implemente a gran escala tratamientos probados.]]>
      </description>
      <content:encoded>
        <![CDATA[Cada año mueren en los países más pobres unos 10 millones de personas a causa de enfermedades que pueden prevenirse o tratarse de forma muy barata, como la malaria, el VIH, la tuberculosis y la diarrea. Esto significa que sigue habiendo muchas oportunidades para ampliar la escala de los tratamientos que se sabe que previenen o curan enfermedades comunes en los países de renta baja. Las opciones incluyen hacer donaciones a proyectos eficaces, trabajar como economista en organizaciones intergubernamentales (como el Banco Mundial o la Organización Mundial de la Salud) y crear o trabajar en una organización sin ánimo de lucro que implemente a gran escala tratamientos probados.]]>
      </content:encoded>
      <pubDate>Mon, 15 Jul 2024 00:00:00 +0000</pubDate>
      <author>Wiblin, Robert</author>
      <enclosure url="https://media.transistor.fm/490df147/333d8c24.mp3" length="16916273" type="audio/mpeg"/>
      <itunes:author>Wiblin, Robert</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/L-LPbQE8pcioeHXKBLlYRd9t_3hZu_ClVEaD-Mmb7Ew/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS83NmY0/Yjg1YTVkYzVlNmI4/MDFjY2I5YWVmZmRi/YzNhZi53ZWJw.jpg"/>
      <itunes:duration>1056</itunes:duration>
      <itunes:summary>
        <![CDATA[Cada año mueren en los países más pobres unos 10 millones de personas a causa de enfermedades que pueden prevenirse o tratarse de forma muy barata, como la malaria, el VIH, la tuberculosis y la diarrea. Esto significa que sigue habiendo muchas oportunidades para ampliar la escala de los tratamientos que se sabe que previenen o curan enfermedades comunes en los países de renta baja. Las opciones incluyen hacer donaciones a proyectos eficaces, trabajar como economista en organizaciones intergubernamentales (como el Banco Mundial o la Organización Mundial de la Salud) y crear o trabajar en una organización sin ánimo de lucro que implemente a gran escala tratamientos probados.]]>
      </itunes:summary>
      <itunes:keywords>salud y desarrollo globales, enfermedades tropicales desatendidas</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>El altruismo eficaz es una pregunta (no una ideología)</title>
      <itunes:episode>79</itunes:episode>
      <podcast:episode>79</podcast:episode>
      <itunes:title>El altruismo eficaz es una pregunta (no una ideología)</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">9c8cda3d-d71a-4212-8ca6-d0bfbbfa8f69</guid>
      <link>https://share.transistor.fm/s/8f1242e3</link>
      <description>
        <![CDATA[La característica central del altruismo eficaz es el esfuerzo por responder a la pregunta: "¿Cómo puedo hacer el mayor bien con los recursos de que dispongo?". Pensar en el altruismo eficaz de este modo, y no como si fuera un conjunto determinado de creencias o políticas, tiene ciertas consecuencias interesantes y útiles. Hace que las preguntas sobre qué "cuenta" como una organización altruista eficaz sean irrelevantes: si en verdad están tratando de descubrir cómo hacer el mayor bien, ello es suficiente. Demuestra que el altruismo eficaz no solo tiene que ver con donar para causas relacionadas con la salud en África. Nos recuerda que todavía no sabemos realmente cómo ser altruistas eficaces.]]>
      </description>
      <content:encoded>
        <![CDATA[La característica central del altruismo eficaz es el esfuerzo por responder a la pregunta: "¿Cómo puedo hacer el mayor bien con los recursos de que dispongo?". Pensar en el altruismo eficaz de este modo, y no como si fuera un conjunto determinado de creencias o políticas, tiene ciertas consecuencias interesantes y útiles. Hace que las preguntas sobre qué "cuenta" como una organización altruista eficaz sean irrelevantes: si en verdad están tratando de descubrir cómo hacer el mayor bien, ello es suficiente. Demuestra que el altruismo eficaz no solo tiene que ver con donar para causas relacionadas con la salud en África. Nos recuerda que todavía no sabemos realmente cómo ser altruistas eficaces.]]>
      </content:encoded>
      <pubDate>Mon, 08 Jul 2024 00:00:00 +0000</pubDate>
      <author>Helen</author>
      <enclosure url="https://media.transistor.fm/8f1242e3/ec50b781.mp3" length="9855287" type="audio/mpeg"/>
      <itunes:author>Helen</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/R4pUbRkLn_iXbxEQR4GHgpuOiVMnzqH3fgm55rdUx2U/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS81NDQ5/YzJiZDhkMDQ4NTcz/Mzc5ZmZjYjMwNWZk/ZjhkNi53ZWJw.jpg"/>
      <itunes:duration>615</itunes:duration>
      <itunes:summary>
        <![CDATA[La característica central del altruismo eficaz es el esfuerzo por responder a la pregunta: "¿Cómo puedo hacer el mayor bien con los recursos de que dispongo?". Pensar en el altruismo eficaz de este modo, y no como si fuera un conjunto determinado de creencias o políticas, tiene ciertas consecuencias interesantes y útiles. Hace que las preguntas sobre qué "cuenta" como una organización altruista eficaz sean irrelevantes: si en verdad están tratando de descubrir cómo hacer el mayor bien, ello es suficiente. Demuestra que el altruismo eficaz no solo tiene que ver con donar para causas relacionadas con la salud en África. Nos recuerda que todavía no sabemos realmente cómo ser altruistas eficaces.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, desarrollo del altruismo eficaz, mentalidad del explorador</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Resumen: Defensa del largoplacismo fuerte</title>
      <itunes:episode>78</itunes:episode>
      <podcast:episode>78</podcast:episode>
      <itunes:title>Resumen: Defensa del largoplacismo fuerte</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">97586d28-dfac-4c67-9d2b-d63a44475e9f</guid>
      <link>https://share.transistor.fm/s/4eebd6f5</link>
      <description>
        <![CDATA[Según el largoplacismo fuerte, la característica más importante de nuestras acciones presentes es su efecto en el futuro a largo plazo. El argumento en favor de esta postura se basa en dos premisas clave. La primera es que el número esperado de vidas futuras es inmenso, siempre que la humanidad pueda evitar una extinción prematura. La segunda, que podemos mejorar el futuro lejano de manera predecible y efectiva, por ejemplo, reduciendo el riesgo de extinción o guiando el desarrollo de la superinteligencia artificial para que esté alineada con los valores correctos. Una primera objeción opone que no tenemos conocimiento de los efectos de nuestras acciones en el futuro, pero no es suficiente para refutar el argumento. Tampoco lo es la segunda objeción, según la cual el argumento depende de pequeñas probabilidades de valores enormes, lo cual sería un ejemplo de fanatismo.]]>
      </description>
      <content:encoded>
        <![CDATA[Según el largoplacismo fuerte, la característica más importante de nuestras acciones presentes es su efecto en el futuro a largo plazo. El argumento en favor de esta postura se basa en dos premisas clave. La primera es que el número esperado de vidas futuras es inmenso, siempre que la humanidad pueda evitar una extinción prematura. La segunda, que podemos mejorar el futuro lejano de manera predecible y efectiva, por ejemplo, reduciendo el riesgo de extinción o guiando el desarrollo de la superinteligencia artificial para que esté alineada con los valores correctos. Una primera objeción opone que no tenemos conocimiento de los efectos de nuestras acciones en el futuro, pero no es suficiente para refutar el argumento. Tampoco lo es la segunda objeción, según la cual el argumento depende de pequeñas probabilidades de valores enormes, lo cual sería un ejemplo de fanatismo.]]>
      </content:encoded>
      <pubDate>Mon, 01 Jul 2024 00:00:00 +0000</pubDate>
      <author>Greaves, Hilary y MacAskill, William</author>
      <enclosure url="https://media.transistor.fm/4eebd6f5/75262287.mp3" length="12247222" type="audio/mpeg"/>
      <itunes:author>Greaves, Hilary y MacAskill, William</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/CtSmzlwVsAzB4n6Tume0Rmw_YdYSD-pwE0uCC94caUU/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9jYzM4/OWVmYTY4ZTMzZjYz/NWQzNmFkZDU3MDU0/NjQwMS53ZWJw.jpg"/>
      <itunes:duration>765</itunes:duration>
      <itunes:summary>
        <![CDATA[Según el largoplacismo fuerte, la característica más importante de nuestras acciones presentes es su efecto en el futuro a largo plazo. El argumento en favor de esta postura se basa en dos premisas clave. La primera es que el número esperado de vidas futuras es inmenso, siempre que la humanidad pueda evitar una extinción prematura. La segunda, que podemos mejorar el futuro lejano de manera predecible y efectiva, por ejemplo, reduciendo el riesgo de extinción o guiando el desarrollo de la superinteligencia artificial para que esté alineada con los valores correctos. Una primera objeción opone que no tenemos conocimiento de los efectos de nuestras acciones en el futuro, pero no es suficiente para refutar el argumento. Tampoco lo es la segunda objeción, según la cual el argumento depende de pequeñas probabilidades de valores enormes, lo cual sería un ejemplo de fanatismo.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo, incertidumbre radical</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>La pobreza global y las exigencias de la moral</title>
      <itunes:episode>77</itunes:episode>
      <podcast:episode>77</podcast:episode>
      <itunes:title>La pobreza global y las exigencias de la moral</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">e2c5daf6-01f0-4e95-9d8e-04f3e59dd621</guid>
      <link>https://share.transistor.fm/s/a668f9ab</link>
      <description>
        <![CDATA[Más de mil millones de personas viven en la pobreza extrema. La educación que reciben es insuficiente, mueren a causa de enfermedades que podrían prevenirse fácilmente y sufren por la falta de alimentos y de agua potable. Su grave situación constituye una emergencia moral constante y, posiblemente, la más grande de nuestro tiempo. Cuando donamos a las mejores organizaciones de beneficencia que luchan contra la pobreza o sus efectos, la ayuda de cada uno de nosotros puede ser enorme, a cambio de un sacrificio comparativamente pequeño. La combinación de estos hechos con la teoría utilitarista origina una exigencia moral de donar. Pero ello ocurre también con cualquier otra postura que acepte el principio del sacrificio, según el cual es obligatorio hacer aquello que pueda evitar algo muy malo a costa de un sacrificio pequeño. Este principio puede parecer demasiado exigente, pero está basado en intuiciones del sentido común y su rechazo implicaría otros compromisos sumamente implausibles.]]>
      </description>
      <content:encoded>
        <![CDATA[Más de mil millones de personas viven en la pobreza extrema. La educación que reciben es insuficiente, mueren a causa de enfermedades que podrían prevenirse fácilmente y sufren por la falta de alimentos y de agua potable. Su grave situación constituye una emergencia moral constante y, posiblemente, la más grande de nuestro tiempo. Cuando donamos a las mejores organizaciones de beneficencia que luchan contra la pobreza o sus efectos, la ayuda de cada uno de nosotros puede ser enorme, a cambio de un sacrificio comparativamente pequeño. La combinación de estos hechos con la teoría utilitarista origina una exigencia moral de donar. Pero ello ocurre también con cualquier otra postura que acepte el principio del sacrificio, según el cual es obligatorio hacer aquello que pueda evitar algo muy malo a costa de un sacrificio pequeño. Este principio puede parecer demasiado exigente, pero está basado en intuiciones del sentido común y su rechazo implicaría otros compromisos sumamente implausibles.]]>
      </content:encoded>
      <pubDate>Mon, 24 Jun 2024 00:00:00 +0000</pubDate>
      <author>Ord, Toby</author>
      <enclosure url="https://media.transistor.fm/a668f9ab/d019c686.mp3" length="40163577" type="audio/mpeg"/>
      <itunes:author>Ord, Toby</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/yBHldhiNr_xer6_tcDNKFFshjXDIEO0mtMD2errGe4I/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS85YTBm/ZjQwOWIzYjFkNmZl/YjM5OGFiNzA0MGJi/ZjVhNC53ZWJw.jpg"/>
      <itunes:duration>2509</itunes:duration>
      <itunes:summary>
        <![CDATA[Más de mil millones de personas viven en la pobreza extrema. La educación que reciben es insuficiente, mueren a causa de enfermedades que podrían prevenirse fácilmente y sufren por la falta de alimentos y de agua potable. Su grave situación constituye una emergencia moral constante y, posiblemente, la más grande de nuestro tiempo. Cuando donamos a las mejores organizaciones de beneficencia que luchan contra la pobreza o sus efectos, la ayuda de cada uno de nosotros puede ser enorme, a cambio de un sacrificio comparativamente pequeño. La combinación de estos hechos con la teoría utilitarista origina una exigencia moral de donar. Pero ello ocurre también con cualquier otra postura que acepte el principio del sacrificio, según el cual es obligatorio hacer aquello que pueda evitar algo muy malo a costa de un sacrificio pequeño. Este principio puede parecer demasiado exigente, pero está basado en intuiciones del sentido común y su rechazo implicaría otros compromisos sumamente implausibles.]]>
      </itunes:summary>
      <itunes:keywords>pobreza global, exigencias de la moral, utilitarismo</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Introducción a la explotación animal</title>
      <itunes:episode>76</itunes:episode>
      <podcast:episode>76</podcast:episode>
      <itunes:title>Introducción a la explotación animal</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">aec00dbd-1261-4a2b-b612-998dc575e6eb</guid>
      <link>https://share.transistor.fm/s/a668daf2</link>
      <description>
        <![CDATA[Los humanos sacrificamos miles de millones de animales cada año para nuestro propio beneficio. Además, los hacemos sufrir de formas terribles. Los capturamos o los criamos en condiciones incómodas y estresantes, obligándolos a llevar una vida llena de miedo, dolor y aburrimiento. Hay varias razones por las que hacemos esto. La cría y matanza de animales para la producción de alimentos es la más común, aunque también se sacrifican animales para producir ropa y se emplean como objetos de entretenimiento, mano de obra o herramientas, incluida la experimentación en laboratorios.]]>
      </description>
      <content:encoded>
        <![CDATA[Los humanos sacrificamos miles de millones de animales cada año para nuestro propio beneficio. Además, los hacemos sufrir de formas terribles. Los capturamos o los criamos en condiciones incómodas y estresantes, obligándolos a llevar una vida llena de miedo, dolor y aburrimiento. Hay varias razones por las que hacemos esto. La cría y matanza de animales para la producción de alimentos es la más común, aunque también se sacrifican animales para producir ropa y se emplean como objetos de entretenimiento, mano de obra o herramientas, incluida la experimentación en laboratorios.]]>
      </content:encoded>
      <pubDate>Mon, 17 Jun 2024 00:00:00 +0000</pubDate>
      <author>Animal Ethics</author>
      <enclosure url="https://media.transistor.fm/a668daf2/3ac630b9.mp3" length="4322513" type="audio/mpeg"/>
      <itunes:author>Animal Ethics</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/iiFrmEfuTE6475VPrPM-0DHjsctSfQm9LDJ4R4lVGMs/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS83MWY5/YjBkOGUyOGExZTMz/ZTE1Yjk0MGUxZjI2/YTQzMy53ZWJw.jpg"/>
      <itunes:duration>216</itunes:duration>
      <itunes:summary>
        <![CDATA[Los humanos sacrificamos miles de millones de animales cada año para nuestro propio beneficio. Además, los hacemos sufrir de formas terribles. Los capturamos o los criamos en condiciones incómodas y estresantes, obligándolos a llevar una vida llena de miedo, dolor y aburrimiento. Hay varias razones por las que hacemos esto. La cría y matanza de animales para la producción de alimentos es la más común, aunque también se sacrifican animales para producir ropa y se emplean como objetos de entretenimiento, mano de obra o herramientas, incluida la experimentación en laboratorios.]]>
      </itunes:summary>
      <itunes:keywords>bienestar animal, bienestar animal en las granjas, cambio en la dieta</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Por qué sigo defendiendo el altruismo eficaz</title>
      <itunes:episode>75</itunes:episode>
      <podcast:episode>75</podcast:episode>
      <itunes:title>Por qué sigo defendiendo el altruismo eficaz</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">2cc74c2c-e2c9-4fa7-956c-cdad6532f2f5</guid>
      <link>https://share.transistor.fm/s/7ebe6f88</link>
      <description>
        <![CDATA[Este artículo defiende el movimiento del altruismo eficaz, citando sus logros en ámbitos como la salud global, el bienestar animal y la seguridad de la IA, y afirmando que las críticas suelen ser exageradas. Defiende que el compromiso del altruismo eficaz con un altruismo basado en la evidencia y centrado en las intervenciones más tratables para ayudar a los demás es un avance importante que vale la pena apoyar, a pesar de que se hayan cometido algunos errores. En conclusión, parece claro que el movimiento ha tenido un impacto positivo significativo que compensa con creces los aspectos negativos.]]>
      </description>
      <content:encoded>
        <![CDATA[Este artículo defiende el movimiento del altruismo eficaz, citando sus logros en ámbitos como la salud global, el bienestar animal y la seguridad de la IA, y afirmando que las críticas suelen ser exageradas. Defiende que el compromiso del altruismo eficaz con un altruismo basado en la evidencia y centrado en las intervenciones más tratables para ayudar a los demás es un avance importante que vale la pena apoyar, a pesar de que se hayan cometido algunos errores. En conclusión, parece claro que el movimiento ha tenido un impacto positivo significativo que compensa con creces los aspectos negativos.]]>
      </content:encoded>
      <pubDate>Mon, 10 Jun 2024 00:00:00 +0000</pubDate>
      <author>Alexander, Scott</author>
      <enclosure url="https://media.transistor.fm/7ebe6f88/faf1957e.mp3" length="18355306" type="audio/mpeg"/>
      <itunes:author>Alexander, Scott</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/OpTC-YljNyGc6JkGfRUAXloj5gWMS0uIsbWc43K7G0c/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS84ODc3/Nzc1MjM5Y2UwZGRm/NzZhMjA5NTRjYWRk/ODc4Zi53ZWJw.jpg"/>
      <itunes:duration>1146</itunes:duration>
      <itunes:summary>
        <![CDATA[Este artículo defiende el movimiento del altruismo eficaz, citando sus logros en ámbitos como la salud global, el bienestar animal y la seguridad de la IA, y afirmando que las críticas suelen ser exageradas. Defiende que el compromiso del altruismo eficaz con un altruismo basado en la evidencia y centrado en las intervenciones más tratables para ayudar a los demás es un avance importante que vale la pena apoyar, a pesar de que se hayan cometido algunos errores. En conclusión, parece claro que el movimiento ha tenido un impacto positivo significativo que compensa con creces los aspectos negativos.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, críticas al altruismo eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>¿Cuánto deberían pagar los gobiernos para prevenir catástrofes? El papel limitado del largoplacismo</title>
      <itunes:episode>74</itunes:episode>
      <podcast:episode>74</podcast:episode>
      <itunes:title>¿Cuánto deberían pagar los gobiernos para prevenir catástrofes? El papel limitado del largoplacismo</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">b4035e3b-4c60-43d1-aa26-653d2655f00b</guid>
      <link>https://share.transistor.fm/s/7bc83b13</link>
      <description>
        <![CDATA[Los largoplacistas sostienen que la humanidad debería redoblar sus esfuerzos para prevenir catástrofes como guerras nucleares, pandemias y desastres ocasionados por la inteligencia artificial. Pero un destacado argumento largoplacista va más allá de esta conclusión: el argumento también implica que la humanidad debería reducir el riesgo de una catástrofe existencial incluso a un costo extremo para la generación presente. Esta extralimitación significa que los gobiernos democráticos no pueden utilizar el argumento largoplacista para orientar sus políticas en materia de catástrofes. En este artículo, demostramos que la prevención de catástrofes no depende del largoplacismo. El análisis de costo-beneficio estándar implica que los gobiernos deberían gastar mucho más en reducir los riesgos catastróficos. Sostenemos que una política gubernamental de catástrofes guiada por el análisis de costo-beneficio debería ser el objetivo de los largoplacistas en la esfera política. Esta política sería democráticamente aceptable y reduciría el riesgo existencial casi tanto como una política largoplacista fuerte.]]>
      </description>
      <content:encoded>
        <![CDATA[Los largoplacistas sostienen que la humanidad debería redoblar sus esfuerzos para prevenir catástrofes como guerras nucleares, pandemias y desastres ocasionados por la inteligencia artificial. Pero un destacado argumento largoplacista va más allá de esta conclusión: el argumento también implica que la humanidad debería reducir el riesgo de una catástrofe existencial incluso a un costo extremo para la generación presente. Esta extralimitación significa que los gobiernos democráticos no pueden utilizar el argumento largoplacista para orientar sus políticas en materia de catástrofes. En este artículo, demostramos que la prevención de catástrofes no depende del largoplacismo. El análisis de costo-beneficio estándar implica que los gobiernos deberían gastar mucho más en reducir los riesgos catastróficos. Sostenemos que una política gubernamental de catástrofes guiada por el análisis de costo-beneficio debería ser el objetivo de los largoplacistas en la esfera política. Esta política sería democráticamente aceptable y reduciría el riesgo existencial casi tanto como una política largoplacista fuerte.]]>
      </content:encoded>
      <pubDate>Mon, 03 Jun 2024 00:00:00 +0000</pubDate>
      <author>Shulman, Carl y Thornley, Elliott</author>
      <enclosure url="https://media.transistor.fm/7bc83b13/10442e7d.mp3" length="91910303" type="audio/mpeg"/>
      <itunes:author>Shulman, Carl y Thornley, Elliott</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/JVqr175CqPTp00kzZ8QDx_znc9qOt2g83g_iI05Y018/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9kNTIz/MGYxNGZhMDU2YzRl/Mzg2NDc0YzQzMmRk/Y2M2NC53ZWJw.jpg"/>
      <itunes:duration>5744</itunes:duration>
      <itunes:summary>
        <![CDATA[Los largoplacistas sostienen que la humanidad debería redoblar sus esfuerzos para prevenir catástrofes como guerras nucleares, pandemias y desastres ocasionados por la inteligencia artificial. Pero un destacado argumento largoplacista va más allá de esta conclusión: el argumento también implica que la humanidad debería reducir el riesgo de una catástrofe existencial incluso a un costo extremo para la generación presente. Esta extralimitación significa que los gobiernos democráticos no pueden utilizar el argumento largoplacista para orientar sus políticas en materia de catástrofes. En este artículo, demostramos que la prevención de catástrofes no depende del largoplacismo. El análisis de costo-beneficio estándar implica que los gobiernos deberían gastar mucho más en reducir los riesgos catastróficos. Sostenemos que una política gubernamental de catástrofes guiada por el análisis de costo-beneficio debería ser el objetivo de los largoplacistas en la esfera política. Esta política sería democráticamente aceptable y reduciría el riesgo existencial casi tanto como una política largoplacista fuerte.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo, análisis de costo-beneficio, riesgo existencial, riesgos catastróficos globales, bioseguridad, seguridad nuclear, mejora de la toma de decisiones institucionales</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Respuesta al Informe de políticas de Nuestra Agenda Común 2: "Reforzar la respuesta internacional en caso de crisis mundiales complejas - Una Plataforma de Emergencia"</title>
      <itunes:episode>73</itunes:episode>
      <podcast:episode>73</podcast:episode>
      <itunes:title>Respuesta al Informe de políticas de Nuestra Agenda Común 2: "Reforzar la respuesta internacional en caso de crisis mundiales complejas - Una Plataforma de Emergencia"</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">58a72689-f16b-4afe-a6df-470cbb24dfaf</guid>
      <link>https://share.transistor.fm/s/df0c2b4b</link>
      <description>
        <![CDATA[El 9 de marzo de 2023, la OESG de la ONU publicó sus dos primeros informes de políticas sobre las generaciones futuras y la Plataforma de Emergencia. Este artículo revisa el informe sobre la Plataforma de Emergencia y ofrece aportes sustantivos para contribuir al impacto de esos esfuerzos.]]>
      </description>
      <content:encoded>
        <![CDATA[El 9 de marzo de 2023, la OESG de la ONU publicó sus dos primeros informes de políticas sobre las generaciones futuras y la Plataforma de Emergencia. Este artículo revisa el informe sobre la Plataforma de Emergencia y ofrece aportes sustantivos para contribuir al impacto de esos esfuerzos.]]>
      </content:encoded>
      <pubDate>Mon, 27 May 2024 00:00:00 +0000</pubDate>
      <author>Estier, Malou</author>
      <enclosure url="https://media.transistor.fm/df0c2b4b/58f4d663.mp3" length="6585285" type="audio/mpeg"/>
      <itunes:author>Estier, Malou</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/_ED7Pt4BEZzBHj_txq9Ah_DBil2gWVKnPKI8Pv0rgQw/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS85ZDNk/MGQ5ZThjODdhMGI3/MjAwM2I2NGQwZjdi/OTViMS53ZWJw.jpg"/>
      <itunes:duration>411</itunes:duration>
      <itunes:summary>
        <![CDATA[El 9 de marzo de 2023, la OESG de la ONU publicó sus dos primeros informes de políticas sobre las generaciones futuras y la Plataforma de Emergencia. Este artículo revisa el informe sobre la Plataforma de Emergencia y ofrece aportes sustantivos para contribuir al impacto de esos esfuerzos.]]>
      </itunes:summary>
      <itunes:keywords>futuro a largo plazo</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Respuesta al Informe de políticas de Nuestra Agenda Común 1: "Pensar en las generaciones futuras y actuar en su beneficio"</title>
      <itunes:episode>72</itunes:episode>
      <podcast:episode>72</podcast:episode>
      <itunes:title>Respuesta al Informe de políticas de Nuestra Agenda Común 1: "Pensar en las generaciones futuras y actuar en su beneficio"</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">d90b195f-0021-4de1-be2b-4b3f629c2472</guid>
      <link>https://share.transistor.fm/s/ee98f605</link>
      <description>
        <![CDATA[El 9 de marzo de 2023, la OESG de la ONU publicó sus dos primeros informes de políticas sobre las generaciones futuras y la Plataforma de Emergencia. Este artículo revisa el informe sobre las generaciones futuras y ofrece aportes sustantivos para contribuir al impacto de esos esfuerzos.]]>
      </description>
      <content:encoded>
        <![CDATA[El 9 de marzo de 2023, la OESG de la ONU publicó sus dos primeros informes de políticas sobre las generaciones futuras y la Plataforma de Emergencia. Este artículo revisa el informe sobre las generaciones futuras y ofrece aportes sustantivos para contribuir al impacto de esos esfuerzos.]]>
      </content:encoded>
      <pubDate>Mon, 20 May 2024 00:00:00 +0000</pubDate>
      <author>Estier, Malou</author>
      <enclosure url="https://media.transistor.fm/ee98f605/26618413.mp3" length="9264679" type="audio/mpeg"/>
      <itunes:author>Estier, Malou</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/v2Xs8QhQGTGQVHcumtr3JNrM-NjgYUQ3fUcKZzA9Lvk/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mMWUy/ZmRjMTU3Y2RjYzk5/MmExZDQ1YjgyMTE0/M2E2Yi53ZWJw.jpg"/>
      <itunes:duration>463</itunes:duration>
      <itunes:summary>
        <![CDATA[El 9 de marzo de 2023, la OESG de la ONU publicó sus dos primeros informes de políticas sobre las generaciones futuras y la Plataforma de Emergencia. Este artículo revisa el informe sobre las generaciones futuras y ofrece aportes sustantivos para contribuir al impacto de esos esfuerzos.]]>
      </itunes:summary>
      <itunes:keywords>futuro a largo plazo</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>En busca de oro</title>
      <itunes:episode>71</itunes:episode>
      <podcast:episode>71</podcast:episode>
      <itunes:title>En busca de oro</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">6695d0d9-469e-42fc-91b8-327c8a7794c9</guid>
      <link>https://share.transistor.fm/s/2490f3d6</link>
      <description>
        <![CDATA[En esta ponencia del 2016, Owen Cotton-Barratt, de la Universidad de Oxford, habla sobre cómo pueden mejorar el mundo los altruistas eficaces. Para ilustrarlo, usa la metáfora de la búsqueda de oro. Owen trata una serie de conceptos clave del altruismo eficaz, como las distribuciones de cola pesada, los rendimientos marginales decrecientes y la ventaja comparativa.]]>
      </description>
      <content:encoded>
        <![CDATA[En esta ponencia del 2016, Owen Cotton-Barratt, de la Universidad de Oxford, habla sobre cómo pueden mejorar el mundo los altruistas eficaces. Para ilustrarlo, usa la metáfora de la búsqueda de oro. Owen trata una serie de conceptos clave del altruismo eficaz, como las distribuciones de cola pesada, los rendimientos marginales decrecientes y la ventaja comparativa.]]>
      </content:encoded>
      <pubDate>Mon, 13 May 2024 00:00:00 +0000</pubDate>
      <author>Cotton-Barratt, Owen</author>
      <enclosure url="https://media.transistor.fm/2490f3d6/ad004048.mp3" length="64331994" type="audio/mpeg"/>
      <itunes:author>Cotton-Barratt, Owen</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/yA9BAq9PEsw--rQiqXZenTbH9aj3BtUP1mVU_R6LEbY/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9kZmIw/ZTg5N2YyMzkyZWY3/MzJlNjFlZjAzOTY4/ZThiNy53ZWJw.jpg"/>
      <itunes:duration>4020</itunes:duration>
      <itunes:summary>
        <![CDATA[En esta ponencia del 2016, Owen Cotton-Barratt, de la Universidad de Oxford, habla sobre cómo pueden mejorar el mundo los altruistas eficaces. Para ilustrarlo, usa la metáfora de la búsqueda de oro. Owen trata una serie de conceptos clave del altruismo eficaz, como las distribuciones de cola pesada, los rendimientos marginales decrecientes y la ventaja comparativa.]]>
      </itunes:summary>
      <itunes:keywords>coordinación altruista, priorización de causas, marco ITD</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Por qué la alineación de la inteligencia artificial podría ser difícil con las técnicas modernas de aprendizaje profundo</title>
      <itunes:episode>70</itunes:episode>
      <podcast:episode>70</podcast:episode>
      <itunes:title>Por qué la alineación de la inteligencia artificial podría ser difícil con las técnicas modernas de aprendizaje profundo</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">b48c71d4-f7f6-4f9b-b7d6-96a71f591626</guid>
      <link>https://share.transistor.fm/s/ce4565d6</link>
      <description>
        <![CDATA[El problema de la alineación del aprendizaje profundo es el problema de asegurar que los modelos avanzados de aprendizaje profundo no persigan objetivos peligrosos. Este artículo elabora la analogía de la "contratación" para ilustrar cómo la alineación podría ser difícil si los modelos de aprendizaje profundo son más capaces que los humanos. Luego explica con más de detalle técnico en qué consiste el problema de la alineación del aprendizaje profundo. Por último, discute la dificultad del problema de la alineación y el riesgo de no resolverlo.]]>
      </description>
      <content:encoded>
        <![CDATA[El problema de la alineación del aprendizaje profundo es el problema de asegurar que los modelos avanzados de aprendizaje profundo no persigan objetivos peligrosos. Este artículo elabora la analogía de la "contratación" para ilustrar cómo la alineación podría ser difícil si los modelos de aprendizaje profundo son más capaces que los humanos. Luego explica con más de detalle técnico en qué consiste el problema de la alineación del aprendizaje profundo. Por último, discute la dificultad del problema de la alineación y el riesgo de no resolverlo.]]>
      </content:encoded>
      <pubDate>Mon, 06 May 2024 00:00:00 +0000</pubDate>
      <author>Cotra, Ajeya</author>
      <enclosure url="https://media.transistor.fm/ce4565d6/45afca84.mp3" length="38651490" type="audio/mpeg"/>
      <itunes:author>Cotra, Ajeya</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/O7HFdKUb4xDsqLrrUIDaU-67lGFN23-NfDvPDln0lqU/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS80NzQ4/ZjU4ZDNkN2VkMDc1/ZDcxYWUzMTI3YTA3/Y2I1Mi53ZWJw.jpg"/>
      <itunes:duration>2415</itunes:duration>
      <itunes:summary>
        <![CDATA[El problema de la alineación del aprendizaje profundo es el problema de asegurar que los modelos avanzados de aprendizaje profundo no persigan objetivos peligrosos. Este artículo elabora la analogía de la "contratación" para ilustrar cómo la alineación podría ser difícil si los modelos de aprendizaje profundo son más capaces que los humanos. Luego explica con más de detalle técnico en qué consiste el problema de la alineación del aprendizaje profundo. Por último, discute la dificultad del problema de la alineación y el riesgo de no resolverlo.]]>
      </itunes:summary>
      <itunes:keywords>alineación de la inteligencia artificial, aprendizaje profundo</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Filantropía basada en los éxitos</title>
      <itunes:episode>69</itunes:episode>
      <podcast:episode>69</podcast:episode>
      <itunes:title>Filantropía basada en los éxitos</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">96fde329-6e3e-412c-9781-2c9366c76d31</guid>
      <link>https://share.transistor.fm/s/99d16d9e</link>
      <description>
        <![CDATA[Este artículo explica las razones por las cuales la filantropía de alto riesgo y alta recompensa, o filantropía "basada en los éxitos", es un enfoque adecuado en ciertos contextos. Luego enumera varios principios válidos para tomar decisiones, pero inapropiados para la filantropía basada en los éxitos, y algunos principios útiles para poder aprovechar las mejores oportunidades de alto riesgo.]]>
      </description>
      <content:encoded>
        <![CDATA[Este artículo explica las razones por las cuales la filantropía de alto riesgo y alta recompensa, o filantropía "basada en los éxitos", es un enfoque adecuado en ciertos contextos. Luego enumera varios principios válidos para tomar decisiones, pero inapropiados para la filantropía basada en los éxitos, y algunos principios útiles para poder aprovechar las mejores oportunidades de alto riesgo.]]>
      </content:encoded>
      <pubDate>Mon, 29 Apr 2024 00:00:00 +0000</pubDate>
      <author>Karnofsky, Holden</author>
      <enclosure url="https://media.transistor.fm/99d16d9e/65a015fb.mp3" length="40729893" type="audio/mpeg"/>
      <itunes:author>Karnofsky, Holden</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/AbrWDby7yaSUVI36Jlfnzwtw-u8RXOuQ8JpOccdYres/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS80YWQ2/NjkwYjEwYTQxOTg4/OGI0OGY1M2JlMzBk/MGJjYy53ZWJw.jpg"/>
      <itunes:duration>2545</itunes:duration>
      <itunes:summary>
        <![CDATA[Este artículo explica las razones por las cuales la filantropía de alto riesgo y alta recompensa, o filantropía "basada en los éxitos", es un enfoque adecuado en ciertos contextos. Luego enumera varios principios válidos para tomar decisiones, pero inapropiados para la filantropía basada en los éxitos, y algunos principios útiles para poder aprovechar las mejores oportunidades de alto riesgo.]]>
      </itunes:summary>
      <itunes:keywords>donación eficaz, filantropía basada en los éxitos</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Humildad</title>
      <itunes:episode>68</itunes:episode>
      <podcast:episode>68</podcast:episode>
      <itunes:title>Humildad</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">be285767-32cb-4d30-9d01-3522449ad249</guid>
      <link>https://share.transistor.fm/s/3043b17c</link>
      <description>
        <![CDATA[La verdadera humildad no es un rasgo de la personalidad, sino una comprensión de los hechos. No significa menospreciarse o pensar que uno tiene poco valor, sino simplemente ser consciente y aceptar la verdad sobre uno mismo: darse cuenta de que uno no necesita ser nada más ni nada menos de lo que es.]]>
      </description>
      <content:encoded>
        <![CDATA[La verdadera humildad no es un rasgo de la personalidad, sino una comprensión de los hechos. No significa menospreciarse o pensar que uno tiene poco valor, sino simplemente ser consciente y aceptar la verdad sobre uno mismo: darse cuenta de que uno no necesita ser nada más ni nada menos de lo que es.]]>
      </content:encoded>
      <pubDate>Mon, 22 Apr 2024 00:00:00 +0000</pubDate>
      <author>Elmore, Holly</author>
      <enclosure url="https://media.transistor.fm/3043b17c/4cc63960.mp3" length="5979445" type="audio/mpeg"/>
      <itunes:author>Elmore, Holly</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/FcnimPYJmGj0WpVYsyIcv-QytV9zuYhjkaVR70uJlCQ/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS83Y2Y2/OTRjZDZhNjk1ZWU0/YzlmM2I3NDAxMjQx/YjJmZC53ZWJw.jpg"/>
      <itunes:duration>298</itunes:duration>
      <itunes:summary>
        <![CDATA[La verdadera humildad no es un rasgo de la personalidad, sino una comprensión de los hechos. No significa menospreciarse o pensar que uno tiene poco valor, sino simplemente ser consciente y aceptar la verdad sobre uno mismo: darse cuenta de que uno no necesita ser nada más ni nada menos de lo que es.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Investigación técnica en seguridad de la IA</title>
      <itunes:episode>67</itunes:episode>
      <podcast:episode>67</podcast:episode>
      <itunes:title>Investigación técnica en seguridad de la IA</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">493ba28a-9334-4da6-988f-f4df3dac1f33</guid>
      <link>https://share.transistor.fm/s/98581bff</link>
      <description>
        <![CDATA[La inteligencia artificial (IA) tendrá efectos transformadores para la sociedad en las próximas décadas y podría aportar enormes beneficios. Pero consideramos también que existe un riesgo considerable. Una forma prometedora de reducir las probabilidades de una catástrofe relacionada con la IA es encontrar soluciones técnicas que nos permitan evitar que los sistemas de IA se comporten de forma peligrosa.]]>
      </description>
      <content:encoded>
        <![CDATA[La inteligencia artificial (IA) tendrá efectos transformadores para la sociedad en las próximas décadas y podría aportar enormes beneficios. Pero consideramos también que existe un riesgo considerable. Una forma prometedora de reducir las probabilidades de una catástrofe relacionada con la IA es encontrar soluciones técnicas que nos permitan evitar que los sistemas de IA se comporten de forma peligrosa.]]>
      </content:encoded>
      <pubDate>Mon, 15 Apr 2024 00:00:00 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/98581bff/b9097a89.mp3" length="72058453" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/DD1Pb6elwZQHBXIxEFoyeWi8dcHkIcazaBtNrpVttsg/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9lM2Mz/M2Q5ZDRlYWZhYTJl/OWUxOGJlZmNhODFi/ODdmZS53ZWJw.jpg"/>
      <itunes:duration>4503</itunes:duration>
      <itunes:summary>
        <![CDATA[La inteligencia artificial (IA) tendrá efectos transformadores para la sociedad en las próximas décadas y podría aportar enormes beneficios. Pero consideramos también que existe un riesgo considerable. Una forma prometedora de reducir las probabilidades de una catástrofe relacionada con la IA es encontrar soluciones técnicas que nos permitan evitar que los sistemas de IA se comporten de forma peligrosa.]]>
      </itunes:summary>
      <itunes:keywords>seguridad de la inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Largoplacismo: un llamamiento a proteger a las generaciones futuras</title>
      <itunes:episode>66</itunes:episode>
      <podcast:episode>66</podcast:episode>
      <itunes:title>Largoplacismo: un llamamiento a proteger a las generaciones futuras</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">3dc135a9-2148-4191-9d88-b3b6d407e1b2</guid>
      <link>https://share.transistor.fm/s/7068bd40</link>
      <description>
        <![CDATA[Este artículo expone los argumentos a favor del punto de vista que recibe el nombre de "largoplacismo". También expone dónde el argumento parece más sólido y más débil, responde a objeciones frecuentes y explica lo que todo esto significa para lo que deberíamos hacer.]]>
      </description>
      <content:encoded>
        <![CDATA[Este artículo expone los argumentos a favor del punto de vista que recibe el nombre de "largoplacismo". También expone dónde el argumento parece más sólido y más débil, responde a objeciones frecuentes y explica lo que todo esto significa para lo que deberíamos hacer.]]>
      </content:encoded>
      <pubDate>Mon, 08 Apr 2024 00:00:00 +0000</pubDate>
      <author>Fenwick, Cody</author>
      <enclosure url="https://media.transistor.fm/7068bd40/174089c0.mp3" length="88234697" type="audio/mpeg"/>
      <itunes:author>Fenwick, Cody</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/VgBc6lCV1UWyv2CgOTtNXX1EOmsmXe6hqfOCmsM6es0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8zNTA1/MGUyNTYyZGQzZmQy/ZjJiZjY3N2U3N2Mz/NWZjYy53ZWJw.jpg"/>
      <itunes:duration>5514</itunes:duration>
      <itunes:summary>
        <![CDATA[Este artículo expone los argumentos a favor del punto de vista que recibe el nombre de "largoplacismo". También expone dónde el argumento parece más sólido y más débil, responde a objeciones frecuentes y explica lo que todo esto significa para lo que deberíamos hacer.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo, extinción humana, cambios de trayectoria, investigación sobre prioridades globales, descuento temporal, incertidumbre radical</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>El largoplacismo: una introducción</title>
      <itunes:episode>65</itunes:episode>
      <podcast:episode>65</podcast:episode>
      <itunes:title>El largoplacismo: una introducción</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">35d4c795-84b0-47c4-85c6-08ed7d063916</guid>
      <link>https://share.transistor.fm/s/c4c19b6e</link>
      <description>
        <![CDATA[El largoplacismo es la idea de que influir positivamente en el futuro a largo plazo es una prioridad moral clave de nuestro tiempo. El objetivo de este artículo es explicar en qué consiste esta postura, por qué podría ser importante y cuáles son algunas objeciones posibles.]]>
      </description>
      <content:encoded>
        <![CDATA[El largoplacismo es la idea de que influir positivamente en el futuro a largo plazo es una prioridad moral clave de nuestro tiempo. El objetivo de este artículo es explicar en qué consiste esta postura, por qué podría ser importante y cuáles son algunas objeciones posibles.]]>
      </content:encoded>
      <pubDate>Mon, 01 Apr 2024 00:00:00 +0000</pubDate>
      <author>Moorhouse, Fin</author>
      <enclosure url="https://media.transistor.fm/c4c19b6e/df94418b.mp3" length="52764610" type="audio/mpeg"/>
      <itunes:author>Moorhouse, Fin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/gIMrKg-iGQgKxfr0drZHF9DKPavP0ARFEYoXnBMmKXM/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mYTJm/OWY5ZDIyMzJiZTlj/NmVlYzY5OTMxYmE3/MmUwMC53ZWJw.jpg"/>
      <itunes:duration>3297</itunes:duration>
      <itunes:summary>
        <![CDATA[El largoplacismo es la idea de que influir positivamente en el futuro a largo plazo es una prioridad moral clave de nuestro tiempo. El objetivo de este artículo es explicar en qué consiste esta postura, por qué podría ser importante y cuáles son algunas objeciones posibles.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo, descuento temporal, futuro a largo plazo, bisagra de la historia, perspectivas centradas en las personas afectadas, ética de la población, aversión al riesgo</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>La costo-eficacia de la beneficencia en un mundo incierto</title>
      <itunes:episode>64</itunes:episode>
      <podcast:episode>64</podcast:episode>
      <itunes:title>La costo-eficacia de la beneficencia en un mundo incierto</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">dff1499b-3eba-4b70-852c-d69eb6bd9618</guid>
      <link>https://share.transistor.fm/s/4e8866dd</link>
      <description>
        <![CDATA[Es muy difícil evaluar la eficacia de nuestras acciones o incluso determinar si son positivas o negativas según nuestros propios valores. Un posible enfoque es centrarse en métricas claras y cuantificables, y asumir que las consideraciones indirectas y más generales se resuelven por sí solas. Otra forma de lidiar con la incertidumbre es centrarse en acciones que parecen tener efectos generalmente positivos en muchos escenarios. A menudo este enfoque equivale a actividades de metanivel como incentivar instituciones de suma positiva, la investigación filosófica y el altruismo eficaz en general. Cuando consideramos los efectos indirectos de largo alcance que pueden tener nuestras acciones, las presuntamente enormes diferencias de costo-eficacia que separan a las organizaciones quedan reducidas a diferencias más modestas, y comenzamos a encontrar más valor en la diversidad de actividades que se llevan a cabo. Quienes tienen valores anormales puede que desconfíen de enfoques que "promueven la sabiduría" para forjar el futuro. Sin embargo, parece razonable pensar que, en definitiva, todos los sistemas de valores se beneficiarían en términos esperados de una población futura más cooperativa y reflexiva.]]>
      </description>
      <content:encoded>
        <![CDATA[Es muy difícil evaluar la eficacia de nuestras acciones o incluso determinar si son positivas o negativas según nuestros propios valores. Un posible enfoque es centrarse en métricas claras y cuantificables, y asumir que las consideraciones indirectas y más generales se resuelven por sí solas. Otra forma de lidiar con la incertidumbre es centrarse en acciones que parecen tener efectos generalmente positivos en muchos escenarios. A menudo este enfoque equivale a actividades de metanivel como incentivar instituciones de suma positiva, la investigación filosófica y el altruismo eficaz en general. Cuando consideramos los efectos indirectos de largo alcance que pueden tener nuestras acciones, las presuntamente enormes diferencias de costo-eficacia que separan a las organizaciones quedan reducidas a diferencias más modestas, y comenzamos a encontrar más valor en la diversidad de actividades que se llevan a cabo. Quienes tienen valores anormales puede que desconfíen de enfoques que "promueven la sabiduría" para forjar el futuro. Sin embargo, parece razonable pensar que, en definitiva, todos los sistemas de valores se beneficiarían en términos esperados de una población futura más cooperativa y reflexiva.]]>
      </content:encoded>
      <pubDate>Mon, 25 Mar 2024 00:00:00 +0000</pubDate>
      <author>Tomasik, Brian</author>
      <enclosure url="https://media.transistor.fm/4e8866dd/dffb5835.mp3" length="56784568" type="audio/mpeg"/>
      <itunes:author>Tomasik, Brian</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/HB5ivzUcThItgr8kaxLRaAezn48S3K8caQxV39Z4wfI/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8zZjg3/Y2YzYjc1NWY3YThk/OTRhY2NiOWM2OTRi/OTU2NS53ZWJw.jpg"/>
      <itunes:duration>3548</itunes:duration>
      <itunes:summary>
        <![CDATA[Es muy difícil evaluar la eficacia de nuestras acciones o incluso determinar si son positivas o negativas según nuestros propios valores. Un posible enfoque es centrarse en métricas claras y cuantificables, y asumir que las consideraciones indirectas y más generales se resuelven por sí solas. Otra forma de lidiar con la incertidumbre es centrarse en acciones que parecen tener efectos generalmente positivos en muchos escenarios. A menudo este enfoque equivale a actividades de metanivel como incentivar instituciones de suma positiva, la investigación filosófica y el altruismo eficaz en general. Cuando consideramos los efectos indirectos de largo alcance que pueden tener nuestras acciones, las presuntamente enormes diferencias de costo-eficacia que separan a las organizaciones quedan reducidas a diferencias más modestas, y comenzamos a encontrar más valor en la diversidad de actividades que se llevan a cabo. Quienes tienen valores anormales puede que desconfíen de enfoques que "promueven la sabiduría" para forjar el futuro. Sin embargo, parece razonable pensar que, en definitiva, todos los sistemas de valores se beneficiarían en términos esperados de una población futura más cooperativa y reflexiva.]]>
      </itunes:summary>
      <itunes:keywords>costo-eficacia, incertidumbre radical, efectos indirectos a largo plazo, cooperación moral</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>La moneda de los niños muertos</title>
      <itunes:episode>63</itunes:episode>
      <podcast:episode>63</podcast:episode>
      <itunes:title>La moneda de los niños muertos</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">e41d9d88-0767-4c18-bbf9-71b9400c7952</guid>
      <link>https://share.transistor.fm/s/b1a3e396</link>
      <description>
        <![CDATA[Si reemplazáramos nuestras divisas por una moneda de niños muertos y otras denominaciones que creen conciencia de los costos de oportunidad, probablemente las personas tendrían en cuenta las implicaciones de sus decisiones de consumo y otras formas de gastar su dinero.]]>
      </description>
      <content:encoded>
        <![CDATA[Si reemplazáramos nuestras divisas por una moneda de niños muertos y otras denominaciones que creen conciencia de los costos de oportunidad, probablemente las personas tendrían en cuenta las implicaciones de sus decisiones de consumo y otras formas de gastar su dinero.]]>
      </content:encoded>
      <pubDate>Mon, 18 Mar 2024 00:00:00 +0000</pubDate>
      <author>Alexander, Scott</author>
      <enclosure url="https://media.transistor.fm/b1a3e396/40ba0cca.mp3" length="7061387" type="audio/mpeg"/>
      <itunes:author>Alexander, Scott</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/fJ0NGUjbRk9D3wL5YOTrGiFjwmDtfRgCHjHrD1yIZrg/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8zMDBi/YmU2NDI2OWUyODll/NTFkNjJjMjE2ODAx/ZmJjMS53ZWJw.jpg"/>
      <itunes:duration>353</itunes:duration>
      <itunes:summary>
        <![CDATA[Si reemplazáramos nuestras divisas por una moneda de niños muertos y otras denominaciones que creen conciencia de los costos de oportunidad, probablemente las personas tendrían en cuenta las implicaciones de sus decisiones de consumo y otras formas de gastar su dinero.]]>
      </itunes:summary>
      <itunes:keywords>ética del consumo personal, exigencias de la moral</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>La estimación es lo mejor que tenemos</title>
      <itunes:episode>62</itunes:episode>
      <podcast:episode>62</podcast:episode>
      <itunes:title>La estimación es lo mejor que tenemos</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">a91da42b-6d55-4fd7-8c4a-29ef2783c6ce</guid>
      <link>https://share.transistor.fm/s/8a26837a</link>
      <description>
        <![CDATA[Algunas críticas rechazan por completo los métodos estimativos cuando se aplican a situaciones en las que es difícil determinar con exactitud el valor de las variables involucradas. Pero dada la urgencia de ciertos objetivos altruistas, y a falta de otras estrategias mejores, parece que lo más razonable es seguir manteniendo este tipo de evaluaciones cuantitativas.]]>
      </description>
      <content:encoded>
        <![CDATA[Algunas críticas rechazan por completo los métodos estimativos cuando se aplican a situaciones en las que es difícil determinar con exactitud el valor de las variables involucradas. Pero dada la urgencia de ciertos objetivos altruistas, y a falta de otras estrategias mejores, parece que lo más razonable es seguir manteniendo este tipo de evaluaciones cuantitativas.]]>
      </content:encoded>
      <pubDate>Mon, 11 Mar 2024 00:00:00 +0000</pubDate>
      <author>Grace, Katja</author>
      <enclosure url="https://media.transistor.fm/8a26837a/14cdc42a.mp3" length="3375713" type="audio/mpeg"/>
      <itunes:author>Grace, Katja</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/OY-89dxPkthnh1e1rzwdCP8V0zKdv7R0h4BUPa7eeds/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS82YWNm/MGYzMTg0Yjc0OTlj/YTlkMDhmMTRkYTgw/NGMyZi53ZWJw.jpg"/>
      <itunes:duration>210</itunes:duration>
      <itunes:summary>
        <![CDATA[Algunas críticas rechazan por completo los métodos estimativos cuando se aplican a situaciones en las que es difícil determinar con exactitud el valor de las variables involucradas. Pero dada la urgencia de ciertos objetivos altruistas, y a falta de otras estrategias mejores, parece que lo más razonable es seguir manteniendo este tipo de evaluaciones cuantitativas.]]>
      </itunes:summary>
      <itunes:keywords>estimación de Fermi</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Cuidado con las convergencias sorprendentes y sospechosas</title>
      <itunes:episode>61</itunes:episode>
      <podcast:episode>61</podcast:episode>
      <itunes:title>Cuidado con las convergencias sorprendentes y sospechosas</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">83c90e30-4310-4d6f-9c06-08cc318eaec8</guid>
      <link>https://share.transistor.fm/s/2bca3427</link>
      <description>
        <![CDATA[En general, lo que es mejor para una cosa no suele ser lo mejor para otra. Estadísticamente, es bastante raro que se den las circunstancias necesarias para que un objeto sea lo mejor a la luz de dos consideraciones diferentes. Por ello, los casos de convergencia suelen deberse más bien a un sesgo o cognición motivada. Se trata de un tipo de error bastante extendido, que la comunidad del altruismo eficaz debe tener en cuenta a la hora de determinar sus prioridades.]]>
      </description>
      <content:encoded>
        <![CDATA[En general, lo que es mejor para una cosa no suele ser lo mejor para otra. Estadísticamente, es bastante raro que se den las circunstancias necesarias para que un objeto sea lo mejor a la luz de dos consideraciones diferentes. Por ello, los casos de convergencia suelen deberse más bien a un sesgo o cognición motivada. Se trata de un tipo de error bastante extendido, que la comunidad del altruismo eficaz debe tener en cuenta a la hora de determinar sus prioridades.]]>
      </content:encoded>
      <pubDate>Mon, 04 Mar 2024 00:00:00 +0000</pubDate>
      <author>Lewis, Gregory</author>
      <enclosure url="https://media.transistor.fm/2bca3427/6cc6d058.mp3" length="42116774" type="audio/mpeg"/>
      <itunes:author>Lewis, Gregory</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/_6xFvJnFc8W6fJadskPJdvJbJ4Yg-9ErzB4pqjb2mXQ/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS83MjNj/MzExNTQxNWI1NTky/NGRmYjllNTQ3Y2Iz/Y2Y4Zi53ZWJw.jpg"/>
      <itunes:duration>2105</itunes:duration>
      <itunes:summary>
        <![CDATA[En general, lo que es mejor para una cosa no suele ser lo mejor para otra. Estadísticamente, es bastante raro que se den las circunstancias necesarias para que un objeto sea lo mejor a la luz de dos consideraciones diferentes. Por ello, los casos de convergencia suelen deberse más bien a un sesgo o cognición motivada. Se trata de un tipo de error bastante extendido, que la comunidad del altruismo eficaz debe tener en cuenta a la hora de determinar sus prioridades.]]>
      </itunes:summary>
      <itunes:keywords>priorización de causas</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Defensa del largoplacismo</title>
      <itunes:episode>60</itunes:episode>
      <podcast:episode>60</podcast:episode>
      <itunes:title>Defensa del largoplacismo</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">343b3f54-d99d-4282-9b11-927305924f79</guid>
      <link>https://share.transistor.fm/s/0be6d449</link>
      <description>
        <![CDATA[La premisa del largoplacismo es que las personas futuras importan porque existirán y tendrán experiencias vitales, aunque todavía no existan. A pesar de no tener poder político, las personas futuras merecen consideración y esfuerzos encaminados a mejorar sus vidas. El futuro es vasto y puede abarcar muchas vidas y generaciones. Es importante considerar el impacto de las acciones actuales sobre el futuro, ya que nuestras decisiones pueden tener consecuencias a largo plazo. Reconociendo el valor del futuro, podemos esforzarnos por crear un mundo mejor para quienes lo heredarán.]]>
      </description>
      <content:encoded>
        <![CDATA[La premisa del largoplacismo es que las personas futuras importan porque existirán y tendrán experiencias vitales, aunque todavía no existan. A pesar de no tener poder político, las personas futuras merecen consideración y esfuerzos encaminados a mejorar sus vidas. El futuro es vasto y puede abarcar muchas vidas y generaciones. Es importante considerar el impacto de las acciones actuales sobre el futuro, ya que nuestras decisiones pueden tener consecuencias a largo plazo. Reconociendo el valor del futuro, podemos esforzarnos por crear un mundo mejor para quienes lo heredarán.]]>
      </content:encoded>
      <pubDate>Mon, 26 Feb 2024 00:00:00 +0000</pubDate>
      <author>MacAskill, William</author>
      <enclosure url="https://media.transistor.fm/0be6d449/28f9e6b5.mp3" length="3442974" type="audio/mpeg"/>
      <itunes:author>MacAskill, William</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/G06wnwZJQv2XKSrY_4Ht0r6oWAZLga_8Opmr5Nwtn48/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS83YWE4/YmM3OGY5NGE1Mjkx/MmU5Y2Y4NjAwY2My/ZGI4Yi53ZWJw.jpg"/>
      <itunes:duration>214</itunes:duration>
      <itunes:summary>
        <![CDATA[La premisa del largoplacismo es que las personas futuras importan porque existirán y tendrán experiencias vitales, aunque todavía no existan. A pesar de no tener poder político, las personas futuras merecen consideración y esfuerzos encaminados a mejorar sus vidas. El futuro es vasto y puede abarcar muchas vidas y generaciones. Es importante considerar el impacto de las acciones actuales sobre el futuro, ya que nuestras decisiones pueden tener consecuencias a largo plazo. Reconociendo el valor del futuro, podemos esforzarnos por crear un mundo mejor para quienes lo heredarán.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Introducción al altruismo eficaz</title>
      <itunes:episode>59</itunes:episode>
      <podcast:episode>59</podcast:episode>
      <itunes:title>Introducción al altruismo eficaz</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">9e517d82-a59a-41e5-bdb9-58b610bdd64f</guid>
      <link>https://share.transistor.fm/s/577d50e1</link>
      <description>
        <![CDATA[La mayoría de nosotros queremos dejar huella en el mundo, hacer algo ante el sufrimiento, la injusticia y la muerte de los cuales somos testigos. Pero averiguar qué es ese "algo" y, sobre todo, hacerlo realmente, puede ser un desafío difícil y desalentador. El altruismo eficaz surge como respuesta a este desafío.]]>
      </description>
      <content:encoded>
        <![CDATA[La mayoría de nosotros queremos dejar huella en el mundo, hacer algo ante el sufrimiento, la injusticia y la muerte de los cuales somos testigos. Pero averiguar qué es ese "algo" y, sobre todo, hacerlo realmente, puede ser un desafío difícil y desalentador. El altruismo eficaz surge como respuesta a este desafío.]]>
      </content:encoded>
      <pubDate>Mon, 19 Feb 2024 00:00:00 +0000</pubDate>
      <author>Centre for Effective Altruism</author>
      <enclosure url="https://media.transistor.fm/577d50e1/e097a63c.mp3" length="30212749" type="audio/mpeg"/>
      <itunes:author>Centre for Effective Altruism</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/P7WPZU1eCt-cQoMHJFs0QiuTBjeQSghawcHI8kqtOUc/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mYTk4/ODBiNzM4MWE4YzMy/MzY0ZTk2Y2U5NTE4/M2Q2Ny53ZWJw.jpg"/>
      <itunes:duration>1510</itunes:duration>
      <itunes:summary>
        <![CDATA[La mayoría de nosotros queremos dejar huella en el mundo, hacer algo ante el sufrimiento, la injusticia y la muerte de los cuales somos testigos. Pero averiguar qué es ese "algo" y, sobre todo, hacerlo realmente, puede ser un desafío difícil y desalentador. El altruismo eficaz surge como respuesta a este desafío.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Tienes más de un objetivo, y está bien que así sea</title>
      <itunes:episode>58</itunes:episode>
      <podcast:episode>58</podcast:episode>
      <itunes:title>Tienes más de un objetivo, y está bien que así sea</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">ec3371cf-2d33-4ab6-9be8-d97cea22d2dd</guid>
      <link>https://share.transistor.fm/s/c7ddd571</link>
      <description>
        <![CDATA[El análisis de costo-eficacia es una herramienta muy útil para mejorar el mundo de la forma más eficaz posible, pero no es de gran ayuda cuando se trata de alcanzar otros objetivos personales ni se puede aplicar a todos los aspectos de la vida.]]>
      </description>
      <content:encoded>
        <![CDATA[El análisis de costo-eficacia es una herramienta muy útil para mejorar el mundo de la forma más eficaz posible, pero no es de gran ayuda cuando se trata de alcanzar otros objetivos personales ni se puede aplicar a todos los aspectos de la vida.]]>
      </content:encoded>
      <pubDate>Mon, 12 Feb 2024 00:00:00 +0000</pubDate>
      <author>Wise, Julia</author>
      <enclosure url="https://media.transistor.fm/c7ddd571/09642982.mp3" length="3958714" type="audio/mpeg"/>
      <itunes:author>Wise, Julia</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/CShlJCI1RM491X8nqWiZgfQFFfiRXxS1kugMIyaNKNI/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS83ZWIw/Y2VjYWQxMTRhNTFl/OTQyZDY1NDJhMmM0/MzJhNS53ZWJw.jpg"/>
      <itunes:duration>247</itunes:duration>
      <itunes:summary>
        <![CDATA[El análisis de costo-eficacia es una herramienta muy útil para mejorar el mundo de la forma más eficaz posible, pero no es de gran ayuda cuando se trata de alcanzar otros objetivos personales ni se puede aplicar a todos los aspectos de la vida.]]>
      </itunes:summary>
      <itunes:keywords>análisis de costo-eficacia, exigencias de la moral</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Mis impresiones sobre la elección de carrera profesional para los largoplacistas</title>
      <itunes:episode>57</itunes:episode>
      <podcast:episode>57</podcast:episode>
      <itunes:title>Mis impresiones sobre la elección de carrera profesional para los largoplacistas</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">a050c249-78b4-4c95-8d2b-283584521f29</guid>
      <link>https://share.transistor.fm/s/954fc109</link>
      <description>
        <![CDATA[Este artículo ofrece una perspectiva alternativa sobre la elección de carreras profesionales para los largoplacistas. Aunque los trabajos enumerados se solapan en gran medida con los de 80 000 Horas, la organización y la conceptualización son diferentes. Mientras que 80 000 Horas tiende a poner el énfasis en los “caminos” para alcanzar un determinado puesto de trabajo en una causa determinada, aquí se hace hincapié en las “aptitudes” que uno puede desarrollar en una amplia gama de puestos y causas (incluidas las organizaciones que no son parte de la comunidad del altruismo eficaz) y luego aplicar a una gran variedad de trabajos relevantes para el largoplacismo.]]>
      </description>
      <content:encoded>
        <![CDATA[Este artículo ofrece una perspectiva alternativa sobre la elección de carreras profesionales para los largoplacistas. Aunque los trabajos enumerados se solapan en gran medida con los de 80 000 Horas, la organización y la conceptualización son diferentes. Mientras que 80 000 Horas tiende a poner el énfasis en los “caminos” para alcanzar un determinado puesto de trabajo en una causa determinada, aquí se hace hincapié en las “aptitudes” que uno puede desarrollar en una amplia gama de puestos y causas (incluidas las organizaciones que no son parte de la comunidad del altruismo eficaz) y luego aplicar a una gran variedad de trabajos relevantes para el largoplacismo.]]>
      </content:encoded>
      <pubDate>Mon, 05 Feb 2024 00:00:00 +0000</pubDate>
      <author>Karnofsky, Holden</author>
      <enclosure url="https://media.transistor.fm/954fc109/fb9ce781.mp3" length="63850188" type="audio/mpeg"/>
      <itunes:author>Karnofsky, Holden</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/hdvgOKou2333aQeekcG9p_vNJ45gm9rpb5SCn976HTs/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8wOWJk/ZTFiNjNmZDQ4MzEy/OTBiOWM0ODI1OTVi/NzQxOS53ZWJw.jpg"/>
      <itunes:duration>3990</itunes:duration>
      <itunes:summary>
        <![CDATA[Este artículo ofrece una perspectiva alternativa sobre la elección de carreras profesionales para los largoplacistas. Aunque los trabajos enumerados se solapan en gran medida con los de 80 000 Horas, la organización y la conceptualización son diferentes. Mientras que 80 000 Horas tiende a poner el énfasis en los “caminos” para alcanzar un determinado puesto de trabajo en una causa determinada, aquí se hace hincapié en las “aptitudes” que uno puede desarrollar en una amplia gama de puestos y causas (incluidas las organizaciones que no son parte de la comunidad del altruismo eficaz) y luego aplicar a una gran variedad de trabajos relevantes para el largoplacismo.]]>
      </itunes:summary>
      <itunes:keywords>elección de carrera profesional, desarrollo del altruismo eficaz, largoplacismo, ingeniería de software, seguridad de la información</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Resumen: ¿qué hace que una carrera profesional tenga un gran impacto?</title>
      <itunes:episode>56</itunes:episode>
      <podcast:episode>56</podcast:episode>
      <itunes:title>Resumen: ¿qué hace que una carrera profesional tenga un gran impacto?</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">50dac2da-0c26-4955-a019-352a988aafb5</guid>
      <link>https://share.transistor.fm/s/048424e6</link>
      <description>
        <![CDATA[Este resumen enumera algunas propuestas y etapas útiles para desarrollar una carrera profesional que pueda abordar los problemas más acuciantes del mundo.]]>
      </description>
      <content:encoded>
        <![CDATA[Este resumen enumera algunas propuestas y etapas útiles para desarrollar una carrera profesional que pueda abordar los problemas más acuciantes del mundo.]]>
      </content:encoded>
      <pubDate>Mon, 29 Jan 2024 00:00:00 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/048424e6/7b2e9441.mp3" length="7403971" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/aR-aEzUnCsqb1SfFAXmBviVDtWXa3uQW_1ZaZ_2KqtA/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS85NzRj/NDk0OWZkZGZhNjY3/ZDM0ODUzNjIyNDlj/NmEyMS53ZWJw.jpg"/>
      <itunes:duration>462</itunes:duration>
      <itunes:summary>
        <![CDATA[Este resumen enumera algunas propuestas y etapas útiles para desarrollar una carrera profesional que pueda abordar los problemas más acuciantes del mundo.]]>
      </itunes:summary>
      <itunes:keywords>elección de carrera profesional</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>El altruismo eficaz como la causa más apasionante del mundo</title>
      <itunes:episode>55</itunes:episode>
      <podcast:episode>55</podcast:episode>
      <itunes:title>El altruismo eficaz como la causa más apasionante del mundo</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">eb095920-3d4e-494e-ac62-3ce2f222f1cc</guid>
      <link>https://share.transistor.fm/s/38ceefe0</link>
      <description>
        <![CDATA[Aunque los problemas del mundo sean enormes y estructurales, el altruismo eficaz demuestra que los individuos pueden ayudar a mitigarlos, ya sea donando parte de sus ingresos o siguiendo carreras profesionales de alto impacto. Además, cuenta con una comunidad internacional formada por personas inteligentes, motivadas y solidarias. Estas características únicas son un fuerte argumento para pensar que constituye la causa más apasionante del mundo.]]>
      </description>
      <content:encoded>
        <![CDATA[Aunque los problemas del mundo sean enormes y estructurales, el altruismo eficaz demuestra que los individuos pueden ayudar a mitigarlos, ya sea donando parte de sus ingresos o siguiendo carreras profesionales de alto impacto. Además, cuenta con una comunidad internacional formada por personas inteligentes, motivadas y solidarias. Estas características únicas son un fuerte argumento para pensar que constituye la causa más apasionante del mundo.]]>
      </content:encoded>
      <pubDate>Mon, 22 Jan 2024 00:00:00 +0000</pubDate>
      <author>Sotala, Kaj</author>
      <enclosure url="https://media.transistor.fm/38ceefe0/d8e55c03.mp3" length="4385040" type="audio/mpeg"/>
      <itunes:author>Sotala, Kaj</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/2beTfyA5KtU9hM969e4RW1BOUEWtgZHc38famb2CqDM/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8zYmQ1/NTA5NDNjMDhjNDBj/MGQ5YTM0MGEwZmMx/ZWM0Zi53ZWJw.jpg"/>
      <itunes:duration>273</itunes:duration>
      <itunes:summary>
        <![CDATA[Aunque los problemas del mundo sean enormes y estructurales, el altruismo eficaz demuestra que los individuos pueden ayudar a mitigarlos, ya sea donando parte de sus ingresos o siguiendo carreras profesionales de alto impacto. Además, cuenta con una comunidad internacional formada por personas inteligentes, motivadas y solidarias. Estas características únicas son un fuerte argumento para pensar que constituye la causa más apasionante del mundo.]]>
      </itunes:summary>
      <itunes:keywords>desarrollo del altruismo eficaz, altruismo obligatorio y altruismo entusiasta</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Llamamiento a la vigilancia</title>
      <itunes:episode>54</itunes:episode>
      <podcast:episode>54</podcast:episode>
      <itunes:title>Llamamiento a la vigilancia</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">676d2a6c-0dd2-40b6-a5b9-f82c59ff9e23</guid>
      <link>https://share.transistor.fm/s/fad90eba</link>
      <description>
        <![CDATA[Esta es la última entrada de la serie “el siglo más importante”. Cuando se trata de llamar la atención sobre un problema poco valorado, lo normal es terminar con un “llamamiento a la acción”: una acción tangible y concreta que los lectores puedan llevar a cabo para contribuir. Pero en este caso hay muchas cuestiones sin resolver sobre cuáles son las acciones útiles y cuáles las perjudiciales. Así que, en lugar de un llamamiento a la acción, se hace un llamamiento a la vigilancia: emprende hoy las acciones claramente buenas que estén a tu alcance y, si no, ponte en mejores condiciones para emprender acciones importantes cuando llegue el momento.]]>
      </description>
      <content:encoded>
        <![CDATA[Esta es la última entrada de la serie “el siglo más importante”. Cuando se trata de llamar la atención sobre un problema poco valorado, lo normal es terminar con un “llamamiento a la acción”: una acción tangible y concreta que los lectores puedan llevar a cabo para contribuir. Pero en este caso hay muchas cuestiones sin resolver sobre cuáles son las acciones útiles y cuáles las perjudiciales. Así que, en lugar de un llamamiento a la acción, se hace un llamamiento a la vigilancia: emprende hoy las acciones claramente buenas que estén a tu alcance y, si no, ponte en mejores condiciones para emprender acciones importantes cuando llegue el momento.]]>
      </content:encoded>
      <pubDate>Mon, 15 Jan 2024 00:00:00 +0000</pubDate>
      <author>Karnofsky, Holden</author>
      <enclosure url="https://media.transistor.fm/fad90eba/6c73badb.mp3" length="10011944" type="audio/mpeg"/>
      <itunes:author>Karnofsky, Holden</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/-twoG8kCPItAvdliTJzoXc2G-yLpbvnavSAINI0tu8s/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS85YjA2/NmE2Y2JjZDIxNzM0/MjQ4YzhmMjI3ZWQw/YzVhYy53ZWJw.jpg"/>
      <itunes:duration>500</itunes:duration>
      <itunes:summary>
        <![CDATA[Esta es la última entrada de la serie “el siglo más importante”. Cuando se trata de llamar la atención sobre un problema poco valorado, lo normal es terminar con un “llamamiento a la acción”: una acción tangible y concreta que los lectores puedan llevar a cabo para contribuir. Pero en este caso hay muchas cuestiones sin resolver sobre cuáles son las acciones útiles y cuáles las perjudiciales. Así que, en lugar de un llamamiento a la acción, se hace un llamamiento a la vigilancia: emprende hoy las acciones claramente buenas que estén a tu alcance y, si no, ponte en mejores condiciones para emprender acciones importantes cuando llegue el momento.]]>
      </itunes:summary>
      <itunes:keywords>bisagra de la historia</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Impresiones independientes</title>
      <itunes:episode>53</itunes:episode>
      <podcast:episode>53</podcast:episode>
      <itunes:title>Impresiones independientes</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">34a27f61-306b-4845-bf46-afe8943443e4</guid>
      <link>https://share.transistor.fm/s/e69e80b8</link>
      <description>
        <![CDATA[Este breve artículo ofrece una descripción clara y concisa de los términos “impresión independiente” y “creencia ajustada”.]]>
      </description>
      <content:encoded>
        <![CDATA[Este breve artículo ofrece una descripción clara y concisa de los términos “impresión independiente” y “creencia ajustada”.]]>
      </content:encoded>
      <pubDate>Mon, 08 Jan 2024 00:00:00 +0000</pubDate>
      <author>Aird, Michael</author>
      <enclosure url="https://media.transistor.fm/e69e80b8/84f5326d.mp3" length="3969223" type="audio/mpeg"/>
      <itunes:author>Aird, Michael</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/WUfnURTVLvnzR3aIs8RMPyC5EM6pe6w6TL-3zpF6A3I/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8zZWQ1/MGRiOWY5MWUxYzgy/MWMwYWU1Y2YwMDVk/Y2Q5Ni53ZWJw.jpg"/>
      <itunes:duration>198</itunes:duration>
      <itunes:summary>
        <![CDATA[Este breve artículo ofrece una descripción clara y concisa de los términos “impresión independiente” y “creencia ajustada”.]]>
      </itunes:summary>
      <itunes:keywords>impresiones independientes, deferencia epistémica</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Notas sobre el altruismo eficaz</title>
      <itunes:episode>52</itunes:episode>
      <podcast:episode>52</podcast:episode>
      <itunes:title>Notas sobre el altruismo eficaz</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">9599a49a-2f07-4111-9579-acd4ec5dc38c</guid>
      <link>https://share.transistor.fm/s/ede8d504</link>
      <description>
        <![CDATA[Estas notas se proponen abordar algunas cuestiones fundamentales sobre la importancia del altruismo eficaz. Profundizan en aspectos como su atractivo y significado, las razones por las que la mentalidad parece tan extraña y algunas reflexiones sobre las posibles alternativas.]]>
      </description>
      <content:encoded>
        <![CDATA[Estas notas se proponen abordar algunas cuestiones fundamentales sobre la importancia del altruismo eficaz. Profundizan en aspectos como su atractivo y significado, las razones por las que la mentalidad parece tan extraña y algunas reflexiones sobre las posibles alternativas.]]>
      </content:encoded>
      <pubDate>Mon, 01 Jan 2024 00:00:00 +0000</pubDate>
      <author>Nielsen, Michael</author>
      <enclosure url="https://media.transistor.fm/ede8d504/e02db10c.mp3" length="71634348" type="audio/mpeg"/>
      <itunes:author>Nielsen, Michael</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/40jaHLxciNmzGOGf4g0zD2efkeAsylABpr9jBDCVkOc/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS82MGI4/ZTQ1NzczMWQ0Mzlh/ZTNkYmUwM2RmZjg4/YTcyMy53ZWJw.jpg"/>
      <itunes:duration>3581</itunes:duration>
      <itunes:summary>
        <![CDATA[Estas notas se proponen abordar algunas cuestiones fundamentales sobre la importancia del altruismo eficaz. Profundizan en aspectos como su atractivo y significado, las razones por las que la mentalidad parece tan extraña y algunas reflexiones sobre las posibles alternativas.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, críticas al altruismo eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>¿Qué es la evidencia?</title>
      <itunes:episode>51</itunes:episode>
      <podcast:episode>51</podcast:episode>
      <itunes:title>¿Qué es la evidencia?</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">0a4d11ea-9564-41ed-9b26-1bd072421d04</guid>
      <link>https://share.transistor.fm/s/a50b4902</link>
      <description>
        <![CDATA[La evidencia es un acontecimiento entrelazado, por vínculos de causa y efecto, con cualquier realidad que se desea conocer. Este entrelazamiento se manifiesta de formas diferentes en función de los distintos estados de cosas posibles, lo cual genera creencias racionales que son en sí mismas evidencia. Las creencias racionales pueden ser compartidas y transmitidas y, de hecho, tienen que poder ser contagiosas entre personas honestas, ya que al estar entrelazadas con la realidad deberían ser capaces de dar lugar a otras creencias similares. Aquellas creencias que no están entrelazadas con la realidad deberían ser abandonadas o modificadas mediante una corrección reflexiva.]]>
      </description>
      <content:encoded>
        <![CDATA[La evidencia es un acontecimiento entrelazado, por vínculos de causa y efecto, con cualquier realidad que se desea conocer. Este entrelazamiento se manifiesta de formas diferentes en función de los distintos estados de cosas posibles, lo cual genera creencias racionales que son en sí mismas evidencia. Las creencias racionales pueden ser compartidas y transmitidas y, de hecho, tienen que poder ser contagiosas entre personas honestas, ya que al estar entrelazadas con la realidad deberían ser capaces de dar lugar a otras creencias similares. Aquellas creencias que no están entrelazadas con la realidad deberían ser abandonadas o modificadas mediante una corrección reflexiva.]]>
      </content:encoded>
      <pubDate>Mon, 25 Dec 2023 00:00:00 +0000</pubDate>
      <author>Yudkowsky, Eliezer</author>
      <enclosure url="https://media.transistor.fm/a50b4902/cf4a6b54.mp3" length="6998918" type="audio/mpeg"/>
      <itunes:author>Yudkowsky, Eliezer</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/mRpyZtAL-z_s1A7CLjBy8_TFfLroJQ3VGycyVmhH4rs/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9hMGI1/MTU0OGZkNTNlZGE0/YWUyNTdlNzkxMmRk/MmRlOC53ZWJw.jpg"/>
      <itunes:duration>437</itunes:duration>
      <itunes:summary>
        <![CDATA[La evidencia es un acontecimiento entrelazado, por vínculos de causa y efecto, con cualquier realidad que se desea conocer. Este entrelazamiento se manifiesta de formas diferentes en función de los distintos estados de cosas posibles, lo cual genera creencias racionales que son en sí mismas evidencia. Las creencias racionales pueden ser compartidas y transmitidas y, de hecho, tienen que poder ser contagiosas entre personas honestas, ya que al estar entrelazadas con la realidad deberían ser capaces de dar lugar a otras creencias similares. Aquellas creencias que no están entrelazadas con la realidad deberían ser abandonadas o modificadas mediante una corrección reflexiva.]]>
      </itunes:summary>
      <itunes:keywords>epistemología</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Obligar a las creencias a pagar el alquiler</title>
      <itunes:episode>50</itunes:episode>
      <podcast:episode>50</podcast:episode>
      <itunes:title>Obligar a las creencias a pagar el alquiler</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">8a2cd2c0-a482-41fb-af7d-0386417967a8</guid>
      <link>https://share.transistor.fm/s/ad4d3572</link>
      <description>
        <![CDATA[Las creencias deben evaluarse en función de su capacidad para generar predicciones sobre experiencias sensoriales.  Si una creencia no predice ni prohíbe ninguna experiencia específica, se convierte en una "creencia flotante", desconectada de la realidad empírica.  Este tipo de creencia, aunque común en el razonamiento humano, no ofrece una guía útil para la toma de decisiones ni para la comprensión del mundo.  La racionalidad, por lo tanto, exige un enfoque empírico:  preguntarse qué experiencias sensoriales se anticipan o se descartan a partir de una creencia.  Esta metodología, centrada en la anticipación de experiencias, permite discernir entre creencias con valor predictivo y meras etiquetas o conjeturas flotantes. Al argumentar sobre una cuestión fáctica, la discrepancia en las anticipaciones sensoriales debe ser el núcleo del debate.  Si no existe tal discrepancia, la discusión probablemente se centra en etiquetas abstractas sin conexión con la realidad observable.]]>
      </description>
      <content:encoded>
        <![CDATA[Las creencias deben evaluarse en función de su capacidad para generar predicciones sobre experiencias sensoriales.  Si una creencia no predice ni prohíbe ninguna experiencia específica, se convierte en una "creencia flotante", desconectada de la realidad empírica.  Este tipo de creencia, aunque común en el razonamiento humano, no ofrece una guía útil para la toma de decisiones ni para la comprensión del mundo.  La racionalidad, por lo tanto, exige un enfoque empírico:  preguntarse qué experiencias sensoriales se anticipan o se descartan a partir de una creencia.  Esta metodología, centrada en la anticipación de experiencias, permite discernir entre creencias con valor predictivo y meras etiquetas o conjeturas flotantes. Al argumentar sobre una cuestión fáctica, la discrepancia en las anticipaciones sensoriales debe ser el núcleo del debate.  Si no existe tal discrepancia, la discusión probablemente se centra en etiquetas abstractas sin conexión con la realidad observable.]]>
      </content:encoded>
      <pubDate>Mon, 18 Dec 2023 00:00:00 +0000</pubDate>
      <author>Yudkowsky, Eliezer</author>
      <enclosure url="https://media.transistor.fm/ad4d3572/abbf39b9.mp3" length="8550840" type="audio/mpeg"/>
      <itunes:author>Yudkowsky, Eliezer</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/1od5HmxQTDaSeppMzSId9jdbV24NJINDd6fLwGqkAm8/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9lNjcz/MjJlZTU4YjU2ZDYz/YWY0YzQ2NGQ0NmNk/MWI0MS53ZWJw.jpg"/>
      <itunes:duration>427</itunes:duration>
      <itunes:summary>
        <![CDATA[Las creencias deben evaluarse en función de su capacidad para generar predicciones sobre experiencias sensoriales.  Si una creencia no predice ni prohíbe ninguna experiencia específica, se convierte en una "creencia flotante", desconectada de la realidad empírica.  Este tipo de creencia, aunque común en el razonamiento humano, no ofrece una guía útil para la toma de decisiones ni para la comprensión del mundo.  La racionalidad, por lo tanto, exige un enfoque empírico:  preguntarse qué experiencias sensoriales se anticipan o se descartan a partir de una creencia.  Esta metodología, centrada en la anticipación de experiencias, permite discernir entre creencias con valor predictivo y meras etiquetas o conjeturas flotantes. Al argumentar sobre una cuestión fáctica, la discrepancia en las anticipaciones sensoriales debe ser el núcleo del debate.  Si no existe tal discrepancia, la discusión probablemente se centra en etiquetas abstractas sin conexión con la realidad observable.]]>
      </itunes:summary>
      <itunes:keywords>epistemología</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Por qué los riesgos S son los peores riesgos existenciales y cómo prevenirlos</title>
      <itunes:episode>49</itunes:episode>
      <podcast:episode>49</podcast:episode>
      <itunes:title>Por qué los riesgos S son los peores riesgos existenciales y cómo prevenirlos</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">44761ad7-61fc-4e63-a35a-030c7eb1c28c</guid>
      <link>https://share.transistor.fm/s/463ed5f9</link>
      <description>
        <![CDATA[Aunque hay varias intervenciones posibles que podrían elegir los altruistas eficaces preocupados por dar forma al futuro lejano, aquellas encaminadas a reducir el riesgo de extinción humana son las que más atención han recibido hasta ahora. En esta charla, Max Daniel explica la importancia de complementar ese trabajo con intervenciones dirigidas a prevenir futuros muy indeseables ("riesgos S"), lo cual proporciona a su vez una razón para centrarse en el riesgo asociado a la inteligencia artificial.]]>
      </description>
      <content:encoded>
        <![CDATA[Aunque hay varias intervenciones posibles que podrían elegir los altruistas eficaces preocupados por dar forma al futuro lejano, aquellas encaminadas a reducir el riesgo de extinción humana son las que más atención han recibido hasta ahora. En esta charla, Max Daniel explica la importancia de complementar ese trabajo con intervenciones dirigidas a prevenir futuros muy indeseables ("riesgos S"), lo cual proporciona a su vez una razón para centrarse en el riesgo asociado a la inteligencia artificial.]]>
      </content:encoded>
      <pubDate>Mon, 11 Dec 2023 00:00:00 +0000</pubDate>
      <author>Daniel, Max</author>
      <enclosure url="https://media.transistor.fm/463ed5f9/d7eb2097.mp3" length="30448569" type="audio/mpeg"/>
      <itunes:author>Daniel, Max</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/lqY1CnYUI_m94hAwiZ5Ltx_Cn9TcrHiHRouzf1MY4oA/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS83MDlk/MTBmNWQ5OWRjNDkz/ZjZmMTg4MWM4MmI2/YWFjNS53ZWJw.jpg"/>
      <itunes:duration>1902</itunes:duration>
      <itunes:summary>
        <![CDATA[Aunque hay varias intervenciones posibles que podrían elegir los altruistas eficaces preocupados por dar forma al futuro lejano, aquellas encaminadas a reducir el riesgo de extinción humana son las que más atención han recibido hasta ahora. En esta charla, Max Daniel explica la importancia de complementar ese trabajo con intervenciones dirigidas a prevenir futuros muy indeseables ("riesgos S"), lo cual proporciona a su vez una razón para centrarse en el riesgo asociado a la inteligencia artificial.]]>
      </itunes:summary>
      <itunes:keywords>riesgo S, riesgo existencial, crimen mental, superinteligencia, sintiencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Prevenir una catástrofe relacionada con la inteligencia artificial</title>
      <itunes:episode>48</itunes:episode>
      <podcast:episode>48</podcast:episode>
      <itunes:title>Prevenir una catástrofe relacionada con la inteligencia artificial</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">a194a0f3-7ffd-4b25-bbe2-658f165b7aa3</guid>
      <link>https://share.transistor.fm/s/fc96da7a</link>
      <description>
        <![CDATA[En las próximas décadas se producirán avances sustanciales en inteligencia artificial, quizá hasta alcanzar el punto de que las máquinas lleguen a superar a los humanos en muchas o en todas las tareas. Esto podría generar enormes beneficios, ayudando a resolver problemas globales actualmente insolubles, pero también graves riesgos. Algunos de estos riesgos asociados a la IA avanzada podrían ser existenciales, es decir, podrían causar la extinción humana o una pérdida de poder igual de permanente y grave para la humanidad. Aún no se ha dado ninguna respuesta satisfactoria a las preocupaciones sobre cómo desarrollar e integrar en nuestra sociedad de forma segura esta tecnología transformadora. Encontrar respuestas a estas preocupaciones es algo muy desatendido, y puede que sea tratable. En consecuencia, la posibilidad de que se produzca una catástrofe relacionada con la IA puede ser el problema más apremiante del mundo y la mejor opción a la que podrían dedicarse quienes están en condiciones de contribuir a resolverlo.]]>
      </description>
      <content:encoded>
        <![CDATA[En las próximas décadas se producirán avances sustanciales en inteligencia artificial, quizá hasta alcanzar el punto de que las máquinas lleguen a superar a los humanos en muchas o en todas las tareas. Esto podría generar enormes beneficios, ayudando a resolver problemas globales actualmente insolubles, pero también graves riesgos. Algunos de estos riesgos asociados a la IA avanzada podrían ser existenciales, es decir, podrían causar la extinción humana o una pérdida de poder igual de permanente y grave para la humanidad. Aún no se ha dado ninguna respuesta satisfactoria a las preocupaciones sobre cómo desarrollar e integrar en nuestra sociedad de forma segura esta tecnología transformadora. Encontrar respuestas a estas preocupaciones es algo muy desatendido, y puede que sea tratable. En consecuencia, la posibilidad de que se produzca una catástrofe relacionada con la IA puede ser el problema más apremiante del mundo y la mejor opción a la que podrían dedicarse quienes están en condiciones de contribuir a resolverlo.]]>
      </content:encoded>
      <pubDate>Mon, 04 Dec 2023 00:00:00 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/fc96da7a/98f19d97.mp3" length="177074009" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/RJjiz_25gIqEXzIPhHTCwomGHOF6XvYbJyQRnY4AQ2M/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mN2Y3/Yjg4NTMyYmVhYTA5/NDI4MTFlZGZlMDI1/MmIxZS53ZWJw.jpg"/>
      <itunes:duration>11066</itunes:duration>
      <itunes:summary>
        <![CDATA[En las próximas décadas se producirán avances sustanciales en inteligencia artificial, quizá hasta alcanzar el punto de que las máquinas lleguen a superar a los humanos en muchas o en todas las tareas. Esto podría generar enormes beneficios, ayudando a resolver problemas globales actualmente insolubles, pero también graves riesgos. Algunos de estos riesgos asociados a la IA avanzada podrían ser existenciales, es decir, podrían causar la extinción humana o una pérdida de poder igual de permanente y grave para la humanidad. Aún no se ha dado ninguna respuesta satisfactoria a las preocupaciones sobre cómo desarrollar e integrar en nuestra sociedad de forma segura esta tecnología transformadora. Encontrar respuestas a estas preocupaciones es algo muy desatendido, y puede que sea tratable. En consecuencia, la posibilidad de que se produzca una catástrofe relacionada con la IA puede ser el problema más apremiante del mundo y la mejor opción a la que podrían dedicarse quienes están en condiciones de contribuir a resolverlo.]]>
      </itunes:summary>
      <itunes:keywords>riesgo asociado a la inteligencia artificial, elección de carrera profesional, alineación de la inteligencia artificial, gobernanza de la inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>El panorama de la gobernanza de la AI largoplacista: una visión general básica</title>
      <itunes:episode>47</itunes:episode>
      <podcast:episode>47</podcast:episode>
      <itunes:title>El panorama de la gobernanza de la AI largoplacista: una visión general básica</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">02e67cef-d055-4513-833c-ef381bcc95ee</guid>
      <link>https://share.transistor.fm/s/11944abc</link>
      <description>
        <![CDATA[Este artículo describe los diversos tipos de trabajo que se están llevando a cabo en la gobernanza de la IA largoplacista. En cada caso se dan ejemplos, se describen algunos escenarios propicios para un impacto positivo y se enumeran los actores que están realizando este tipo de trabajo en la actualidad.]]>
      </description>
      <content:encoded>
        <![CDATA[Este artículo describe los diversos tipos de trabajo que se están llevando a cabo en la gobernanza de la IA largoplacista. En cada caso se dan ejemplos, se describen algunos escenarios propicios para un impacto positivo y se enumeran los actores que están realizando este tipo de trabajo en la actualidad.]]>
      </content:encoded>
      <pubDate>Mon, 27 Nov 2023 00:00:00 +0000</pubDate>
      <author>Clarke, Sam</author>
      <enclosure url="https://media.transistor.fm/11944abc/b79db9e4.mp3" length="28112585" type="audio/mpeg"/>
      <itunes:author>Clarke, Sam</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/P5e70pmGYB-VSveivqzzuHO5HHLe71XsrDu5NBoNFR0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS82YzNm/NTljNDNhZDhiYzBh/NWM1MTUwYzZlMjcz/MjQ2YS53ZWJw.jpg"/>
      <itunes:duration>1756</itunes:duration>
      <itunes:summary>
        <![CDATA[Este artículo describe los diversos tipos de trabajo que se están llevando a cabo en la gobernanza de la IA largoplacista. En cada caso se dan ejemplos, se describen algunos escenarios propicios para un impacto positivo y se enumeran los actores que están realizando este tipo de trabajo en la actualidad.]]>
      </itunes:summary>
      <itunes:keywords>gobernanza de la inteligencia artificial, seguridad de la inteligencia artificial, inteligencia artificial transformadora</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>[Our World in Data] Plazos de la IA: ¿Qué esperan para el futuro los expertos en inteligencia artificial?</title>
      <itunes:episode>46</itunes:episode>
      <podcast:episode>46</podcast:episode>
      <itunes:title>[Our World in Data] Plazos de la IA: ¿Qué esperan para el futuro los expertos en inteligencia artificial?</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">f69f2a85-78eb-4bd5-85bd-3300691d4841</guid>
      <link>https://share.transistor.fm/s/25a95844</link>
      <description>
        <![CDATA[Los pronósticos de los expertos sobre el futuro de la inteligencia artificial dejan ver que a pesar de la incertidumbre en torno a los detalles, hay un gran acuerdo en el panorama general. La mayoría cree que hay una probabilidad considerable de que una inteligencia artificial transformadora se desarrolle durante este siglo. Sin embargo, el discurso público y la toma de decisiones en las principales instituciones no se han puesto al día con estas perspectivas.]]>
      </description>
      <content:encoded>
        <![CDATA[Los pronósticos de los expertos sobre el futuro de la inteligencia artificial dejan ver que a pesar de la incertidumbre en torno a los detalles, hay un gran acuerdo en el panorama general. La mayoría cree que hay una probabilidad considerable de que una inteligencia artificial transformadora se desarrolle durante este siglo. Sin embargo, el discurso público y la toma de decisiones en las principales instituciones no se han puesto al día con estas perspectivas.]]>
      </content:encoded>
      <pubDate>Mon, 20 Nov 2023 00:00:00 +0000</pubDate>
      <author>Roser, Max</author>
      <enclosure url="https://media.transistor.fm/25a95844/7b58264d.mp3" length="7883823" type="audio/mpeg"/>
      <itunes:author>Roser, Max</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/ItO0cAtC55NmPMTy9TkGw_I0iGiUSxt-nXGtSbIr6ZA/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9iNWZm/YzFlM2Y4YzMwZDM2/MTg3OTU0Zjc5OTU0/NTRiZC53ZWJw.jpg"/>
      <itunes:duration>492</itunes:duration>
      <itunes:summary>
        <![CDATA[Los pronósticos de los expertos sobre el futuro de la inteligencia artificial dejan ver que a pesar de la incertidumbre en torno a los detalles, hay un gran acuerdo en el panorama general. La mayoría cree que hay una probabilidad considerable de que una inteligencia artificial transformadora se desarrolle durante este siglo. Sin embargo, el discurso público y la toma de decisiones en las principales instituciones no se han puesto al día con estas perspectivas.]]>
      </itunes:summary>
      <itunes:keywords>pronosticación, pronosticación de la inteligencia artificial, seguridad de la inteligencia artificial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Por qué debemos pensar seriamente que la inteligencia artificial es una amenaza para la humanidad</title>
      <itunes:episode>45</itunes:episode>
      <podcast:episode>45</podcast:episode>
      <itunes:title>Por qué debemos pensar seriamente que la inteligencia artificial es una amenaza para la humanidad</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">4344958a-35dc-4196-a324-718cf0848cc0</guid>
      <link>https://share.transistor.fm/s/5262267e</link>
      <description>
        <![CDATA[Muchos de los investigadores que actualmente están trabajando en inteligencia artificial creen que si los sistemas avanzados se implementan de forma irresponsable, podrían privar permanentemente a la civilización humana de un buen futuro. Otros, más escépticos, piensan que esta tecnología está tan lejos que no tiene sentido pensar en el tema ahora. Incluso entre quienes están, por lo general, de acuerdo en que la inteligencia artificial plantea peligros únicos hay diferentes opiniones sobre qué medidas tiene más sentido tomar en la actualidad. El debate está plagado de confusión, desinformación y gente que habla sin escucharse, en gran parte porque usamos la expresión "IA" para referirnos a muchas cosas diferentes. Este artículo presenta un panorama general, en nueve preguntas, de cómo la inteligencia artificial podría constituir un peligro catastrófico.]]>
      </description>
      <content:encoded>
        <![CDATA[Muchos de los investigadores que actualmente están trabajando en inteligencia artificial creen que si los sistemas avanzados se implementan de forma irresponsable, podrían privar permanentemente a la civilización humana de un buen futuro. Otros, más escépticos, piensan que esta tecnología está tan lejos que no tiene sentido pensar en el tema ahora. Incluso entre quienes están, por lo general, de acuerdo en que la inteligencia artificial plantea peligros únicos hay diferentes opiniones sobre qué medidas tiene más sentido tomar en la actualidad. El debate está plagado de confusión, desinformación y gente que habla sin escucharse, en gran parte porque usamos la expresión "IA" para referirnos a muchas cosas diferentes. Este artículo presenta un panorama general, en nueve preguntas, de cómo la inteligencia artificial podría constituir un peligro catastrófico.]]>
      </content:encoded>
      <pubDate>Mon, 13 Nov 2023 00:00:00 +0000</pubDate>
      <author>Piper, Kelsey</author>
      <enclosure url="https://media.transistor.fm/5262267e/2e0c4e90.mp3" length="42898205" type="audio/mpeg"/>
      <itunes:author>Piper, Kelsey</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/w_7c2ovcIZeAmgU32-oC74cgoF6EQHm3HLYGcX5bPRc/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8xNmZj/YzU4YjUwMzVmNjdk/ZGE4MzAxMTZhYzNh/YTY5Yi53ZWJw.jpg"/>
      <itunes:duration>2680</itunes:duration>
      <itunes:summary>
        <![CDATA[Muchos de los investigadores que actualmente están trabajando en inteligencia artificial creen que si los sistemas avanzados se implementan de forma irresponsable, podrían privar permanentemente a la civilización humana de un buen futuro. Otros, más escépticos, piensan que esta tecnología está tan lejos que no tiene sentido pensar en el tema ahora. Incluso entre quienes están, por lo general, de acuerdo en que la inteligencia artificial plantea peligros únicos hay diferentes opiniones sobre qué medidas tiene más sentido tomar en la actualidad. El debate está plagado de confusión, desinformación y gente que habla sin escucharse, en gran parte porque usamos la expresión "IA" para referirnos a muchas cosas diferentes. Este artículo presenta un panorama general, en nueve preguntas, de cómo la inteligencia artificial podría constituir un peligro catastrófico.]]>
      </itunes:summary>
      <itunes:keywords>inteligencia artificial, seguridad de la inteligencia artificial, extinción humana</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>El largoplacismo y la defensa de los animales</title>
      <itunes:episode>44</itunes:episode>
      <podcast:episode>44</podcast:episode>
      <itunes:title>El largoplacismo y la defensa de los animales</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">3319a072-3fc2-4b26-b142-1097f755c35a</guid>
      <link>https://share.transistor.fm/s/ab1ee02a</link>
      <description>
        <![CDATA[La ampliación del círculo moral parece un área plausible para los largoplacistas, porque el futuro a largo plazo solamente puede ser bueno en la medida en que tenga en cuenta los intereses de los animales no humanos, que son los más numerosos. Un enfoque largoplacista no solo priorizaría intervenciones centradas en el cambio social a largo plazo, sino que también debería ser reflexivo y abierto, dada la incertidumbre acerca de las cuestiones más importantes a largo plazo.]]>
      </description>
      <content:encoded>
        <![CDATA[La ampliación del círculo moral parece un área plausible para los largoplacistas, porque el futuro a largo plazo solamente puede ser bueno en la medida en que tenga en cuenta los intereses de los animales no humanos, que son los más numerosos. Un enfoque largoplacista no solo priorizaría intervenciones centradas en el cambio social a largo plazo, sino que también debería ser reflexivo y abierto, dada la incertidumbre acerca de las cuestiones más importantes a largo plazo.]]>
      </content:encoded>
      <pubDate>Mon, 06 Nov 2023 00:00:00 +0000</pubDate>
      <author>Baumann, Tobias</author>
      <enclosure url="https://media.transistor.fm/ab1ee02a/69d83362.mp3" length="11396708" type="audio/mpeg"/>
      <itunes:author>Baumann, Tobias</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/RRVKAGiRbTGhSOhKr2lvZig2h0sRgGYGr7UBU20ZNEw/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9hOGVl/MjlmYWE5YThkNzQ2/YWU5MmVmYjkwOTIx/OWRjZi53ZWJw.jpg"/>
      <itunes:duration>712</itunes:duration>
      <itunes:summary>
        <![CDATA[La ampliación del círculo moral parece un área plausible para los largoplacistas, porque el futuro a largo plazo solamente puede ser bueno en la medida en que tenga en cuenta los intereses de los animales no humanos, que son los más numerosos. Un enfoque largoplacista no solo priorizaría intervenciones centradas en el cambio social a largo plazo, sino que también debería ser reflexivo y abierto, dada la incertidumbre acerca de las cuestiones más importantes a largo plazo.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo, bienestar animal, sujetos morales y el futuro a largo plazo</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>La superpronosticación en pocas palabras</title>
      <itunes:episode>43</itunes:episode>
      <podcast:episode>43</podcast:episode>
      <itunes:title>La superpronosticación en pocas palabras</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">20fbd249-9b82-42f3-927b-17431c249aaf</guid>
      <link>https://share.transistor.fm/s/da3e02b4</link>
      <description>
        <![CDATA[Este artículo explica la idea básica de la superpronosticación, un método especialmente útil para predecir eventos en situaciones en que no pueden inferirse aplicando el análisis predictivo, porque no se dispone de un conjunto previo de datos para alimentar modelos estadísticos.]]>
      </description>
      <content:encoded>
        <![CDATA[Este artículo explica la idea básica de la superpronosticación, un método especialmente útil para predecir eventos en situaciones en que no pueden inferirse aplicando el análisis predictivo, porque no se dispone de un conjunto previo de datos para alimentar modelos estadísticos.]]>
      </content:encoded>
      <pubDate>Mon, 30 Oct 2023 00:00:00 +0000</pubDate>
      <author>Muehlhauser, Luke</author>
      <enclosure url="https://media.transistor.fm/da3e02b4/ee84a709.mp3" length="11091477" type="audio/mpeg"/>
      <itunes:author>Muehlhauser, Luke</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/lhJSypQ0i-aoFadQar4oiPrezfkkiAg2ubCgcqesJB0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS80OTk1/NjNlODFlYTY4NTFk/NzEzNzUyNzQyYjAz/MmU0YS53ZWJw.jpg"/>
      <itunes:duration>554</itunes:duration>
      <itunes:summary>
        <![CDATA[Este artículo explica la idea básica de la superpronosticación, un método especialmente útil para predecir eventos en situaciones en que no pueden inferirse aplicando el análisis predictivo, porque no se dispone de un conjunto previo de datos para alimentar modelos estadísticos.]]>
      </itunes:summary>
      <itunes:keywords>pronosticación</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Esto no puede seguir así</title>
      <itunes:episode>42</itunes:episode>
      <podcast:episode>42</podcast:episode>
      <itunes:title>Esto no puede seguir así</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">960c813e-f3ee-4dc8-bf63-cb0fe8d447a5</guid>
      <link>https://share.transistor.fm/s/9db87e9d</link>
      <description>
        <![CDATA[Estamos acostumbrados a que la economía global crezca un par de puntos porcentuales al año, pero en realidad se trata de una situación muy inusual. Con el tiempo, el crecimiento se ha acelerado: ahora está cerca de su máximo histórico y no podrá continuar así de rápido durante mucho más tiempo. Por lo tanto, debemos estar preparados para otras posibilidades: un estancamiento, una explosión o un colapso.]]>
      </description>
      <content:encoded>
        <![CDATA[Estamos acostumbrados a que la economía global crezca un par de puntos porcentuales al año, pero en realidad se trata de una situación muy inusual. Con el tiempo, el crecimiento se ha acelerado: ahora está cerca de su máximo histórico y no podrá continuar así de rápido durante mucho más tiempo. Por lo tanto, debemos estar preparados para otras posibilidades: un estancamiento, una explosión o un colapso.]]>
      </content:encoded>
      <pubDate>Mon, 23 Oct 2023 00:00:00 +0000</pubDate>
      <author>Karnofsky, Holden</author>
      <enclosure url="https://media.transistor.fm/9db87e9d/96629395.mp3" length="23357835" type="audio/mpeg"/>
      <itunes:author>Karnofsky, Holden</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/bP_ENvoKyvI9P47kducqXQGheqrDAzkccVk_t71Nb-s/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9lMWVj/YmNmYmNjMWQwMDA5/YjQ2N2Y3NzEwZDUy/Yjg4ZC53ZWJw.jpg"/>
      <itunes:duration>1459</itunes:duration>
      <itunes:summary>
        <![CDATA[Estamos acostumbrados a que la economía global crezca un par de puntos porcentuales al año, pero en realidad se trata de una situación muy inusual. Con el tiempo, el crecimiento se ha acelerado: ahora está cerca de su máximo histórico y no podrá continuar así de rápido durante mucho más tiempo. Por lo tanto, debemos estar preparados para otras posibilidades: un estancamiento, una explosión o un colapso.]]>
      </itunes:summary>
      <itunes:keywords>futuro a largo plazo, crecimiento económico</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Por qué probablemente no soy largoplacista</title>
      <itunes:episode>41</itunes:episode>
      <podcast:episode>41</podcast:episode>
      <itunes:title>Por qué probablemente no soy largoplacista</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">b9382cc8-2c54-462a-9cd7-02962b91230b</guid>
      <link>https://share.transistor.fm/s/68e5615b</link>
      <description>
        <![CDATA[Estoy mucho más interesada en que el futuro sea bueno que en que sea largo o grande, ya que no creo que el mundo sea maravilloso ahora ni estoy convencida de que vaya a serlo en el futuro. No estoy segura de que haya escenarios que nos encierren en un mundo al menos tan malo como el actual que podamos evitar o moldear en el corto plazo. Si no los hay, creo que es mejor centrarse en las formas "tradicionales cortoplacistas" de mejorar el mundo.]]>
      </description>
      <content:encoded>
        <![CDATA[Estoy mucho más interesada en que el futuro sea bueno que en que sea largo o grande, ya que no creo que el mundo sea maravilloso ahora ni estoy convencida de que vaya a serlo en el futuro. No estoy segura de que haya escenarios que nos encierren en un mundo al menos tan malo como el actual que podamos evitar o moldear en el corto plazo. Si no los hay, creo que es mejor centrarse en las formas "tradicionales cortoplacistas" de mejorar el mundo.]]>
      </content:encoded>
      <pubDate>Mon, 16 Oct 2023 00:00:00 +0000</pubDate>
      <author>Melchin, Denise</author>
      <enclosure url="https://media.transistor.fm/68e5615b/dd39da2f.mp3" length="19663799" type="audio/mpeg"/>
      <itunes:author>Melchin, Denise</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/sYsEeHlsoIShxHTJpMsrNOGZQCRbD6hLLYYwjKng17o/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mODU2/YjhkZjdmZGQzN2Jk/NTljN2NhZWUwYWQ4/NGNhYi53ZWJw.jpg"/>
      <itunes:duration>983</itunes:duration>
      <itunes:summary>
        <![CDATA[Estoy mucho más interesada en que el futuro sea bueno que en que sea largo o grande, ya que no creo que el mundo sea maravilloso ahora ni estoy convencida de que vaya a serlo en el futuro. No estoy segura de que haya escenarios que nos encierren en un mundo al menos tan malo como el actual que podamos evitar o moldear en el corto plazo. Si no los hay, creo que es mejor centrarse en las formas "tradicionales cortoplacistas" de mejorar el mundo.]]>
      </itunes:summary>
      <itunes:keywords>riesgo existencial, desarrollo del altruismo eficaz, largoplacismo, futuro a largo plazo, ética de la población, críticas al altruismo eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Por qué el largoplacismo me resulta difícil y qué me mantiene motivada</title>
      <itunes:episode>40</itunes:episode>
      <podcast:episode>40</podcast:episode>
      <itunes:title>Por qué el largoplacismo me resulta difícil y qué me mantiene motivada</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">d8286f2c-b6d1-435f-925b-c156da8ad9d7</guid>
      <link>https://share.transistor.fm/s/7ebe7b95</link>
      <description>
        <![CDATA[Trabajar en causas largoplacistas puede resultar difícil, porque implica desviar la atención de muchos problemas terribles que existen en el mundo ahora mismo. Este artículo presenta algunas reflexiones sobre cómo afrontar este desafío y cómo mantener la motivación para trabajar en intervenciones especulativas. Algunas consideraciones útiles se refieren a la relativa saturación de algunas causas con objetivos a corto plazo, un ambiente de trabajo motivador, la discusión constructiva en torno a la importancia de las causas que parecen más acuciantes, y la situación de las personas futuras, completamente desprovistas de la capacidad de defender sus intereses.]]>
      </description>
      <content:encoded>
        <![CDATA[Trabajar en causas largoplacistas puede resultar difícil, porque implica desviar la atención de muchos problemas terribles que existen en el mundo ahora mismo. Este artículo presenta algunas reflexiones sobre cómo afrontar este desafío y cómo mantener la motivación para trabajar en intervenciones especulativas. Algunas consideraciones útiles se refieren a la relativa saturación de algunas causas con objetivos a corto plazo, un ambiente de trabajo motivador, la discusión constructiva en torno a la importancia de las causas que parecen más acuciantes, y la situación de las personas futuras, completamente desprovistas de la capacidad de defender sus intereses.]]>
      </content:encoded>
      <pubDate>Mon, 09 Oct 2023 00:00:00 +0000</pubDate>
      <author>Hutchinson, Michelle</author>
      <enclosure url="https://media.transistor.fm/7ebe7b95/89f08b20.mp3" length="17165139" type="audio/mpeg"/>
      <itunes:author>Hutchinson, Michelle</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/di_G7dU6N_-PI6pFsxXCMi69LybyewyQBdES9XQ7PD0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9kZGNj/M2M2YWEyZjU5OTgx/ZGY5NDAxZjg4NmQ2/M2UzNi53ZWJw.jpg"/>
      <itunes:duration>1072</itunes:duration>
      <itunes:summary>
        <![CDATA[Trabajar en causas largoplacistas puede resultar difícil, porque implica desviar la atención de muchos problemas terribles que existen en el mundo ahora mismo. Este artículo presenta algunas reflexiones sobre cómo afrontar este desafío y cómo mantener la motivación para trabajar en intervenciones especulativas. Algunas consideraciones útiles se refieren a la relativa saturación de algunas causas con objetivos a corto plazo, un ambiente de trabajo motivador, la discusión constructiva en torno a la importancia de las causas que parecen más acuciantes, y la situación de las personas futuras, completamente desprovistas de la capacidad de defender sus intereses.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Consideraciones cruciales y filantropía sabia</title>
      <itunes:episode>39</itunes:episode>
      <podcast:episode>39</podcast:episode>
      <itunes:title>Consideraciones cruciales y filantropía sabia</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">1bdc0d16-5d38-434b-9935-3d27b7238055</guid>
      <link>https://share.transistor.fm/s/f16ddaaa</link>
      <description>
        <![CDATA[Una consideración crucial es una idea o argumento que podría revelar la necesidad de ajustar nuestros esfuerzos prácticos, e incluso de cambiar completamente de dirección o prioridad. Este tipo de consideración es frecuente en un contexto utilitarista, porque no estamos lo suficientemente familiarizados con lo que debe priorizar una función de preferencia utilitarista, pero sobre todo no sabemos lo que deberíamos hacer para tener el máximo impacto positivo en el futuro a largo plazo. Si adoptamos la regla según la cual hay que maximizar la probabilidad de un resultado aceptable, es decir, uno que evite una catástrofe existencial, entonces surgen varias consideraciones cruciales que es necesario analizar para poder determinar el signo de algunos parámetros y causas que habría que priorizar.]]>
      </description>
      <content:encoded>
        <![CDATA[Una consideración crucial es una idea o argumento que podría revelar la necesidad de ajustar nuestros esfuerzos prácticos, e incluso de cambiar completamente de dirección o prioridad. Este tipo de consideración es frecuente en un contexto utilitarista, porque no estamos lo suficientemente familiarizados con lo que debe priorizar una función de preferencia utilitarista, pero sobre todo no sabemos lo que deberíamos hacer para tener el máximo impacto positivo en el futuro a largo plazo. Si adoptamos la regla según la cual hay que maximizar la probabilidad de un resultado aceptable, es decir, uno que evite una catástrofe existencial, entonces surgen varias consideraciones cruciales que es necesario analizar para poder determinar el signo de algunos parámetros y causas que habría que priorizar.]]>
      </content:encoded>
      <pubDate>Mon, 02 Oct 2023 00:00:00 +0000</pubDate>
      <author>Bostrom, Nick</author>
      <enclosure url="https://media.transistor.fm/f16ddaaa/aa11f0ed.mp3" length="60884762" type="audio/mpeg"/>
      <itunes:author>Bostrom, Nick</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/iJgWaL07wQ6T08nKphi3QvoH1hHZe-Y-ik4MLzHXwyY/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mMGNi/ZDYyNjBiZWVkODcw/ZjNiNTFkOWI3NDUx/NzU4Zi53ZWJw.jpg"/>
      <itunes:duration>3044</itunes:duration>
      <itunes:summary>
        <![CDATA[Una consideración crucial es una idea o argumento que podría revelar la necesidad de ajustar nuestros esfuerzos prácticos, e incluso de cambiar completamente de dirección o prioridad. Este tipo de consideración es frecuente en un contexto utilitarista, porque no estamos lo suficientemente familiarizados con lo que debe priorizar una función de preferencia utilitarista, pero sobre todo no sabemos lo que deberíamos hacer para tener el máximo impacto positivo en el futuro a largo plazo. Si adoptamos la regla según la cual hay que maximizar la probabilidad de un resultado aceptable, es decir, uno que evite una catástrofe existencial, entonces surgen varias consideraciones cruciales que es necesario analizar para poder determinar el signo de algunos parámetros y causas que habría que priorizar.]]>
      </itunes:summary>
      <itunes:keywords>consideraciones cruciales, macroestrategia, riesgo existencial, priorización de causas, emulación de cerebro completo, catástrofe existencial infernal, fabricación de precisión atómica</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Donar como un inversor en empresas emergentes: Explicación de la filantropía basada en los éxitos</title>
      <itunes:episode>38</itunes:episode>
      <podcast:episode>38</podcast:episode>
      <itunes:title>Donar como un inversor en empresas emergentes: Explicación de la filantropía basada en los éxitos</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">45fd2139-e29f-4f23-89f0-30bf6ed337ca</guid>
      <link>https://share.transistor.fm/s/8f29ad51</link>
      <description>
        <![CDATA[Así como algunos inversores en empresas emergentes se arriesgan a financiar proyectos con gran potencial, pero cuyo éxito es incierto, también el sector filantrópico puede aplicar una lógica similar: un enfoque conocido como “filantropía basada en los éxitos”. Los donantes, haciendo uso del concepto estadístico de “valor esperado”, financian proyectos arriesgados, pero con un alto potencial de impacto social o ambiental, lo que requiere diversificar la cartera de donaciones y, en general, abandonar la exigencia de sustentar la decisión en evidencia sólida. Este enfoque ha dado resultados notables en el pasado, como el desarrollo de cepas de trigo de alto rendimiento que impulsaron la “Revolución Verde” y la investigación que condujo al desarrollo de la píldora anticonceptiva.]]>
      </description>
      <content:encoded>
        <![CDATA[Así como algunos inversores en empresas emergentes se arriesgan a financiar proyectos con gran potencial, pero cuyo éxito es incierto, también el sector filantrópico puede aplicar una lógica similar: un enfoque conocido como “filantropía basada en los éxitos”. Los donantes, haciendo uso del concepto estadístico de “valor esperado”, financian proyectos arriesgados, pero con un alto potencial de impacto social o ambiental, lo que requiere diversificar la cartera de donaciones y, en general, abandonar la exigencia de sustentar la decisión en evidencia sólida. Este enfoque ha dado resultados notables en el pasado, como el desarrollo de cepas de trigo de alto rendimiento que impulsaron la “Revolución Verde” y la investigación que condujo al desarrollo de la píldora anticonceptiva.]]>
      </content:encoded>
      <pubDate>Mon, 25 Sep 2023 00:00:00 +0000</pubDate>
      <author>Hashim, Shakeel</author>
      <enclosure url="https://media.transistor.fm/8f29ad51/73564247.mp3" length="9987402" type="audio/mpeg"/>
      <itunes:author>Hashim, Shakeel</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/u4Pogq_YYwhzqYqdVlcL20RwrDMy2jzYkrStKlskyxY/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8wMDNh/NDI3YzBlYWViNzkx/YTEzZjVhNGRmNTYz/M2MyZi53ZWJw.jpg"/>
      <itunes:duration>623</itunes:duration>
      <itunes:summary>
        <![CDATA[Así como algunos inversores en empresas emergentes se arriesgan a financiar proyectos con gran potencial, pero cuyo éxito es incierto, también el sector filantrópico puede aplicar una lógica similar: un enfoque conocido como “filantropía basada en los éxitos”. Los donantes, haciendo uso del concepto estadístico de “valor esperado”, financian proyectos arriesgados, pero con un alto potencial de impacto social o ambiental, lo que requiere diversificar la cartera de donaciones y, en general, abandonar la exigencia de sustentar la decisión en evidencia sólida. Este enfoque ha dado resultados notables en el pasado, como el desarrollo de cepas de trigo de alto rendimiento que impulsaron la “Revolución Verde” y la investigación que condujo al desarrollo de la píldora anticonceptiva.]]>
      </itunes:summary>
      <itunes:keywords>donación eficaz, valor esperado, diversificación filantrópica, filantropía basada en los éxitos</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Proyectos concretos de bioseguridad (algunos de los cuales podrían ser grandes)</title>
      <itunes:episode>37</itunes:episode>
      <podcast:episode>37</podcast:episode>
      <itunes:title>Proyectos concretos de bioseguridad (algunos de los cuales podrían ser grandes)</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">8af9aa02-1784-4dc4-9025-569b84d4d14a</guid>
      <link>https://share.transistor.fm/s/a1a9045e</link>
      <description>
        <![CDATA[Esta es una lista de proyectos de bioseguridad largoplacistas. La mayoría de ellos podrían reducir el riesgo biológico catastrófico en más de un 1 %, aproximadamente, en el margen actual.]]>
      </description>
      <content:encoded>
        <![CDATA[Esta es una lista de proyectos de bioseguridad largoplacistas. La mayoría de ellos podrían reducir el riesgo biológico catastrófico en más de un 1 %, aproximadamente, en el margen actual.]]>
      </content:encoded>
      <pubDate>Mon, 18 Sep 2023 00:00:00 +0000</pubDate>
      <author>Snyder-Beattie, Andrew y Alley, Ethan</author>
      <enclosure url="https://media.transistor.fm/a1a9045e/1900320e.mp3" length="17359836" type="audio/mpeg"/>
      <itunes:author>Snyder-Beattie, Andrew y Alley, Ethan</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/1ZKED7p_ycAehKNNUmGJrs9aQMIrJbHWkzhnSliBo68/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8zNDFk/ZjcwOWZjZDY5ZjAw/ZmVjZTgzOGNjZWI5/MWZkZC53ZWJw.jpg"/>
      <itunes:duration>867</itunes:duration>
      <itunes:summary>
        <![CDATA[Esta es una lista de proyectos de bioseguridad largoplacistas. La mayoría de ellos podrían reducir el riesgo biológico catastrófico en más de un 1 %, aproximadamente, en el margen actual.]]>
      </itunes:summary>
      <itunes:keywords>bioseguridad, preparación para las pandemias, megaproyectos, refugios, riesgos biológicos catastróficos globales</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Por qué los expertos temen una pandemia de origen humano y qué podemos hacer para evitarla</title>
      <itunes:episode>36</itunes:episode>
      <podcast:episode>36</podcast:episode>
      <itunes:title>Por qué los expertos temen una pandemia de origen humano y qué podemos hacer para evitarla</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">19bff598-4ae8-4b45-9c7f-2128dc44463b</guid>
      <link>https://share.transistor.fm/s/e9a3a845</link>
      <description>
        <![CDATA[A medida que la biología mejora, la bioseguridad se vuelve más difícil. Para mitigar el riesgo de una catástrofe, se pueden implementar programas de detección para dificultar la ingeniería de virus mortales y hacer esfuerzos globales para poner fin a la investigación sobre el desarrollo de nuevas enfermedades peligrosas.]]>
      </description>
      <content:encoded>
        <![CDATA[A medida que la biología mejora, la bioseguridad se vuelve más difícil. Para mitigar el riesgo de una catástrofe, se pueden implementar programas de detección para dificultar la ingeniería de virus mortales y hacer esfuerzos globales para poner fin a la investigación sobre el desarrollo de nuevas enfermedades peligrosas.]]>
      </content:encoded>
      <pubDate>Mon, 11 Sep 2023 00:00:00 +0000</pubDate>
      <author>Piper, Kelsey</author>
      <enclosure url="https://media.transistor.fm/e9a3a845/ea268b3d.mp3" length="30545927" type="audio/mpeg"/>
      <itunes:author>Piper, Kelsey</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/3dMFPfzIv95c71qTIFemoS0RPaeHkCv6EzPP9pF3Wp8/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9lODBm/YmI4OWRkNjdlZTg5/Njk0OTMyYTdmODJh/YWQxYy53ZWJw.jpg"/>
      <itunes:duration>1527</itunes:duration>
      <itunes:summary>
        <![CDATA[A medida que la biología mejora, la bioseguridad se vuelve más difícil. Para mitigar el riesgo de una catástrofe, se pueden implementar programas de detección para dificultar la ingeniería de virus mortales y hacer esfuerzos globales para poner fin a la investigación sobre el desarrollo de nuevas enfermedades peligrosas.]]>
      </itunes:summary>
      <itunes:keywords>bioseguridad, preparación para las pandemias</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Argumentos a favor de reducir el riesgo existencial</title>
      <itunes:episode>35</itunes:episode>
      <podcast:episode>35</podcast:episode>
      <itunes:title>Argumentos a favor de reducir el riesgo existencial</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">23515eda-2292-4508-979d-ff07a967d051</guid>
      <link>https://share.transistor.fm/s/be08d507</link>
      <description>
        <![CDATA[Desde 1939, la humanidad ha tenido en su poder armas nucleares que amenazan con destruirla. Los riesgos de una guerra nuclear a gran escala y de otros nuevos peligros, como los ciberataques, las pandemias o la inteligencia artificial, superan en magnitud los riesgos tradicionales como los asociados al cambio climático. Estos peligros podrían no solo acabar con la vida de quienes viven ahora, sino impedir la existencia de todas las generaciones futuras. Cuando se tienen en cuenta el número de personas que podrían existir, parece claro que prevenir estos riesgos existenciales es lo más importante que podemos hacer.]]>
      </description>
      <content:encoded>
        <![CDATA[Desde 1939, la humanidad ha tenido en su poder armas nucleares que amenazan con destruirla. Los riesgos de una guerra nuclear a gran escala y de otros nuevos peligros, como los ciberataques, las pandemias o la inteligencia artificial, superan en magnitud los riesgos tradicionales como los asociados al cambio climático. Estos peligros podrían no solo acabar con la vida de quienes viven ahora, sino impedir la existencia de todas las generaciones futuras. Cuando se tienen en cuenta el número de personas que podrían existir, parece claro que prevenir estos riesgos existenciales es lo más importante que podemos hacer.]]>
      </content:encoded>
      <pubDate>Mon, 04 Sep 2023 00:00:00 +0000</pubDate>
      <author>Todd, Benjamin</author>
      <enclosure url="https://media.transistor.fm/be08d507/490c053b.mp3" length="97035968" type="audio/mpeg"/>
      <itunes:author>Todd, Benjamin</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/S5n8wfGw5wAyC8ZltaX2qbtMsMIHCGXmNZCCOpeFUNc/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9lYWU2/MmVkODk4MjUwZWJh/YmY3NmJlMWM5Zjdl/M2RiNC53ZWJw.jpg"/>
      <itunes:duration>4851</itunes:duration>
      <itunes:summary>
        <![CDATA[Desde 1939, la humanidad ha tenido en su poder armas nucleares que amenazan con destruirla. Los riesgos de una guerra nuclear a gran escala y de otros nuevos peligros, como los ciberataques, las pandemias o la inteligencia artificial, superan en magnitud los riesgos tradicionales como los asociados al cambio climático. Estos peligros podrían no solo acabar con la vida de quienes viven ahora, sino impedir la existencia de todas las generaciones futuras. Cuando se tienen en cuenta el número de personas que podrían existir, parece claro que prevenir estos riesgos existenciales es lo más importante que podemos hacer.]]>
      </itunes:summary>
      <itunes:keywords>riesgo existencial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Las dietas veganas son difíciles de vender. Quizá sería mejor que los defensores de los animales se centraran en las decisiones corporativas, no en los platos</title>
      <itunes:episode>34</itunes:episode>
      <podcast:episode>34</podcast:episode>
      <itunes:title>Las dietas veganas son difíciles de vender. Quizá sería mejor que los defensores de los animales se centraran en las decisiones corporativas, no en los platos</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">7f2c69ea-8362-4cb9-9610-ecb3c61b5918</guid>
      <link>https://share.transistor.fm/s/f30caf40</link>
      <description>
        <![CDATA[La forma más costo-eficaz de ayudar a los animales en los criaderos intensivos parecen ser las campañas dirigidas a los proveedores, no a los consumidores.]]>
      </description>
      <content:encoded>
        <![CDATA[La forma más costo-eficaz de ayudar a los animales en los criaderos intensivos parecen ser las campañas dirigidas a los proveedores, no a los consumidores.]]>
      </content:encoded>
      <pubDate>Mon, 28 Aug 2023 00:00:00 +0000</pubDate>
      <author>Piper, Kelsey</author>
      <enclosure url="https://media.transistor.fm/f30caf40/183456ac.mp3" length="16757035" type="audio/mpeg"/>
      <itunes:author>Piper, Kelsey</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/n8qvn4vTK_tE15bv6ZpKpNnVHYuNIy6zzj5JZHykLVw/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS83Mjk4/ODlmYWEyMzg2NWUw/OWE3ZjE3ZjhlMjM2/ZmM1YS53ZWJw.jpg"/>
      <itunes:duration>837</itunes:duration>
      <itunes:summary>
        <![CDATA[La forma más costo-eficaz de ayudar a los animales en los criaderos intensivos parecen ser las campañas dirigidas a los proveedores, no a los consumidores.]]>
      </itunes:summary>
      <itunes:keywords>bienestar animal, bienestar animal en las granjas, campañas empresariales para el bienestar animal, cambio en la dieta</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Informe sobre el bienestar animal como causa</title>
      <itunes:episode>33</itunes:episode>
      <podcast:episode>33</podcast:episode>
      <itunes:title>Informe sobre el bienestar animal como causa</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">8cb6b8f4-bd24-4809-ae20-42efc3e258d9</guid>
      <link>https://share.transistor.fm/s/c99d0227</link>
      <description>
        <![CDATA[Este informe muestra algunas formas eficaces de contribuir a reducir el sufrimiento de los animales de granja. En primer lugar, describe la magnitud de la cría intensiva moderna y cómo perjudica a los animales de granja. A continuación, analiza cómo trabajan las organizaciones para aliviar este sufrimiento y qué enfoques parecen más prometedores. Por último, presenta cinco oportunidades de financiación de gran impacto.]]>
      </description>
      <content:encoded>
        <![CDATA[Este informe muestra algunas formas eficaces de contribuir a reducir el sufrimiento de los animales de granja. En primer lugar, describe la magnitud de la cría intensiva moderna y cómo perjudica a los animales de granja. A continuación, analiza cómo trabajan las organizaciones para aliviar este sufrimiento y qué enfoques parecen más prometedores. Por último, presenta cinco oportunidades de financiación de gran impacto.]]>
      </content:encoded>
      <pubDate>Mon, 21 Aug 2023 00:00:00 +0000</pubDate>
      <author>Clare, Stephen</author>
      <enclosure url="https://media.transistor.fm/c99d0227/b486b11f.mp3" length="36662521" type="audio/mpeg"/>
      <itunes:author>Clare, Stephen</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/groqTMaXRCVViUWZlqJAH_jmclERA4OBygjbdZoKITA/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS84MTE3/MGUyODBkZTNlYmQz/ZWYyNDEwYjkzNzk5/MmQxYi53ZWJw.jpg"/>
      <itunes:duration>1833</itunes:duration>
      <itunes:summary>
        <![CDATA[Este informe muestra algunas formas eficaces de contribuir a reducir el sufrimiento de los animales de granja. En primer lugar, describe la magnitud de la cría intensiva moderna y cómo perjudica a los animales de granja. A continuación, analiza cómo trabajan las organizaciones para aliviar este sufrimiento y qué enfoques parecen más prometedores. Por último, presenta cinco oportunidades de financiación de gran impacto.]]>
      </itunes:summary>
      <itunes:keywords>bienestar animal, campañas empresariales para el bienestar animal, carne cultivada, alternativas a los productos de origen animal</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Todos los animales son iguales</title>
      <itunes:episode>32</itunes:episode>
      <podcast:episode>32</podcast:episode>
      <itunes:title>Todos los animales son iguales</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">32011b79-1644-40fc-89a4-5978b91018a5</guid>
      <link>https://share.transistor.fm/s/99a094bd</link>
      <description>
        <![CDATA[Las diferencias entre los animales no humanos y los humanos pueden dar lugar a un trato diferente y a derechos diferentes, pero no justifican una consideración diferente. El principio de igualdad exige que se tomen en consideración los intereses de todos los seres con capacidad para sufrir o disfrutar. Negar esta consideración a otras especies en favor de los intereses de la propia especie es incurrir en una forma de discriminar que no puede justificarse: el especismo. En consecuencia, debemos incluir a los animales no humanos en nuestra esfera de consideración moral y dejar de tratar sus vidas como prescindibles por razones triviales.]]>
      </description>
      <content:encoded>
        <![CDATA[Las diferencias entre los animales no humanos y los humanos pueden dar lugar a un trato diferente y a derechos diferentes, pero no justifican una consideración diferente. El principio de igualdad exige que se tomen en consideración los intereses de todos los seres con capacidad para sufrir o disfrutar. Negar esta consideración a otras especies en favor de los intereses de la propia especie es incurrir en una forma de discriminar que no puede justificarse: el especismo. En consecuencia, debemos incluir a los animales no humanos en nuestra esfera de consideración moral y dejar de tratar sus vidas como prescindibles por razones triviales.]]>
      </content:encoded>
      <pubDate>Mon, 14 Aug 2023 00:00:00 +0000</pubDate>
      <author>Singer, Peter</author>
      <enclosure url="https://media.transistor.fm/99a094bd/1b847bb8.mp3" length="5122769" type="audio/mpeg"/>
      <itunes:author>Singer, Peter</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/rP0ZUlXt0D-KhgYPnIpdAYA3iQIPnngAh5Rx2BU2YjA/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9jODQw/N2JmYjFlYzdlNWU0/YmQzY2ExM2UzOTNm/NDJlOC53ZWJw.jpg"/>
      <itunes:duration>319</itunes:duration>
      <itunes:summary>
        <![CDATA[Las diferencias entre los animales no humanos y los humanos pueden dar lugar a un trato diferente y a derechos diferentes, pero no justifican una consideración diferente. El principio de igualdad exige que se tomen en consideración los intereses de todos los seres con capacidad para sufrir o disfrutar. Negar esta consideración a otras especies en favor de los intereses de la propia especie es incurrir en una forma de discriminar que no puede justificarse: el especismo. En consecuencia, debemos incluir a los animales no humanos en nuestra esfera de consideración moral y dejar de tratar sus vidas como prescindibles por razones triviales.]]>
      </itunes:summary>
      <itunes:keywords>bienestar animal, igual consideración de intereses, sintiencia animal</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Acerca de las ideas “marginales”</title>
      <itunes:episode>31</itunes:episode>
      <podcast:episode>31</podcast:episode>
      <itunes:title>Acerca de las ideas “marginales”</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">58c26228-6ee1-4bf0-9dcc-0c2b9f85aeb4</guid>
      <link>https://share.transistor.fm/s/df66dfd6</link>
      <description>
        <![CDATA[Aunque lo más importante para la comunidad del altruismo eficaz debe ser que, en un momento cualquiera, la mayor parte de los esfuerzos se dediquen a hacer cosas sólidas y claramente importantes, ello no significa que no deba estar abierta a escuchar cosas más especulativas. Entre estas destacan en particular (1) los argumentos para preocuparnos por cosas que normalmente están fuera de nuestra esfera de preocupación, (2) los argumentos de que nuestra sociedad está equivocada de forma fundamental e importante y (3) los argumentos de que estamos cometiendo errores importantes.]]>
      </description>
      <content:encoded>
        <![CDATA[Aunque lo más importante para la comunidad del altruismo eficaz debe ser que, en un momento cualquiera, la mayor parte de los esfuerzos se dediquen a hacer cosas sólidas y claramente importantes, ello no significa que no deba estar abierta a escuchar cosas más especulativas. Entre estas destacan en particular (1) los argumentos para preocuparnos por cosas que normalmente están fuera de nuestra esfera de preocupación, (2) los argumentos de que nuestra sociedad está equivocada de forma fundamental e importante y (3) los argumentos de que estamos cometiendo errores importantes.]]>
      </content:encoded>
      <pubDate>Mon, 07 Aug 2023 00:00:00 +0000</pubDate>
      <author>Piper, Kelsey</author>
      <enclosure url="https://media.transistor.fm/df66dfd6/97f729d5.mp3" length="10237731" type="audio/mpeg"/>
      <itunes:author>Piper, Kelsey</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/5LXbieONuY2PupD1BB0EoumNDGDxwKEiOI9xjuVn3dM/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9lYTcw/MTkyMDUyNzA3NGVl/MDI4MDQ0ZTczMDg2/YTBlOC53ZWJw.jpg"/>
      <itunes:duration>639</itunes:duration>
      <itunes:summary>
        <![CDATA[Aunque lo más importante para la comunidad del altruismo eficaz debe ser que, en un momento cualquiera, la mayor parte de los esfuerzos se dediquen a hacer cosas sólidas y claramente importantes, ello no significa que no deba estar abierta a escuchar cosas más especulativas. Entre estas destacan en particular (1) los argumentos para preocuparnos por cosas que normalmente están fuera de nuestra esfera de preocupación, (2) los argumentos de que nuestra sociedad está equivocada de forma fundamental e importante y (3) los argumentos de que estamos cometiendo errores importantes.]]>
      </itunes:summary>
      <itunes:keywords>desarrollo del altruismo eficaz, incertidumbre moral, ampliación del círculo moral</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>La posibilidad de una catástrofe moral actualmente en curso (resumen)</title>
      <itunes:episode>30</itunes:episode>
      <podcast:episode>30</podcast:episode>
      <itunes:title>La posibilidad de una catástrofe moral actualmente en curso (resumen)</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">3605a125-cae0-415b-9614-b5bc002d5dcf</guid>
      <link>https://share.transistor.fm/s/7bc05a0e</link>
      <description>
        <![CDATA[Probablemente seamos culpables, sin saberlo, de cometer catástrofes morales graves y a gran escala. Dos argumentos independientes apoyan esta conclusión: un argumento inductivo, que advierte que todas las generaciones pasadas han cometido grandes errores morales, y un argumento disyuntivo, que señala que hay un sinnúmero de maneras en que una generación puede cometer tales errores. Por lo tanto, debemos invertir recursos significativos en investigar nuestras fallas morales potenciales para minimizar la probabilidad de cometer una nueva catástrofe.]]>
      </description>
      <content:encoded>
        <![CDATA[Probablemente seamos culpables, sin saberlo, de cometer catástrofes morales graves y a gran escala. Dos argumentos independientes apoyan esta conclusión: un argumento inductivo, que advierte que todas las generaciones pasadas han cometido grandes errores morales, y un argumento disyuntivo, que señala que hay un sinnúmero de maneras en que una generación puede cometer tales errores. Por lo tanto, debemos invertir recursos significativos en investigar nuestras fallas morales potenciales para minimizar la probabilidad de cometer una nueva catástrofe.]]>
      </content:encoded>
      <pubDate>Mon, 31 Jul 2023 00:00:00 +0000</pubDate>
      <author>Zhang, Linchuan</author>
      <enclosure url="https://media.transistor.fm/7bc05a0e/e31cb5c8.mp3" length="10925693" type="audio/mpeg"/>
      <itunes:author>Zhang, Linchuan</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/lkhAfOGeOslSb_C_RG-Fl4RMvkkqI5tuZ3gLjmvsKzw/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8xMzE0/OTAyNmUxZDlhZGEw/MzgwOWIzYjlkNDY3/MWUwZC53ZWJw.jpg"/>
      <itunes:duration>682</itunes:duration>
      <itunes:summary>
        <![CDATA[Probablemente seamos culpables, sin saberlo, de cometer catástrofes morales graves y a gran escala. Dos argumentos independientes apoyan esta conclusión: un argumento inductivo, que advierte que todas las generaciones pasadas han cometido grandes errores morales, y un argumento disyuntivo, que señala que hay un sinnúmero de maneras en que una generación puede cometer tales errores. Por lo tanto, debemos invertir recursos significativos en investigar nuestras fallas morales potenciales para minimizar la probabilidad de cometer una nueva catástrofe.]]>
      </itunes:summary>
      <itunes:keywords>priorización de causas, incertidumbre moral</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Progreso moral y "causa X"</title>
      <itunes:episode>29</itunes:episode>
      <podcast:episode>29</podcast:episode>
      <itunes:title>Progreso moral y "causa X"</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">4d3d1112-f70f-4c73-ac78-5ba00b052f14</guid>
      <link>https://share.transistor.fm/s/8ca25155</link>
      <description>
        <![CDATA[La comunidad del altruismo eficaz ha crecido enormemente desde sus inicios en 2009. En el discurso inaugural de EA Global: San Francisco 2016, Toby Ord analiza esta historia y Will MacAskill considera lo que podría deparar el futuro del movimiento.]]>
      </description>
      <content:encoded>
        <![CDATA[La comunidad del altruismo eficaz ha crecido enormemente desde sus inicios en 2009. En el discurso inaugural de EA Global: San Francisco 2016, Toby Ord analiza esta historia y Will MacAskill considera lo que podría deparar el futuro del movimiento.]]>
      </content:encoded>
      <pubDate>Mon, 24 Jul 2023 00:00:00 +0000</pubDate>
      <author>MacAskill, William y Ord, Toby</author>
      <enclosure url="https://media.transistor.fm/8ca25155/3214c7ee.mp3" length="62013616" type="audio/mpeg"/>
      <itunes:author>MacAskill, William y Ord, Toby</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/2h07UdFVYFn-PgBUotD8ugY0ylE_KkVKMSA5l-fbbHA/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8xNDMw/NDg0MmZhNDc4ZmQ5/OWEwNTVmZDQ2NDI3/MmM2Ny53ZWJw.jpg"/>
      <itunes:duration>3875</itunes:duration>
      <itunes:summary>
        <![CDATA[La comunidad del altruismo eficaz ha crecido enormemente desde sus inicios en 2009. En el discurso inaugural de EA Global: San Francisco 2016, Toby Ord analiza esta historia y Will MacAskill considera lo que podría deparar el futuro del movimiento.]]>
      </itunes:summary>
      <itunes:keywords>priorización de causas, desarrollo del altruismo eficaz, donación eficaz, Causa X</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Empatía radical</title>
      <itunes:episode>28</itunes:episode>
      <podcast:episode>28</podcast:episode>
      <itunes:title>Empatía radical</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">6a9739dc-075b-46fc-8131-586197152ec0</guid>
      <link>https://share.transistor.fm/s/c72e0484</link>
      <description>
        <![CDATA[Este ensayo argumenta que debemos esforzarnos por ampliar la esfera de consideración moral para incluir sujetos que tradicionalmente han sido excluidos. El autor destaca la importancia de ser cautelosos al descartar puntos de vista inusuales sobre la materia, como el que sostiene que los insectos o los algoritmos merecen consideración moral. Se reconoce la incertidumbre en torno a estas cuestiones, lo que lleva a la exploración de un análisis más profundo sobre el tema y al enfoque en objetivos no convencionales para la filantropía, donde existen oportunidades para tener un impacto inusualmente grande.]]>
      </description>
      <content:encoded>
        <![CDATA[Este ensayo argumenta que debemos esforzarnos por ampliar la esfera de consideración moral para incluir sujetos que tradicionalmente han sido excluidos. El autor destaca la importancia de ser cautelosos al descartar puntos de vista inusuales sobre la materia, como el que sostiene que los insectos o los algoritmos merecen consideración moral. Se reconoce la incertidumbre en torno a estas cuestiones, lo que lleva a la exploración de un análisis más profundo sobre el tema y al enfoque en objetivos no convencionales para la filantropía, donde existen oportunidades para tener un impacto inusualmente grande.]]>
      </content:encoded>
      <pubDate>Mon, 17 Jul 2023 00:00:00 +0000</pubDate>
      <author>Karnofsky, Holden</author>
      <enclosure url="https://media.transistor.fm/c72e0484/b80b4831.mp3" length="14976910" type="audio/mpeg"/>
      <itunes:author>Karnofsky, Holden</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/SN0_iBGDo4KriBrbBSvpb7YnMWdMiLliSpeROyF5Rtc/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS84MGEx/NjZjYTRjNzg5NzBm/M2Y0YzVmZjI0NTQ1/YjIzNS53ZWJw.jpg"/>
      <itunes:duration>935</itunes:duration>
      <itunes:summary>
        <![CDATA[Este ensayo argumenta que debemos esforzarnos por ampliar la esfera de consideración moral para incluir sujetos que tradicionalmente han sido excluidos. El autor destaca la importancia de ser cautelosos al descartar puntos de vista inusuales sobre la materia, como el que sostiene que los insectos o los algoritmos merecen consideración moral. Se reconoce la incertidumbre en torno a estas cuestiones, lo que lleva a la exploración de un análisis más profundo sobre el tema y al enfoque en objetivos no convencionales para la filantropía, donde existen oportunidades para tener un impacto inusualmente grande.]]>
      </itunes:summary>
      <itunes:keywords>bienestar animal, ampliación del círculo moral, posesión de estatus moral</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Presentación de LEEP: Lead Exposure Elimination Project</title>
      <itunes:episode>27</itunes:episode>
      <podcast:episode>27</podcast:episode>
      <itunes:title>Presentación de LEEP: Lead Exposure Elimination Project</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">22efcf12-eced-4481-9b79-43534c05b93f</guid>
      <link>https://share.transistor.fm/s/6be94d08</link>
      <description>
        <![CDATA[La intoxicación por plomo, debida sobre todo al uso de la pintura con plomo, es responsable de una considerable carga de la enfermedad a nivel global. El problema está desatendido en muchos países de renta baja y media, pero hay motivos para pensar que es relativamente fácil impulsar un cambio político que prohíba la producción e importación de pintura con plomo, por lo que el análisis de costo-eficacia sugiere que las intervenciones en este campo pueden ser extremadamente costo-eficaces. Lead Exposure Elimination Project es una organización alineada con el altruismo eficaz que trabaja para encontrar soluciones a este problema.]]>
      </description>
      <content:encoded>
        <![CDATA[La intoxicación por plomo, debida sobre todo al uso de la pintura con plomo, es responsable de una considerable carga de la enfermedad a nivel global. El problema está desatendido en muchos países de renta baja y media, pero hay motivos para pensar que es relativamente fácil impulsar un cambio político que prohíba la producción e importación de pintura con plomo, por lo que el análisis de costo-eficacia sugiere que las intervenciones en este campo pueden ser extremadamente costo-eficaces. Lead Exposure Elimination Project es una organización alineada con el altruismo eficaz que trabaja para encontrar soluciones a este problema.]]>
      </content:encoded>
      <pubDate>Mon, 10 Jul 2023 00:00:00 +0000</pubDate>
      <author>Rafferty, Jack y Coulter, Lucia</author>
      <enclosure url="https://media.transistor.fm/6be94d08/96b3d65d.mp3" length="13422852" type="audio/mpeg"/>
      <itunes:author>Rafferty, Jack y Coulter, Lucia</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/XJAppUl5_5rKIK2jETvBhdlP29Sc2_25AHHks0LKre8/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9kNGE3/M2Y2MTg2NzlmODVk/Y2E4ZjgwZWEwNmRh/MzcyZC53ZWJw.jpg"/>
      <itunes:duration>671</itunes:duration>
      <itunes:summary>
        <![CDATA[La intoxicación por plomo, debida sobre todo al uso de la pintura con plomo, es responsable de una considerable carga de la enfermedad a nivel global. El problema está desatendido en muchos países de renta baja y media, pero hay motivos para pensar que es relativamente fácil impulsar un cambio político que prohíba la producción e importación de pintura con plomo, por lo que el análisis de costo-eficacia sugiere que las intervenciones en este campo pueden ser extremadamente costo-eficaces. Lead Exposure Elimination Project es una organización alineada con el altruismo eficaz que trabaja para encontrar soluciones a este problema.]]>
      </itunes:summary>
      <itunes:keywords>salud y desarrollo globales, crecimiento económico</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Salud global</title>
      <itunes:episode>26</itunes:episode>
      <podcast:episode>26</podcast:episode>
      <itunes:title>Salud global</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">21507f98-a5e9-4f7a-a4f8-1376222e2585</guid>
      <link>https://share.transistor.fm/s/82c84ffe</link>
      <description>
        <![CDATA[La buena salud es fundamental para una alta calidad de vida. Este artículo ofrece un panorama general de la evidencia empírica disponible sobre los resultados de salud agregados, centrándose en los datos a largo plazo entre países de las tablas de mortalidad y morbilidad; y a continuación ofrece un análisis de la evidencia disponible sobre los determinantes de la salud, centrándose específicamente en los rendimientos de las inversiones sanitarias. Los datos históricos muestran que la esperanza de vida global ha aumentado espectacularmente en los dos últimos siglos, con mejoras sustanciales a largo plazo en todos los países del mundo.]]>
      </description>
      <content:encoded>
        <![CDATA[La buena salud es fundamental para una alta calidad de vida. Este artículo ofrece un panorama general de la evidencia empírica disponible sobre los resultados de salud agregados, centrándose en los datos a largo plazo entre países de las tablas de mortalidad y morbilidad; y a continuación ofrece un análisis de la evidencia disponible sobre los determinantes de la salud, centrándose específicamente en los rendimientos de las inversiones sanitarias. Los datos históricos muestran que la esperanza de vida global ha aumentado espectacularmente en los dos últimos siglos, con mejoras sustanciales a largo plazo en todos los países del mundo.]]>
      </content:encoded>
      <pubDate>Mon, 03 Jul 2023 00:00:00 +0000</pubDate>
      <author>Ortiz-Ospina, Esteban y Roser, Max</author>
      <enclosure url="https://media.transistor.fm/82c84ffe/a6cc0d94.mp3" length="40007654" type="audio/mpeg"/>
      <itunes:author>Ortiz-Ospina, Esteban y Roser, Max</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/IXFzVdCOvi4SCpXfLsEy6ZGYxQR-xht0Er8N7_5g3TU/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9lZWI4/YmMxMzgwZjE4MmI2/NDJkMWIyZGRiNmFi/Zjg1OC53ZWJw.jpg"/>
      <itunes:duration>2500</itunes:duration>
      <itunes:summary>
        <![CDATA[La buena salud es fundamental para una alta calidad de vida. Este artículo ofrece un panorama general de la evidencia empírica disponible sobre los resultados de salud agregados, centrándose en los datos a largo plazo entre países de las tablas de mortalidad y morbilidad; y a continuación ofrece un análisis de la evidencia disponible sobre los determinantes de la salud, centrándose específicamente en los rendimientos de las inversiones sanitarias. Los datos históricos muestran que la esperanza de vida global ha aumentado espectacularmente en los dos últimos siglos, con mejoras sustanciales a largo plazo en todos los países del mundo.]]>
      </itunes:summary>
      <itunes:keywords>salud y desarrollo globales</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Introducción a las donaciones: lo básico</title>
      <itunes:episode>25</itunes:episode>
      <podcast:episode>25</podcast:episode>
      <itunes:title>Introducción a las donaciones: lo básico</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">9ce9b954-1a6b-4eae-85da-a4907c4a7263</guid>
      <link>https://share.transistor.fm/s/256d90e8</link>
      <description>
        <![CDATA[Hay tres principios básicos a tener en cuenta a la hora de donar. 1) Tu donación puede cambiar la vida de alguien. 2) Una donación equivocada puede no lograr nada. 3) Tu dinero logra más en el extranjero.]]>
      </description>
      <content:encoded>
        <![CDATA[Hay tres principios básicos a tener en cuenta a la hora de donar. 1) Tu donación puede cambiar la vida de alguien. 2) Una donación equivocada puede no lograr nada. 3) Tu dinero logra más en el extranjero.]]>
      </content:encoded>
      <pubDate>Mon, 26 Jun 2023 00:00:00 +0000</pubDate>
      <author>GiveWell</author>
      <enclosure url="https://media.transistor.fm/256d90e8/311ce1a3.mp3" length="4058037" type="audio/mpeg"/>
      <itunes:author>GiveWell</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/uRZzrAXZJbeZZFZXdHqqPTKLqvIbBEanHawF3xMCcaQ/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS81OTU5/ZGI4ZWZmOWM3NDJi/MTVlNTExMmZiOWRi/NGZmOC53ZWJw.jpg"/>
      <itunes:duration>202</itunes:duration>
      <itunes:summary>
        <![CDATA[Hay tres principios básicos a tener en cuenta a la hora de donar. 1) Tu donación puede cambiar la vida de alguien. 2) Una donación equivocada puede no lograr nada. 3) Tu dinero logra más en el extranjero.]]>
      </itunes:summary>
      <itunes:keywords>donación eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Desigualdad económica global</title>
      <itunes:episode>24</itunes:episode>
      <podcast:episode>24</podcast:episode>
      <itunes:title>Desigualdad económica global</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">3784c364-ce6b-4fee-b189-827d4c687372</guid>
      <link>https://share.transistor.fm/s/69573dc6</link>
      <description>
        <![CDATA[Las condiciones de vida de una persona se ven en gran medida determinadas por dónde vive más que por quién es o qué hace, ya que nacer en una economía productiva e industrializada ofrece ventajas significativas. Esta desigualdad no solo se refleja en términos económicos, sino también en el acceso a la educación y a la salud y en la esperanza de vida. Para combatir la desigualdad, las iniciativas individuales de donaciones pueden ayudar mucho, pero el factor más importante es un crecimiento económico significativo y generalizado.]]>
      </description>
      <content:encoded>
        <![CDATA[Las condiciones de vida de una persona se ven en gran medida determinadas por dónde vive más que por quién es o qué hace, ya que nacer en una economía productiva e industrializada ofrece ventajas significativas. Esta desigualdad no solo se refleja en términos económicos, sino también en el acceso a la educación y a la salud y en la esperanza de vida. Para combatir la desigualdad, las iniciativas individuales de donaciones pueden ayudar mucho, pero el factor más importante es un crecimiento económico significativo y generalizado.]]>
      </content:encoded>
      <pubDate>Mon, 19 Jun 2023 00:00:00 +0000</pubDate>
      <author>Roser, Max</author>
      <enclosure url="https://media.transistor.fm/69573dc6/0240b1c8.mp3" length="17598783" type="audio/mpeg"/>
      <itunes:author>Roser, Max</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/XqVmbgbQ947Jc7C6Jb9gglTUB-Sm1Y10M-PQvhnShhU/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9kMjAy/ZWQ2ZTI0NGYxMjIw/NjBkYjM3NmEzODlh/YzhkZi53ZWJw.jpg"/>
      <itunes:duration>1099</itunes:duration>
      <itunes:summary>
        <![CDATA[Las condiciones de vida de una persona se ven en gran medida determinadas por dónde vive más que por quién es o qué hace, ya que nacer en una economía productiva e industrializada ofrece ventajas significativas. Esta desigualdad no solo se refleja en términos económicos, sino también en el acceso a la educación y a la salud y en la esperanza de vida. Para combatir la desigualdad, las iniciativas individuales de donaciones pueden ayudar mucho, pero el factor más importante es un crecimiento económico significativo y generalizado.]]>
      </itunes:summary>
      <itunes:keywords>salud y desarrollo globales</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>El número de aves y mamíferos marinos que mueren a causa de la contaminación por plásticos en el océano es muy bajo en relación con los peces capturados</title>
      <itunes:episode>23</itunes:episode>
      <podcast:episode>23</podcast:episode>
      <itunes:title>El número de aves y mamíferos marinos que mueren a causa de la contaminación por plásticos en el océano es muy bajo en relación con los peces capturados</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">6acd7f04-a1a6-495f-b2af-f09e841fd4ac</guid>
      <link>https://share.transistor.fm/s/ecddd328</link>
      <description>
        <![CDATA[La captura de peces salvajes es 2 millones de veces mayor que el número de aves marinas y 20 millones de veces mayor que el número de mamíferos marinos muertos por la contaminación marina por plásticos.]]>
      </description>
      <content:encoded>
        <![CDATA[La captura de peces salvajes es 2 millones de veces mayor que el número de aves marinas y 20 millones de veces mayor que el número de mamíferos marinos muertos por la contaminación marina por plásticos.]]>
      </content:encoded>
      <pubDate>Mon, 12 Jun 2023 00:00:00 +0000</pubDate>
      <author>Grilo, Vasco</author>
      <enclosure url="https://media.transistor.fm/ecddd328/7990553a.mp3" length="6382789" type="audio/mpeg"/>
      <itunes:author>Grilo, Vasco</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/mF0yVke6OAWmRhvl38DIFULfl23KtgO6U7m60OMKzHc/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8yNTAz/OTA2ZDQ4ZDNjODgx/YjdlY2ZiYTUyZmE4/ZmE3ZS53ZWJw.jpg"/>
      <itunes:duration>319</itunes:duration>
      <itunes:summary>
        <![CDATA[La captura de peces salvajes es 2 millones de veces mayor que el número de aves marinas y 20 millones de veces mayor que el número de mamíferos marinos muertos por la contaminación marina por plásticos.]]>
      </itunes:summary>
      <itunes:keywords>distribución de costo-eficacia, bienestar de los peces, estimación de Fermi</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Impacto marginal</title>
      <itunes:episode>22</itunes:episode>
      <podcast:episode>22</podcast:episode>
      <itunes:title>Impacto marginal</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">82639ee8-d46a-4c25-b617-4bd441cc5435</guid>
      <link>https://share.transistor.fm/s/5681e057</link>
      <description>
        <![CDATA[El impacto marginal de una inversión de tiempo o dinero es el impacto adicional que produjo esta inversión específica. El término se suele utilizar para enfatizar que, a la hora de tomar decisiones, solo hay que tener en cuenta el impacto generado por la elección, en lugar de calcular el impacto de los esfuerzos preexistentes. Por ejemplo, unirse a un gran movimiento con mucho impacto no es intrínsecamente mejor que unirse a un movimiento pequeño, si el impacto de uno mismo como parte de ese movimiento no es mayor.]]>
      </description>
      <content:encoded>
        <![CDATA[El impacto marginal de una inversión de tiempo o dinero es el impacto adicional que produjo esta inversión específica. El término se suele utilizar para enfatizar que, a la hora de tomar decisiones, solo hay que tener en cuenta el impacto generado por la elección, en lugar de calcular el impacto de los esfuerzos preexistentes. Por ejemplo, unirse a un gran movimiento con mucho impacto no es intrínsecamente mejor que unirse a un movimiento pequeño, si el impacto de uno mismo como parte de ese movimiento no es mayor.]]>
      </content:encoded>
      <pubDate>Mon, 05 Jun 2023 00:00:00 +0000</pubDate>
      <author>Probably Good</author>
      <enclosure url="https://media.transistor.fm/5681e057/a6c0fc34.mp3" length="7717053" type="audio/mpeg"/>
      <itunes:author>Probably Good</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/uD4MxMcGgcFz8wiHmE6uSWUZBt0-TMFmJjk8aaJ8Xko/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS81Y2Y2/ZGU4N2M1MjdkOGI0/YTZlZjdhMGMwMjJh/M2Q5Ni53ZWJw.jpg"/>
      <itunes:duration>385</itunes:duration>
      <itunes:summary>
        <![CDATA[El impacto marginal de una inversión de tiempo o dinero es el impacto adicional que produjo esta inversión específica. El término se suele utilizar para enfatizar que, a la hora de tomar decisiones, solo hay que tener en cuenta el impacto generado por la elección, en lugar de calcular el impacto de los esfuerzos preexistentes. Por ejemplo, unirse a un gran movimiento con mucho impacto no es intrínsecamente mejor que unirse a un movimiento pequeño, si el impacto de uno mismo como parte de ese movimiento no es mayor.]]>
      </itunes:summary>
      <itunes:keywords>priorización de causas, pensar en el margen</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Comparación de organizaciones benéficas: ¿Cuán grande es la diferencia?</title>
      <itunes:episode>21</itunes:episode>
      <podcast:episode>21</podcast:episode>
      <itunes:title>Comparación de organizaciones benéficas: ¿Cuán grande es la diferencia?</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">d575ab76-67fa-4cb5-9ed7-ef3087bcf747</guid>
      <link>https://share.transistor.fm/s/ddf8948d</link>
      <description>
        <![CDATA[Las mejores organizaciones benéficas son mucho mejores que las organizaciones típicas. Este hecho tiene una importancia fundamental, porque significa que el efecto benéfico de una misma donación puede ser mucho mayor si se destina a una organización altamente eficaz.]]>
      </description>
      <content:encoded>
        <![CDATA[Las mejores organizaciones benéficas son mucho mejores que las organizaciones típicas. Este hecho tiene una importancia fundamental, porque significa que el efecto benéfico de una misma donación puede ser mucho mayor si se destina a una organización altamente eficaz.]]>
      </content:encoded>
      <pubDate>Mon, 29 May 2023 00:00:00 +0000</pubDate>
      <author>Giving What We Can</author>
      <enclosure url="https://media.transistor.fm/ddf8948d/edd7df4e.mp3" length="13619025" type="audio/mpeg"/>
      <itunes:author>Giving What We Can</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/YBg3brSKSt9mFjrd9xPwWatjsUKDXaj-JRL9Boriwwc/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8yNWNk/ZTJmYzBjYWMwNjJj/MThlMGU5Y2NiZjRj/MTg3YS53ZWJw.jpg"/>
      <itunes:duration>850</itunes:duration>
      <itunes:summary>
        <![CDATA[Las mejores organizaciones benéficas son mucho mejores que las organizaciones típicas. Este hecho tiene una importancia fundamental, porque significa que el efecto benéfico de una misma donación puede ser mucho mayor si se destina a una organización altamente eficaz.]]>
      </itunes:summary>
      <itunes:keywords>donación eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Un marco para comparar problemas globales en términos de expectativa de impacto</title>
      <itunes:episode>20</itunes:episode>
      <podcast:episode>20</podcast:episode>
      <itunes:title>Un marco para comparar problemas globales en términos de expectativa de impacto</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">1e9956f4-e9d5-4148-8da0-9272cefea0dd</guid>
      <link>https://share.transistor.fm/s/ab9476af</link>
      <description>
        <![CDATA[El área de trabajo puede ser el principal factor determinante del impacto social de una carrera profesional. Por ello resulta útil comparar problemas en función del impacto positivo que puede generar una persona adicional que trabaje en ellos. Para hacer estas comparaciones, 80 000 Horas suele aplicar un marco informal de cuatro componentes (escala, desatención, solucionabilidad y aptitud personal) que aunque suficiente en muchas situaciones, puede dar lugar a problemas como contar dos veces. En este artículo se presenta una versión más precisa y cuantitativa del marco, y se ofrecen más detalles sobre la forma de aplicarlo para poder hacer comparaciones más exactas entre las distintas áreas.]]>
      </description>
      <content:encoded>
        <![CDATA[El área de trabajo puede ser el principal factor determinante del impacto social de una carrera profesional. Por ello resulta útil comparar problemas en función del impacto positivo que puede generar una persona adicional que trabaje en ellos. Para hacer estas comparaciones, 80 000 Horas suele aplicar un marco informal de cuatro componentes (escala, desatención, solucionabilidad y aptitud personal) que aunque suficiente en muchas situaciones, puede dar lugar a problemas como contar dos veces. En este artículo se presenta una versión más precisa y cuantitativa del marco, y se ofrecen más detalles sobre la forma de aplicarlo para poder hacer comparaciones más exactas entre las distintas áreas.]]>
      </content:encoded>
      <pubDate>Mon, 22 May 2023 00:00:00 +0000</pubDate>
      <author>Wiblin, Robert</author>
      <enclosure url="https://media.transistor.fm/ab9476af/6a7a50fc.mp3" length="42425468" type="audio/mpeg"/>
      <itunes:author>Wiblin, Robert</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/POKRAeVrWpucwPZYBx1moneNsnKlrg3f5XWB3KL1d0U/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8zZjAw/ZWU4Mjc2NWRhOTZh/ZDM0ZTg3ZjVlNWQx/MjkxOS53ZWJw.jpg"/>
      <itunes:duration>2657</itunes:duration>
      <itunes:summary>
        <![CDATA[El área de trabajo puede ser el principal factor determinante del impacto social de una carrera profesional. Por ello resulta útil comparar problemas en función del impacto positivo que puede generar una persona adicional que trabaje en ellos. Para hacer estas comparaciones, 80 000 Horas suele aplicar un marco informal de cuatro componentes (escala, desatención, solucionabilidad y aptitud personal) que aunque suficiente en muchas situaciones, puede dar lugar a problemas como contar dos veces. En este artículo se presenta una versión más precisa y cuantitativa del marco, y se ofrecen más detalles sobre la forma de aplicarlo para poder hacer comparaciones más exactas entre las distintas áreas.]]>
      </itunes:summary>
      <itunes:keywords>priorización de causas, marco ITD, importancia, desatención, tratabilidad, análisis de costo-eficacia, análisis de costo-beneficio</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>500 millones, pero ni uno más</title>
      <itunes:episode>19</itunes:episode>
      <podcast:episode>19</podcast:episode>
      <itunes:title>500 millones, pero ni uno más</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">8f5a5955-eeb3-4f28-9286-0625780811be</guid>
      <link>https://share.transistor.fm/s/f7c35df6</link>
      <description>
        <![CDATA[La humanidad tuvo un enemigo poderoso, un monstruo responsable de la muerte de 500 millones de víctimas. He aquí una crónica de los sufrimientos y trabajos humanos, hasta conseguir la victoria final sobre ese monstruo. La viruela, un "dios loco" que diezmó civilizaciones. Sigue la épica lucha de la humanidad hasta su erradicación y descubre nuestro poder al unirnos.]]>
      </description>
      <content:encoded>
        <![CDATA[La humanidad tuvo un enemigo poderoso, un monstruo responsable de la muerte de 500 millones de víctimas. He aquí una crónica de los sufrimientos y trabajos humanos, hasta conseguir la victoria final sobre ese monstruo. La viruela, un "dios loco" que diezmó civilizaciones. Sigue la épica lucha de la humanidad hasta su erradicación y descubre nuestro poder al unirnos.]]>
      </content:encoded>
      <pubDate>Mon, 15 May 2023 00:00:00 +0000</pubDate>
      <author>Dhyani, Jai</author>
      <enclosure url="https://media.transistor.fm/f7c35df6/7e244d2f.mp3" length="3084323" type="audio/mpeg"/>
      <itunes:author>Dhyani, Jai</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/Z90L0Hnj-b9Kadktlt5ZmOgBDkRfXew7BchbQnaSjIM/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8xYjJj/MzUwZWIwOTA5MTYw/ZTNjOGE5MmIyMDA4/N2JhMC53ZWJw.jpg"/>
      <itunes:duration>383</itunes:duration>
      <itunes:summary>
        <![CDATA[La humanidad tuvo un enemigo poderoso, un monstruo responsable de la muerte de 500 millones de víctimas. He aquí una crónica de los sufrimientos y trabajos humanos, hasta conseguir la victoria final sobre ese monstruo. La viruela, un "dios loco" que diezmó civilizaciones. Sigue la épica lucha de la humanidad hasta su erradicación y descubre nuestro poder al unirnos.]]>
      </itunes:summary>
      <itunes:keywords>salud y desarrollo globales, Programa de Erradicación de la Viruela</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Estamos en triaje cada segundo de cada día</title>
      <itunes:episode>18</itunes:episode>
      <podcast:episode>18</podcast:episode>
      <itunes:title>Estamos en triaje cada segundo de cada día</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">a38ac64d-2e3c-4370-80bd-ce7d2f1d23da</guid>
      <link>https://share.transistor.fm/s/537cb6fc</link>
      <description>
        <![CDATA[El triaje, o la práctica de asignar prioridad a distintos pacientes en medicina de urgencias, es fundamentalmente una forma de racionar recursos escasos. En este sentido, nosotros también estamos en un triaje constante, porque aunque no seamos plenamente conscientes de ello, la manera en que asignamos nuestros propios recursos implica tomar decisiones de vida o muerte.]]>
      </description>
      <content:encoded>
        <![CDATA[El triaje, o la práctica de asignar prioridad a distintos pacientes en medicina de urgencias, es fundamentalmente una forma de racionar recursos escasos. En este sentido, nosotros también estamos en un triaje constante, porque aunque no seamos plenamente conscientes de ello, la manera en que asignamos nuestros propios recursos implica tomar decisiones de vida o muerte.]]>
      </content:encoded>
      <pubDate>Mon, 08 May 2023 00:00:00 +0000</pubDate>
      <author>Elmore, Holly</author>
      <enclosure url="https://media.transistor.fm/537cb6fc/5d1bc75a.mp3" length="10683959" type="audio/mpeg"/>
      <itunes:author>Elmore, Holly</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/3-vej2b3QrZ_O4PstQblGx0wRo4JgpYZYJ2nFwI3Q-I/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9jNjVj/MDQ2OTkyM2IzYTZi/N2Q4MGIzNzkyZGFl/M2YwMy53ZWJw.jpg"/>
      <itunes:duration>667</itunes:duration>
      <itunes:summary>
        <![CDATA[El triaje, o la práctica de asignar prioridad a distintos pacientes en medicina de urgencias, es fundamentalmente una forma de racionar recursos escasos. En este sentido, nosotros también estamos en un triaje constante, porque aunque no seamos plenamente conscientes de ello, la manera en que asignamos nuestros propios recursos implica tomar decisiones de vida o muerte.]]>
      </itunes:summary>
      <itunes:keywords>exigencias de la moral, intercambios de recursos</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Comprar emociones y utilones por separado</title>
      <itunes:episode>17</itunes:episode>
      <podcast:episode>17</podcast:episode>
      <itunes:title>Comprar emociones y utilones por separado</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">1a9e5bf8-8d04-421e-b3aa-8376e20c3061</guid>
      <link>https://share.transistor.fm/s/b28e8436</link>
      <description>
        <![CDATA[Participar en actos altruistas, como las donaciones benéficas o los voluntariados, puede servir para distintos fines, como restaurar la fuerza de voluntad, mantener un perfil altruista o transmitir confianza. Si bien estos actos pueden tener sus propias ventajas, es probable que haya usos más eficientes del tiempo y los recursos. Este artículo nos recomienda comprar emociones reconfortantes y utilones por separado, optimizando cada uno de ellos individualmente. Un enfoque de este tipo permite un uso más eficaz de los recursos y fomenta una comprensión más clara de nuestras motivaciones y del impacto de nuestras acciones.]]>
      </description>
      <content:encoded>
        <![CDATA[Participar en actos altruistas, como las donaciones benéficas o los voluntariados, puede servir para distintos fines, como restaurar la fuerza de voluntad, mantener un perfil altruista o transmitir confianza. Si bien estos actos pueden tener sus propias ventajas, es probable que haya usos más eficientes del tiempo y los recursos. Este artículo nos recomienda comprar emociones reconfortantes y utilones por separado, optimizando cada uno de ellos individualmente. Un enfoque de este tipo permite un uso más eficaz de los recursos y fomenta una comprensión más clara de nuestras motivaciones y del impacto de nuestras acciones.]]>
      </content:encoded>
      <pubDate>Mon, 01 May 2023 00:00:00 +0000</pubDate>
      <author>Yudkowsky, Eliezer</author>
      <enclosure url="https://media.transistor.fm/b28e8436/c5655e59.mp3" length="9905428" type="audio/mpeg"/>
      <itunes:author>Yudkowsky, Eliezer</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/_22_Te1QRP4tUz2k4jHwsifLaBTA09WIjW49nNLJadk/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8xOGE4/ZTViZmZjZmI4MDMz/M2JjYWI1MmYxOWZh/NGEwOC53ZWJw.jpg"/>
      <itunes:duration>618</itunes:duration>
      <itunes:summary>
        <![CDATA[Participar en actos altruistas, como las donaciones benéficas o los voluntariados, puede servir para distintos fines, como restaurar la fuerza de voluntad, mantener un perfil altruista o transmitir confianza. Si bien estos actos pueden tener sus propias ventajas, es probable que haya usos más eficientes del tiempo y los recursos. Este artículo nos recomienda comprar emociones reconfortantes y utilones por separado, optimizando cada uno de ellos individualmente. Un enfoque de este tipo permite un uso más eficaz de los recursos y fomenta una comprensión más clara de nuestras motivaciones y del impacto de nuestras acciones.]]>
      </itunes:summary>
      <itunes:keywords>motivación altruista, altruismo eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Cómo se sienten los sesgos cognitivos desde dentro</title>
      <itunes:episode>16</itunes:episode>
      <podcast:episode>16</podcast:episode>
      <itunes:title>Cómo se sienten los sesgos cognitivos desde dentro</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">4dd29c44-5ed8-408e-95da-78ddb34e071f</guid>
      <link>https://share.transistor.fm/s/f6c32799</link>
      <description>
        <![CDATA[La comunicación en abstracto es muy difícil y a menudo fracasa. La comunidad de la racionalidad, salvo contadas excepciones, tiende a comunicar sus ideas en abstracto, lo cual es un error, porque tiene el efecto indeseado de volverse inaccesible para el público en general. Este artículo ensaya un tipo de comunicación más clara y accesible abordando el tema de los sesgos cognitivos.]]>
      </description>
      <content:encoded>
        <![CDATA[La comunicación en abstracto es muy difícil y a menudo fracasa. La comunidad de la racionalidad, salvo contadas excepciones, tiende a comunicar sus ideas en abstracto, lo cual es un error, porque tiene el efecto indeseado de volverse inaccesible para el público en general. Este artículo ensaya un tipo de comunicación más clara y accesible abordando el tema de los sesgos cognitivos.]]>
      </content:encoded>
      <pubDate>Mon, 24 Apr 2023 00:00:00 +0000</pubDate>
      <author>Böttger, Daniel</author>
      <enclosure url="https://media.transistor.fm/f6c32799/042a6d2e.mp3" length="10486817" type="audio/mpeg"/>
      <itunes:author>Böttger, Daniel</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/oPy7iSOX4-40S3b9ZD-MtsMBd1dARYr6vEP2deqOimY/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS80N2Uz/NDRlZTY3NzczNTgw/OThhYjA3NTE4MjM0/ODkxZC53ZWJw.jpg"/>
      <itunes:duration>655</itunes:duration>
      <itunes:summary>
        <![CDATA[La comunicación en abstracto es muy difícil y a menudo fracasa. La comunidad de la racionalidad, salvo contadas excepciones, tiende a comunicar sus ideas en abstracto, lo cual es un error, porque tiene el efecto indeseado de volverse inaccesible para el público en general. Este artículo ensaya un tipo de comunicación más clara y accesible abordando el tema de los sesgos cognitivos.]]>
      </itunes:summary>
      <itunes:keywords>sesgos cognitivos</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Por qué crees que tienes razón, aun cuando te equivocas</title>
      <itunes:episode>15</itunes:episode>
      <podcast:episode>15</podcast:episode>
      <itunes:title>Por qué crees que tienes razón, aun cuando te equivocas</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">37248e8e-a989-45d2-8a4c-17e0dbfd3269</guid>
      <link>https://share.transistor.fm/s/17d6de26</link>
      <description>
        <![CDATA[Tanto el soldado como el explorador son fundamentales en los ejércitos. Atacar, defender y obedecer órdenes son esenciales al primero. El explorador, en cambio, es quien sale a reconocer el terreno y a identificar posibles obstáculos: su trabajo es comprender. Estos papeles opuestos pueden usarse para explicar las mentalidades que adoptamos cuando procesamos la información. La mentalidad del soldado, por ejemplo, fue la que incentivó las acusaciones del famoso caso Dreyfus. El hecho de que Dreyfus fuera el único oficial judío en un ejército mayoritariamente antisemita determinó que fuera declarado culpable en un caso de alta traición. Tiempo después, el coronel Picquart encontró pruebas que acusaban a otro oficial y, adoptando la mentalidad del explorador, decidió investigar la verdad y logró que absolvieran a Dreyfus. Es importante notar que la diferencia entre estas dos mentalidades no es intelectual, sino emocional. Si queremos mejorar nuestro juicio como individuos y como sociedad, necesitamos adoptar la mentalidad del explorador.]]>
      </description>
      <content:encoded>
        <![CDATA[Tanto el soldado como el explorador son fundamentales en los ejércitos. Atacar, defender y obedecer órdenes son esenciales al primero. El explorador, en cambio, es quien sale a reconocer el terreno y a identificar posibles obstáculos: su trabajo es comprender. Estos papeles opuestos pueden usarse para explicar las mentalidades que adoptamos cuando procesamos la información. La mentalidad del soldado, por ejemplo, fue la que incentivó las acusaciones del famoso caso Dreyfus. El hecho de que Dreyfus fuera el único oficial judío en un ejército mayoritariamente antisemita determinó que fuera declarado culpable en un caso de alta traición. Tiempo después, el coronel Picquart encontró pruebas que acusaban a otro oficial y, adoptando la mentalidad del explorador, decidió investigar la verdad y logró que absolvieran a Dreyfus. Es importante notar que la diferencia entre estas dos mentalidades no es intelectual, sino emocional. Si queremos mejorar nuestro juicio como individuos y como sociedad, necesitamos adoptar la mentalidad del explorador.]]>
      </content:encoded>
      <pubDate>Mon, 17 Apr 2023 00:00:00 +0000</pubDate>
      <author>Galef, Julia</author>
      <enclosure url="https://media.transistor.fm/17d6de26/c7876e37.mp3" length="2282285" type="audio/mpeg"/>
      <itunes:author>Galef, Julia</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/msQmToY0OHPh8Lh9Fe3ckc76MP0nKhy_DBpoXGkDGDU/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9jNjQ1/OTBjMTA4ODIzNmFl/YWFmNzMxYTc2NDc3/MmY2Yy53ZWJw.jpg"/>
      <itunes:duration>142</itunes:duration>
      <itunes:summary>
        <![CDATA[Tanto el soldado como el explorador son fundamentales en los ejércitos. Atacar, defender y obedecer órdenes son esenciales al primero. El explorador, en cambio, es quien sale a reconocer el terreno y a identificar posibles obstáculos: su trabajo es comprender. Estos papeles opuestos pueden usarse para explicar las mentalidades que adoptamos cuando procesamos la información. La mentalidad del soldado, por ejemplo, fue la que incentivó las acusaciones del famoso caso Dreyfus. El hecho de que Dreyfus fuera el único oficial judío en un ejército mayoritariamente antisemita determinó que fuera declarado culpable en un caso de alta traición. Tiempo después, el coronel Picquart encontró pruebas que acusaban a otro oficial y, adoptando la mentalidad del explorador, decidió investigar la verdad y logró que absolvieran a Dreyfus. Es importante notar que la diferencia entre estas dos mentalidades no es intelectual, sino emocional. Si queremos mejorar nuestro juicio como individuos y como sociedad, necesitamos adoptar la mentalidad del explorador.]]>
      </itunes:summary>
      <itunes:keywords>mentalidad del explorador</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Insensibilidad al alcance: no apreciar el número de quienes necesitan nuestra ayuda</title>
      <itunes:episode>14</itunes:episode>
      <podcast:episode>14</podcast:episode>
      <itunes:title>Insensibilidad al alcance: no apreciar el número de quienes necesitan nuestra ayuda</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">404e3932-24fa-4eec-a703-6b37cb008014</guid>
      <link>https://share.transistor.fm/s/cab6608d</link>
      <description>
        <![CDATA[La gente suele tener dificultades para visualizar la diferencia entre cantidades muy grandes. Según los psicólogos, el hecho se debe a un sesgo cognitivo llamado "insensibilidad al alcance". Este sesgo hace que no ajustemos nuestra valoración de un problema en proporción a su magnitud o escala, lo cual afecta particularmente nuestras opiniones sobre la ayuda que debemos ofrecer a los animales y nos lleva a tomar decisiones subóptimas en situaciones donde el objetivo es ayudar al mayor número posible de individuos.]]>
      </description>
      <content:encoded>
        <![CDATA[La gente suele tener dificultades para visualizar la diferencia entre cantidades muy grandes. Según los psicólogos, el hecho se debe a un sesgo cognitivo llamado "insensibilidad al alcance". Este sesgo hace que no ajustemos nuestra valoración de un problema en proporción a su magnitud o escala, lo cual afecta particularmente nuestras opiniones sobre la ayuda que debemos ofrecer a los animales y nos lleva a tomar decisiones subóptimas en situaciones donde el objetivo es ayudar al mayor número posible de individuos.]]>
      </content:encoded>
      <pubDate>Mon, 10 Apr 2023 00:00:00 +0000</pubDate>
      <author>Animal Ethics</author>
      <enclosure url="https://media.transistor.fm/cab6608d/7a126a09.mp3" length="11478252" type="audio/mpeg"/>
      <itunes:author>Animal Ethics</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/07w3PbxCC9g-H7kopItHAgKzZfSMslDT1wkpTN9x510/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9lMDUx/NjkwZGJkZTVkZjk3/NzBmNDk4NGI0ZWU0/OTEzMi53ZWJw.jpg"/>
      <itunes:duration>717</itunes:duration>
      <itunes:summary>
        <![CDATA[La gente suele tener dificultades para visualizar la diferencia entre cantidades muy grandes. Según los psicólogos, el hecho se debe a un sesgo cognitivo llamado "insensibilidad al alcance". Este sesgo hace que no ajustemos nuestra valoración de un problema en proporción a su magnitud o escala, lo cual afecta particularmente nuestras opiniones sobre la ayuda que debemos ofrecer a los animales y nos lleva a tomar decisiones subóptimas en situaciones donde el objetivo es ayudar al mayor número posible de individuos.]]>
      </itunes:summary>
      <itunes:keywords>insensibilidad al alcance, sesgos cognitivos, bienestar animal</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Acerca de lo que nos preocupa</title>
      <itunes:episode>13</itunes:episode>
      <podcast:episode>13</podcast:episode>
      <itunes:title>Acerca de lo que nos preocupa</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">ca19e3bb-7ade-4010-83a5-11510eb215f9</guid>
      <link>https://share.transistor.fm/s/62c709ab</link>
      <description>
        <![CDATA[La insensibilidad al alcance es un obstáculo que impide ampliar la escala de nuestra preocupación cuando estamos frente a una catástrofe moral que involucra a grandes cantidades de individuos. Dado que psicológicamente no podemos sentir un grado de preocupación acorde a la importancia de los problemas más importantes del mundo, el único recurso racional para comprender y abordar estos problemas es asignarles un número y multiplicar. Al hacer las cuentas se hace evidente que problemas como la pobreza global o el destino de las generaciones futuras merecen más recursos de los que se les dedican actualmente.]]>
      </description>
      <content:encoded>
        <![CDATA[La insensibilidad al alcance es un obstáculo que impide ampliar la escala de nuestra preocupación cuando estamos frente a una catástrofe moral que involucra a grandes cantidades de individuos. Dado que psicológicamente no podemos sentir un grado de preocupación acorde a la importancia de los problemas más importantes del mundo, el único recurso racional para comprender y abordar estos problemas es asignarles un número y multiplicar. Al hacer las cuentas se hace evidente que problemas como la pobreza global o el destino de las generaciones futuras merecen más recursos de los que se les dedican actualmente.]]>
      </content:encoded>
      <pubDate>Mon, 03 Apr 2023 00:00:00 +0000</pubDate>
      <author>Soares, Nate</author>
      <enclosure url="https://media.transistor.fm/62c709ab/9c0db3e2.mp3" length="21084152" type="audio/mpeg"/>
      <itunes:author>Soares, Nate</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/3XGcy5sxI2jL3MIMpn5n7R2BdZyz94oFsNWcry7-_24/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9hNTZi/YjRmM2MxYjQwODhl/Yjc5NTNjY2UyZTY1/NGVkNS53ZWJw.jpg"/>
      <itunes:duration>1317</itunes:duration>
      <itunes:summary>
        <![CDATA[La insensibilidad al alcance es un obstáculo que impide ampliar la escala de nuestra preocupación cuando estamos frente a una catástrofe moral que involucra a grandes cantidades de individuos. Dado que psicológicamente no podemos sentir un grado de preocupación acorde a la importancia de los problemas más importantes del mundo, el único recurso racional para comprender y abordar estos problemas es asignarles un número y multiplicar. Al hacer las cuentas se hace evidente que problemas como la pobreza global o el destino de las generaciones futuras merecen más recursos de los que se les dedican actualmente.]]>
      </itunes:summary>
      <itunes:keywords>insensibilidad al alcance, riesgo existencial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>El mundo es horrible. El mundo está mucho mejor. El mundo puede estar mucho mejor.</title>
      <itunes:episode>12</itunes:episode>
      <podcast:episode>12</podcast:episode>
      <itunes:title>El mundo es horrible. El mundo está mucho mejor. El mundo puede estar mucho mejor.</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">946b5de5-4ae1-4150-8ddc-78349a63b88f</guid>
      <link>https://share.transistor.fm/s/8c27b8e0</link>
      <description>
        <![CDATA[Es un error suponer que estas tres afirmaciones se contradicen. Tenemos que entender que son todas ciertas para ver que un mundo mejor es posible.]]>
      </description>
      <content:encoded>
        <![CDATA[Es un error suponer que estas tres afirmaciones se contradicen. Tenemos que entender que son todas ciertas para ver que un mundo mejor es posible.]]>
      </content:encoded>
      <pubDate>Mon, 27 Mar 2023 00:00:00 +0000</pubDate>
      <author>Roser, Max</author>
      <enclosure url="https://media.transistor.fm/8c27b8e0/9cc1e6d3.mp3" length="10458843" type="audio/mpeg"/>
      <itunes:author>Roser, Max</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/bpM9v4wCxOe3L7ZJeuCjJ-zB1xK5aJRQ6PZf-quTwGw/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS85YTQ0/MmM0MGFkZTE2MjA5/M2RkMTgzODhjZjAw/MDYwMy53ZWJw.jpg"/>
      <itunes:duration>653</itunes:duration>
      <itunes:summary>
        <![CDATA[Es un error suponer que estas tres afirmaciones se contradicen. Tenemos que entender que son todas ciertas para ver que un mundo mejor es posible.]]>
      </itunes:summary>
      <itunes:keywords>salud y desarrollo globales, estudios sobre el progreso, pobreza global</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Cuatro ideas con las que ya estás de acuerdo</title>
      <itunes:episode>11</itunes:episode>
      <podcast:episode>11</podcast:episode>
      <itunes:title>Cuatro ideas con las que ya estás de acuerdo</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">66cba576-11fa-4dcf-9da7-761c2e775e4a</guid>
      <link>https://share.transistor.fm/s/bd521a7a</link>
      <description>
        <![CDATA[Este artículo presenta cuatro ideas con las que probablemente el lector estará de acuerdo de antemano. Tres de ellas tienen que ver con los valores y la cuarta es una observación sobre el mundo. Por separado, pueden parecer evidentes, pero tomadas en conjunto tienen implicaciones significativas para nuestra forma de pensar sobre cómo hacer el bien en el mundo.]]>
      </description>
      <content:encoded>
        <![CDATA[Este artículo presenta cuatro ideas con las que probablemente el lector estará de acuerdo de antemano. Tres de ellas tienen que ver con los valores y la cuarta es una observación sobre el mundo. Por separado, pueden parecer evidentes, pero tomadas en conjunto tienen implicaciones significativas para nuestra forma de pensar sobre cómo hacer el bien en el mundo.]]>
      </content:encoded>
      <pubDate>Mon, 20 Mar 2023 00:00:00 +0000</pubDate>
      <author>Deere, Sam</author>
      <enclosure url="https://media.transistor.fm/bd521a7a/22b1b4d1.mp3" length="15825241" type="audio/mpeg"/>
      <itunes:author>Deere, Sam</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/1QoGZIKPaDLp8X70BgqVGYaELsR22GUf15JX5DRoUlw/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS85MWRh/Y2RmODJlZDNkZWU5/NTFiZTc2ZTE0YjVk/NmVhMS53ZWJw.jpg"/>
      <itunes:duration>791</itunes:duration>
      <itunes:summary>
        <![CDATA[Este artículo presenta cuatro ideas con las que probablemente el lector estará de acuerdo de antemano. Tres de ellas tienen que ver con los valores y la cuarta es una observación sobre el mundo. Por separado, pueden parecer evidentes, pero tomadas en conjunto tienen implicaciones significativas para nuestra forma de pensar sobre cómo hacer el bien en el mundo.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz, igual consideración de intereses, insensibilidad al alcance</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>¿Qué es el altruismo eficaz?</title>
      <itunes:episode>10</itunes:episode>
      <podcast:episode>10</podcast:episode>
      <itunes:title>¿Qué es el altruismo eficaz?</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">d65670bf-eb1d-4731-a23a-003140f74200</guid>
      <link>https://share.transistor.fm/s/4e189083</link>
      <description>
        <![CDATA[El altruismo eficaz es tanto un campo de investigación como una comunidad práctica. Su objetivo es encontrar las mejores formas de ayudar a los demás y ponerlas en práctica. Su estrategia consiste en dar prioridad a los problemas desatendidos de gran escala y tratabilidad, considerando imparcialmente los intereses de todas las partes, con un compromiso de búsqueda abierta de la verdad y un espíritu de colaboración. El movimiento ya ha cosechado éxitos en ámbitos como la prevención de la próxima pandemia, la provisión de suministros médicos básicos en países pobres, la ayuda a la creación del campo de investigación de la alineación de la IA, el fin de la cría intensiva de animales y la mejora de la toma de decisiones.]]>
      </description>
      <content:encoded>
        <![CDATA[El altruismo eficaz es tanto un campo de investigación como una comunidad práctica. Su objetivo es encontrar las mejores formas de ayudar a los demás y ponerlas en práctica. Su estrategia consiste en dar prioridad a los problemas desatendidos de gran escala y tratabilidad, considerando imparcialmente los intereses de todas las partes, con un compromiso de búsqueda abierta de la verdad y un espíritu de colaboración. El movimiento ya ha cosechado éxitos en ámbitos como la prevención de la próxima pandemia, la provisión de suministros médicos básicos en países pobres, la ayuda a la creación del campo de investigación de la alineación de la IA, el fin de la cría intensiva de animales y la mejora de la toma de decisiones.]]>
      </content:encoded>
      <pubDate>Mon, 13 Mar 2023 00:00:00 +0000</pubDate>
      <author>Centre for Effective Altruism</author>
      <enclosure url="https://media.transistor.fm/4e189083/4de348c7.mp3" length="29165799" type="audio/mpeg"/>
      <itunes:author>Centre for Effective Altruism</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/kZRTo_fLNz9HGYAbodlEyeGmu-6ED6G68vcph_pJE1Q/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8zMTA5/ZGRlOGQ1NmE3OTBm/NTU0NGNmMzMxMzI2/ZjA0Zi53ZWJw.jpg"/>
      <itunes:duration>1822</itunes:duration>
      <itunes:summary>
        <![CDATA[El altruismo eficaz es tanto un campo de investigación como una comunidad práctica. Su objetivo es encontrar las mejores formas de ayudar a los demás y ponerlas en práctica. Su estrategia consiste en dar prioridad a los problemas desatendidos de gran escala y tratabilidad, considerando imparcialmente los intereses de todas las partes, con un compromiso de búsqueda abierta de la verdad y un espíritu de colaboración. El movimiento ya ha cosechado éxitos en ámbitos como la prevención de la próxima pandemia, la provisión de suministros médicos básicos en países pobres, la ayuda a la creación del campo de investigación de la alineación de la IA, el fin de la cría intensiva de animales y la mejora de la toma de decisiones.]]>
      </itunes:summary>
      <itunes:keywords>altruismo eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Resumen de Wild Animal Ethics</title>
      <itunes:episode>9</itunes:episode>
      <podcast:episode>9</podcast:episode>
      <itunes:title>Resumen de Wild Animal Ethics</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">78b24616-2966-447f-8ef8-7b421bca4090</guid>
      <link>https://share.transistor.fm/s/fe4c87f6</link>
      <description>
        <![CDATA[El libro Wild Animal Ethics tiene el propósito de defender un enfoque tanto deontológico como intervencionista del problema del sufrimiento de los animales salvajes. Los animales salvajes viven en ecosistemas plagados de procesos que implican cantidades enormes de sufrimiento. De acuerdo con consideraciones relacionadas con la moral y la beneficencia, tenemos el deber colectivo de investigar y, en última instancia, brindar ayuda humanitaria a gran escala a los seres que se hallan en una situación tan extremadamente desfavorable.]]>
      </description>
      <content:encoded>
        <![CDATA[El libro Wild Animal Ethics tiene el propósito de defender un enfoque tanto deontológico como intervencionista del problema del sufrimiento de los animales salvajes. Los animales salvajes viven en ecosistemas plagados de procesos que implican cantidades enormes de sufrimiento. De acuerdo con consideraciones relacionadas con la moral y la beneficencia, tenemos el deber colectivo de investigar y, en última instancia, brindar ayuda humanitaria a gran escala a los seres que se hallan en una situación tan extremadamente desfavorable.]]>
      </content:encoded>
      <pubDate>Mon, 06 Mar 2023 00:00:00 +0000</pubDate>
      <author>Johannsen, Kyle</author>
      <enclosure url="https://media.transistor.fm/fe4c87f6/e53bfa81.mp3" length="20876653" type="audio/mpeg"/>
      <itunes:author>Johannsen, Kyle</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/Cc6vr3rUrWjNu_WNH3_Ye3UxS2Gq-czHnwQA4B2Srtw/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS83ZTQ4/YzE3ODNhMmNmYjVl/NmNiNGQ3Y2RkNmMz/NDc3Zi53ZWJw.jpg"/>
      <itunes:duration>1304</itunes:duration>
      <itunes:summary>
        <![CDATA[El libro Wild Animal Ethics tiene el propósito de defender un enfoque tanto deontológico como intervencionista del problema del sufrimiento de los animales salvajes. Los animales salvajes viven en ecosistemas plagados de procesos que implican cantidades enormes de sufrimiento. De acuerdo con consideraciones relacionadas con la moral y la beneficencia, tenemos el deber colectivo de investigar y, en última instancia, brindar ayuda humanitaria a gran escala a los seres que se hallan en una situación tan extremadamente desfavorable.]]>
      </itunes:summary>
      <itunes:keywords>bienestar de los animales salvajes</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>La diversificación de la cosmovisión</title>
      <itunes:episode>8</itunes:episode>
      <podcast:episode>8</podcast:episode>
      <itunes:title>La diversificación de la cosmovisión</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">28c4be87-7fcb-40a4-a88c-6de8ac62d81a</guid>
      <link>https://share.transistor.fm/s/9e5cd783</link>
      <description>
        <![CDATA[La búsqueda de las mejores oportunidades para donar suele hacerse comparando diferentes posibilidades, pero tales comparaciones dependen de cuestiones muy inciertas. Fundamentalmente, diferentes cosmovisiones, o conjuntos de creencias, favorecen diferentes donaciones, porque priorizan problemas diversos, como las necesidades de los pobres del mundo, el bienestar de los animales en granjas, la reducción de riesgos catastróficos globales, etc. Al decidir entre las diferentes cosmovisiones, se podría argumentar que deberíamos elegir la que consideramos la mejor para centrarnos en ella, pero hay varias razones para pensar que los grandes donantes deberían optar por diversificar la cosmovisión, es decir, asignar recursos a cada cosmovisión que consideramos lo suficientemente razonable. Sobre todo, la diversificación de la cosmovisión puede maximizar el valor esperado en situaciones donde (a) tenemos una gran incertidumbre y encontramos múltiples cosmovisiones altamente plausibles y (b) habría rendimientos muy decrecientes si pusiéramos todos nuestros recursos en una única cosmovisión.]]>
      </description>
      <content:encoded>
        <![CDATA[La búsqueda de las mejores oportunidades para donar suele hacerse comparando diferentes posibilidades, pero tales comparaciones dependen de cuestiones muy inciertas. Fundamentalmente, diferentes cosmovisiones, o conjuntos de creencias, favorecen diferentes donaciones, porque priorizan problemas diversos, como las necesidades de los pobres del mundo, el bienestar de los animales en granjas, la reducción de riesgos catastróficos globales, etc. Al decidir entre las diferentes cosmovisiones, se podría argumentar que deberíamos elegir la que consideramos la mejor para centrarnos en ella, pero hay varias razones para pensar que los grandes donantes deberían optar por diversificar la cosmovisión, es decir, asignar recursos a cada cosmovisión que consideramos lo suficientemente razonable. Sobre todo, la diversificación de la cosmovisión puede maximizar el valor esperado en situaciones donde (a) tenemos una gran incertidumbre y encontramos múltiples cosmovisiones altamente plausibles y (b) habría rendimientos muy decrecientes si pusiéramos todos nuestros recursos en una única cosmovisión.]]>
      </content:encoded>
      <pubDate>Mon, 27 Feb 2023 00:00:00 +0000</pubDate>
      <author>Karnofsky, Holden</author>
      <enclosure url="https://media.transistor.fm/9e5cd783/8768e100.mp3" length="45443444" type="audio/mpeg"/>
      <itunes:author>Karnofsky, Holden</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/RiJSAh5ktiXi_w1O5qZD7NzDW95dpNLLvGVCc_c9z68/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS85Zjcy/YWVlODI4OTQ5ZWUz/ZmQwYjgyOWJkYzU5/NGJkNy53ZWJw.jpg"/>
      <itunes:duration>2839</itunes:duration>
      <itunes:summary>
        <![CDATA[La búsqueda de las mejores oportunidades para donar suele hacerse comparando diferentes posibilidades, pero tales comparaciones dependen de cuestiones muy inciertas. Fundamentalmente, diferentes cosmovisiones, o conjuntos de creencias, favorecen diferentes donaciones, porque priorizan problemas diversos, como las necesidades de los pobres del mundo, el bienestar de los animales en granjas, la reducción de riesgos catastróficos globales, etc. Al decidir entre las diferentes cosmovisiones, se podría argumentar que deberíamos elegir la que consideramos la mejor para centrarnos en ella, pero hay varias razones para pensar que los grandes donantes deberían optar por diversificar la cosmovisión, es decir, asignar recursos a cada cosmovisión que consideramos lo suficientemente razonable. Sobre todo, la diversificación de la cosmovisión puede maximizar el valor esperado en situaciones donde (a) tenemos una gran incertidumbre y encontramos múltiples cosmovisiones altamente plausibles y (b) habría rendimientos muy decrecientes si pusiéramos todos nuestros recursos en una única cosmovisión.]]>
      </itunes:summary>
      <itunes:keywords>priorización de causas, diversificación filantrópica, incertidumbre moral, valor de opción</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Desperdicio astronómico: el costo de oportunidad de retrasar el desarrollo tecnológico</title>
      <itunes:episode>7</itunes:episode>
      <podcast:episode>7</podcast:episode>
      <itunes:title>Desperdicio astronómico: el costo de oportunidad de retrasar el desarrollo tecnológico</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">2e365a2e-31db-40d0-af2d-c2264783c6b8</guid>
      <link>https://share.transistor.fm/s/6485051e</link>
      <description>
        <![CDATA[Con una tecnología muy avanzada, se podría mantener una población muy numerosa de personas que vivieran felices en la región accesible del universo. Por cada año que se retrasa el desarrollo de estas tecnologías y la colonización del universo, existe, por tanto, un costo de oportunidad: un bien potencial —una vida con un saldo positivo de bienestar— no se hace realidad. Dados algunos supuestos plausibles, este costo es extremadamente elevado. Sin embargo, la lección para los utilitaristas no es que debamos maximizar el ritmo del desarrollo tecnológico, sino que debemos maximizar su seguridad, es decir, la probabilidad de que la colonización se produzca en algún momento futuro. Este objetivo tiene una utilidad tan grande que los utilitaristas clásicos deben centrar todos sus esfuerzos en él. Los utilitaristas que adopten un enfoque "centrado en las personas afectadas" deberían aceptar una versión modificada de esta conclusión. Algunas posturas éticas mixtas, que combinan consideraciones utilitaristas con otros criterios, también se verán comprometidas con un resultado similar.]]>
      </description>
      <content:encoded>
        <![CDATA[Con una tecnología muy avanzada, se podría mantener una población muy numerosa de personas que vivieran felices en la región accesible del universo. Por cada año que se retrasa el desarrollo de estas tecnologías y la colonización del universo, existe, por tanto, un costo de oportunidad: un bien potencial —una vida con un saldo positivo de bienestar— no se hace realidad. Dados algunos supuestos plausibles, este costo es extremadamente elevado. Sin embargo, la lección para los utilitaristas no es que debamos maximizar el ritmo del desarrollo tecnológico, sino que debemos maximizar su seguridad, es decir, la probabilidad de que la colonización se produzca en algún momento futuro. Este objetivo tiene una utilidad tan grande que los utilitaristas clásicos deben centrar todos sus esfuerzos en él. Los utilitaristas que adopten un enfoque "centrado en las personas afectadas" deberían aceptar una versión modificada de esta conclusión. Algunas posturas éticas mixtas, que combinan consideraciones utilitaristas con otros criterios, también se verán comprometidas con un resultado similar.]]>
      </content:encoded>
      <pubDate>Mon, 20 Feb 2023 00:00:00 +0000</pubDate>
      <author>Bostrom, Nick</author>
      <enclosure url="https://media.transistor.fm/6485051e/2f3c7690.mp3" length="21459238" type="audio/mpeg"/>
      <itunes:author>Bostrom, Nick</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/Uqgc7Hi5pW6S0O03DPSEz1ZXsIzEtAgSJ8BaxiIOzPQ/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9iNDA2/YWI1OWZjYmVjOTg3/MGE0MDdhODkxNGQw/NDJmZi53ZWJw.jpg"/>
      <itunes:duration>1340</itunes:duration>
      <itunes:summary>
        <![CDATA[Con una tecnología muy avanzada, se podría mantener una población muy numerosa de personas que vivieran felices en la región accesible del universo. Por cada año que se retrasa el desarrollo de estas tecnologías y la colonización del universo, existe, por tanto, un costo de oportunidad: un bien potencial —una vida con un saldo positivo de bienestar— no se hace realidad. Dados algunos supuestos plausibles, este costo es extremadamente elevado. Sin embargo, la lección para los utilitaristas no es que debamos maximizar el ritmo del desarrollo tecnológico, sino que debemos maximizar su seguridad, es decir, la probabilidad de que la colonización se produzca en algún momento futuro. Este objetivo tiene una utilidad tan grande que los utilitaristas clásicos deben centrar todos sus esfuerzos en él. Los utilitaristas que adopten un enfoque "centrado en las personas afectadas" deberían aceptar una versión modificada de esta conclusión. Algunas posturas éticas mixtas, que combinan consideraciones utilitaristas con otros criterios, también se verán comprometidas con un resultado similar.]]>
      </itunes:summary>
      <itunes:keywords>desperdicio astronómico, riesgo existencial, priorización de causas, cambios de trayectoria, largoplacismo, colonización del espacio, ética del riesgo existencial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Riesgos existenciales para la humanidad</title>
      <itunes:episode>6</itunes:episode>
      <podcast:episode>6</podcast:episode>
      <itunes:title>Riesgos existenciales para la humanidad</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">7af2e95a-c36e-4b93-a58e-8a010e299d85</guid>
      <link>https://share.transistor.fm/s/61ea06d7</link>
      <description>
        <![CDATA[Al igual que todas las especies, la humanidad siempre ha estado expuesta a las catástrofes naturales y al riesgo de extinción. Pero durante el siglo veinte, su poder ha aumentado hasta el punto de constituir un peligro para sí misma, ya que se ha vuelto capaz de destruirse a sí misma o de provocar un colapso que elimine para siempre la posibilidad de realizar su potencial. Entre los riesgos naturales destacan los asteroides, los supervolcanes y los cometas. Los riesgos antropogénicos conocidos —que representan probablemente un peligro mayor— son el riesgo nuclear, el cambio climático extremo, las pandemias, las armas biológicas, la inteligencia artificial avanzada y la nanotecnología. Aun en los casos mejor estudiados, como el del cambio climático, el esfuerzo actual no es proporcional a la importancia del asunto. Una de las razones de esta desatención es que la mayoría de los riesgos caen fuera del alcance de una única nación y hacen necesaria la cooperación internacional, que es difícil y más lenta que el avance tecnológico. Por otro lado, el concepto mismo de riesgo existencial es reciente y no está del todo presente en la conciencia de la humanidad. La mayor parte del riesgo que enfrentamos actualmente es antropogénico, pero esto puede ser una ventaja, porque este riesgo, a diferencia del riesgo natural, surge de actividades humanas que podríamos detener si realmente nos lo propusiéramos.]]>
      </description>
      <content:encoded>
        <![CDATA[Al igual que todas las especies, la humanidad siempre ha estado expuesta a las catástrofes naturales y al riesgo de extinción. Pero durante el siglo veinte, su poder ha aumentado hasta el punto de constituir un peligro para sí misma, ya que se ha vuelto capaz de destruirse a sí misma o de provocar un colapso que elimine para siempre la posibilidad de realizar su potencial. Entre los riesgos naturales destacan los asteroides, los supervolcanes y los cometas. Los riesgos antropogénicos conocidos —que representan probablemente un peligro mayor— son el riesgo nuclear, el cambio climático extremo, las pandemias, las armas biológicas, la inteligencia artificial avanzada y la nanotecnología. Aun en los casos mejor estudiados, como el del cambio climático, el esfuerzo actual no es proporcional a la importancia del asunto. Una de las razones de esta desatención es que la mayoría de los riesgos caen fuera del alcance de una única nación y hacen necesaria la cooperación internacional, que es difícil y más lenta que el avance tecnológico. Por otro lado, el concepto mismo de riesgo existencial es reciente y no está del todo presente en la conciencia de la humanidad. La mayor parte del riesgo que enfrentamos actualmente es antropogénico, pero esto puede ser una ventaja, porque este riesgo, a diferencia del riesgo natural, surge de actividades humanas que podríamos detener si realmente nos lo propusiéramos.]]>
      </content:encoded>
      <pubDate>Mon, 13 Feb 2023 00:00:00 +0000</pubDate>
      <author>Ord, Toby</author>
      <enclosure url="https://media.transistor.fm/61ea06d7/f1c8ecb4.mp3" length="26157047" type="audio/mpeg"/>
      <itunes:author>Ord, Toby</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/Dl67uPipKLOL-LnELeL-tbHym2BavQ590INAm4pkWEI/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS85NGY1/MTM2OTYyZmQyOTlj/NDM3MTgwZTdiYTg5/NjBmZC53ZWJw.jpg"/>
      <itunes:duration>1634</itunes:duration>
      <itunes:summary>
        <![CDATA[Al igual que todas las especies, la humanidad siempre ha estado expuesta a las catástrofes naturales y al riesgo de extinción. Pero durante el siglo veinte, su poder ha aumentado hasta el punto de constituir un peligro para sí misma, ya que se ha vuelto capaz de destruirse a sí misma o de provocar un colapso que elimine para siempre la posibilidad de realizar su potencial. Entre los riesgos naturales destacan los asteroides, los supervolcanes y los cometas. Los riesgos antropogénicos conocidos —que representan probablemente un peligro mayor— son el riesgo nuclear, el cambio climático extremo, las pandemias, las armas biológicas, la inteligencia artificial avanzada y la nanotecnología. Aun en los casos mejor estudiados, como el del cambio climático, el esfuerzo actual no es proporcional a la importancia del asunto. Una de las razones de esta desatención es que la mayoría de los riesgos caen fuera del alcance de una única nación y hacen necesaria la cooperación internacional, que es difícil y más lenta que el avance tecnológico. Por otro lado, el concepto mismo de riesgo existencial es reciente y no está del todo presente en la conciencia de la humanidad. La mayor parte del riesgo que enfrentamos actualmente es antropogénico, pero esto puede ser una ventaja, porque este riesgo, a diferencia del riesgo natural, surge de actividades humanas que podríamos detener si realmente nos lo propusiéramos.]]>
      </itunes:summary>
      <itunes:keywords>riesgo existencial, catástrofe existencial</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>El argumento a favor del largoplacismo y la salvaguarda del futuro</title>
      <itunes:episode>5</itunes:episode>
      <podcast:episode>5</podcast:episode>
      <itunes:title>El argumento a favor del largoplacismo y la salvaguarda del futuro</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">ad3c8005-f590-437b-be0d-50d90e09aa8d</guid>
      <link>https://share.transistor.fm/s/6420e9d8</link>
      <description>
        <![CDATA[Para los filántropos que buscan hacer el mayor bien posible, pocas oportunidades parecen tan importantes como aumentar la probabilidad de que la humanidad alcance su potencial. Las oportunidades de donación en este espacio están desatendidas y, en consecuencia, ofrecen a los filántropos una excelente oportunidad para tener un enorme impacto.]]>
      </description>
      <content:encoded>
        <![CDATA[Para los filántropos que buscan hacer el mayor bien posible, pocas oportunidades parecen tan importantes como aumentar la probabilidad de que la humanidad alcance su potencial. Las oportunidades de donación en este espacio están desatendidas y, en consecuencia, ofrecen a los filántropos una excelente oportunidad para tener un enorme impacto.]]>
      </content:encoded>
      <pubDate>Mon, 06 Feb 2023 00:00:00 +0000</pubDate>
      <author>Clare, Stephen y Hoeijmakers, Sjir</author>
      <enclosure url="https://media.transistor.fm/6420e9d8/6fcd3f1e.mp3" length="14600594" type="audio/mpeg"/>
      <itunes:author>Clare, Stephen y Hoeijmakers, Sjir</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/EcRrXMcpsJ2fqvMEScq7ouirw6GLtv45ggcTfqA-02o/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9hYzI5/MzM1MDg2MjliZTY3/NjdmMzJiYmRlMzM2/OTI2OS53ZWJw.jpg"/>
      <itunes:duration>912</itunes:duration>
      <itunes:summary>
        <![CDATA[Para los filántropos que buscan hacer el mayor bien posible, pocas oportunidades parecen tan importantes como aumentar la probabilidad de que la humanidad alcance su potencial. Las oportunidades de donación en este espacio están desatendidas y, en consecuencia, ofrecen a los filántropos una excelente oportunidad para tener un enorme impacto.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo, futuro a largo plazo</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Argumentos a favor del largoplacismo</title>
      <itunes:episode>4</itunes:episode>
      <podcast:episode>4</podcast:episode>
      <itunes:title>Argumentos a favor del largoplacismo</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">6d90bfc8-51f5-418a-a982-e449783eaeda</guid>
      <link>https://share.transistor.fm/s/79536b8a</link>
      <description>
        <![CDATA[La vida de la especie humana recién está comenzando, es decir, la gran mayoría de los individuos existirán en el futuro. Como la moral consiste esencialmente en ponerse en el lugar de los otros, si hacemos este ejercicio de empatía de manera radical, veremos que el futuro pasa a un primer plano. El largoplacismo es la idea de que influir positivamente sobre el futuro a largo plazo es una prioridad moral clave de nuestro tiempo. La preocupación por el futuro, sin embargo, no implica desatender los problemas del presente, porque hay una notable coincidencia entre las mejores formas de promover el bien común para quienes viven hoy y las mejores formas de promoverlo para quienes vivirán en el futuro. Disminuir el uso de combustibles fósiles, que actualmente causan la muerte de miles de personas, es beneficioso para el corto y el largo plazo, y lo mismo ocurre con la prevención de pandemias, el control de la inteligencia artificial y la disminución del riesgo de guerra nuclear.]]>
      </description>
      <content:encoded>
        <![CDATA[La vida de la especie humana recién está comenzando, es decir, la gran mayoría de los individuos existirán en el futuro. Como la moral consiste esencialmente en ponerse en el lugar de los otros, si hacemos este ejercicio de empatía de manera radical, veremos que el futuro pasa a un primer plano. El largoplacismo es la idea de que influir positivamente sobre el futuro a largo plazo es una prioridad moral clave de nuestro tiempo. La preocupación por el futuro, sin embargo, no implica desatender los problemas del presente, porque hay una notable coincidencia entre las mejores formas de promover el bien común para quienes viven hoy y las mejores formas de promoverlo para quienes vivirán en el futuro. Disminuir el uso de combustibles fósiles, que actualmente causan la muerte de miles de personas, es beneficioso para el corto y el largo plazo, y lo mismo ocurre con la prevención de pandemias, el control de la inteligencia artificial y la disminución del riesgo de guerra nuclear.]]>
      </content:encoded>
      <pubDate>Mon, 30 Jan 2023 00:00:00 +0000</pubDate>
      <author>MacAskill, William</author>
      <enclosure url="https://media.transistor.fm/79536b8a/e1fa44c1.mp3" length="23627252" type="audio/mpeg"/>
      <itunes:author>MacAskill, William</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/ykOu81ruQAfxW_b_iCjtTNGNfXfHfSq9FMDWqtskhcs/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS81ZWUw/MDhiZjNhNjYwZjU3/OWNhYTM0M2YzMTZi/NjgxZS53ZWJw.jpg"/>
      <itunes:duration>1476</itunes:duration>
      <itunes:summary>
        <![CDATA[La vida de la especie humana recién está comenzando, es decir, la gran mayoría de los individuos existirán en el futuro. Como la moral consiste esencialmente en ponerse en el lugar de los otros, si hacemos este ejercicio de empatía de manera radical, veremos que el futuro pasa a un primer plano. El largoplacismo es la idea de que influir positivamente sobre el futuro a largo plazo es una prioridad moral clave de nuestro tiempo. La preocupación por el futuro, sin embargo, no implica desatender los problemas del presente, porque hay una notable coincidencia entre las mejores formas de promover el bien común para quienes viven hoy y las mejores formas de promoverlo para quienes vivirán en el futuro. Disminuir el uso de combustibles fósiles, que actualmente causan la muerte de miles de personas, es beneficioso para el corto y el largo plazo, y lo mismo ocurre con la prevención de pandemias, el control de la inteligencia artificial y la disminución del riesgo de guerra nuclear.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>¿Qué es el largoplacismo?</title>
      <itunes:episode>3</itunes:episode>
      <podcast:episode>3</podcast:episode>
      <itunes:title>¿Qué es el largoplacismo?</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">b2932d9c-816a-4464-8cc8-59df55262203</guid>
      <link>https://share.transistor.fm/s/4ef7fd30</link>
      <description>
        <![CDATA[El largoplacismo es la idea de que tener una influencia positiva en el futuro lejano es una prioridad moral clave de nuestro tiempo. Hay dos razones que justifican esta postura: las personas del futuro importan moralmente y su número será enorme, quizá millones de veces el número actual. Ahora bien, si queremos ejercer dicha influencia, el primer paso es reducir el riesgo de extinción humana. Una de las mayores amenazas son las pandemias. Para protegernos contra ellas, hay muchas cosas podemos hacer ahora, por ejemplo, trabajar en la preparación frente a las pandemias. El siguiente paso es garantizar que la civilización futura prospere. El desarrollo de la inteligencia artificial podría ser un obstáculo si no se toman precauciones. De modo que trabajar para que los sistemas sean seguros es otra forma de contribuir con el futuro. Todos estos esfuerzos no implican desatender los intereses de quienes existen en la actualidad, ya que las acciones enfocadas en el futuro lejano —como prevenir pandemias, o desarrollar energías limpias— también suelen ofrecer beneficios en el presente.]]>
      </description>
      <content:encoded>
        <![CDATA[El largoplacismo es la idea de que tener una influencia positiva en el futuro lejano es una prioridad moral clave de nuestro tiempo. Hay dos razones que justifican esta postura: las personas del futuro importan moralmente y su número será enorme, quizá millones de veces el número actual. Ahora bien, si queremos ejercer dicha influencia, el primer paso es reducir el riesgo de extinción humana. Una de las mayores amenazas son las pandemias. Para protegernos contra ellas, hay muchas cosas podemos hacer ahora, por ejemplo, trabajar en la preparación frente a las pandemias. El siguiente paso es garantizar que la civilización futura prospere. El desarrollo de la inteligencia artificial podría ser un obstáculo si no se toman precauciones. De modo que trabajar para que los sistemas sean seguros es otra forma de contribuir con el futuro. Todos estos esfuerzos no implican desatender los intereses de quienes existen en la actualidad, ya que las acciones enfocadas en el futuro lejano —como prevenir pandemias, o desarrollar energías limpias— también suelen ofrecer beneficios en el presente.]]>
      </content:encoded>
      <pubDate>Mon, 23 Jan 2023 00:00:00 +0000</pubDate>
      <author>MacAskill, William</author>
      <enclosure url="https://media.transistor.fm/4ef7fd30/7c57c2d0.mp3" length="20833641" type="audio/mpeg"/>
      <itunes:author>MacAskill, William</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/NN671KVPfnRMKEzII4HxDXwfDMNrDfPEajtkQk-zwOA/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9mZjIy/MjdmODE5NmQzNTdh/YjQ5YmI3NjE5YzAz/ODczMi53ZWJw.jpg"/>
      <itunes:duration>1301</itunes:duration>
      <itunes:summary>
        <![CDATA[El largoplacismo es la idea de que tener una influencia positiva en el futuro lejano es una prioridad moral clave de nuestro tiempo. Hay dos razones que justifican esta postura: las personas del futuro importan moralmente y su número será enorme, quizá millones de veces el número actual. Ahora bien, si queremos ejercer dicha influencia, el primer paso es reducir el riesgo de extinción humana. Una de las mayores amenazas son las pandemias. Para protegernos contra ellas, hay muchas cosas podemos hacer ahora, por ejemplo, trabajar en la preparación frente a las pandemias. El siguiente paso es garantizar que la civilización futura prospere. El desarrollo de la inteligencia artificial podría ser un obstáculo si no se toman precauciones. De modo que trabajar para que los sistemas sean seguros es otra forma de contribuir con el futuro. Todos estos esfuerzos no implican desatender los intereses de quienes existen en la actualidad, ya que las acciones enfocadas en el futuro lejano —como prevenir pandemias, o desarrollar energías limpias— también suelen ofrecer beneficios en el presente.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo, extinción humana, cambios de trayectoria</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Orientándonos hacia el futuro a largo plazo</title>
      <itunes:episode>2</itunes:episode>
      <podcast:episode>2</podcast:episode>
      <itunes:title>Orientándonos hacia el futuro a largo plazo</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">29d41f95-8af4-49eb-bfa6-a9b489453ff7</guid>
      <link>https://share.transistor.fm/s/c17d1361</link>
      <description>
        <![CDATA[En esta charla, Joseph Carlsmith habla sobre la importancia del futuro a largo plazo y sobre las razones por las que algunas personas de la comunidad del altruismo eficaz se están enfocando en ese futuro.]]>
      </description>
      <content:encoded>
        <![CDATA[En esta charla, Joseph Carlsmith habla sobre la importancia del futuro a largo plazo y sobre las razones por las que algunas personas de la comunidad del altruismo eficaz se están enfocando en ese futuro.]]>
      </content:encoded>
      <pubDate>Mon, 16 Jan 2023 00:00:00 +0000</pubDate>
      <author>Carlsmith, Joseph</author>
      <enclosure url="https://media.transistor.fm/c17d1361/79819481.mp3" length="21774075" type="audio/mpeg"/>
      <itunes:author>Carlsmith, Joseph</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/mCu_iooyC4E2b6_qxVeOo13pdoTrmn_Jh6-kgDGJ7bo/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS8yZDFj/M2JmNmY1YTIxOTAy/ODkwNDA4M2QzNTJh/YjEwOS53ZWJw.jpg"/>
      <itunes:duration>1360</itunes:duration>
      <itunes:summary>
        <![CDATA[En esta charla, Joseph Carlsmith habla sobre la importancia del futuro a largo plazo y sobre las razones por las que algunas personas de la comunidad del altruismo eficaz se están enfocando en ese futuro.]]>
      </itunes:summary>
      <itunes:keywords>largoplacismo, futuro a largo plazo, extinción humana, ética de la población, descuento temporal, incertidumbre radical</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
    <item>
      <title>Caridad eficiente: trata a los demás…</title>
      <itunes:episode>1</itunes:episode>
      <podcast:episode>1</podcast:episode>
      <itunes:title>Caridad eficiente: trata a los demás…</itunes:title>
      <itunes:episodeType>full</itunes:episodeType>
      <guid isPermaLink="false">c3cc6b09-57d3-42a6-b545-661a2e7c79fe</guid>
      <link>https://share.transistor.fm/s/06a153ca</link>
      <description>
        <![CDATA[Si emprendiéramos una expedición al Ártico con un presupuesto limitado, tendríamos que prescindir de gastos superfluos y limitarnos a comprar las cosas esenciales para la supervivencia. Esta consideración económica, aunque parece obvia, no suele hacerse cuando se trata de tomar decisiones sobre las donaciones benéficas. Sin embargo, si nuestra aspiración es ayudar al prójimo, deberíamos esforzarnos por maximizar el beneficio de los demás del mismo modo que maximizamos nuestro propio beneficio al prepararnos para la expedición. Ambos casos requieren la misma conciencia de los costos de oportunidad y el mismo compromiso obstinado con el uso eficiente de los recursos. Y ambos también pueden considerarse una cuestión de vida o muerte.]]>
      </description>
      <content:encoded>
        <![CDATA[Si emprendiéramos una expedición al Ártico con un presupuesto limitado, tendríamos que prescindir de gastos superfluos y limitarnos a comprar las cosas esenciales para la supervivencia. Esta consideración económica, aunque parece obvia, no suele hacerse cuando se trata de tomar decisiones sobre las donaciones benéficas. Sin embargo, si nuestra aspiración es ayudar al prójimo, deberíamos esforzarnos por maximizar el beneficio de los demás del mismo modo que maximizamos nuestro propio beneficio al prepararnos para la expedición. Ambos casos requieren la misma conciencia de los costos de oportunidad y el mismo compromiso obstinado con el uso eficiente de los recursos. Y ambos también pueden considerarse una cuestión de vida o muerte.]]>
      </content:encoded>
      <pubDate>Mon, 09 Jan 2023 00:00:00 +0000</pubDate>
      <author>Alexander, Scott</author>
      <enclosure url="https://media.transistor.fm/06a153ca/19a27749.mp3" length="18537756" type="audio/mpeg"/>
      <itunes:author>Alexander, Scott</itunes:author>
      <itunes:image href="https://img.transistorcdn.com/DpP7BSWYt2_b_vJUt6o2GvqtpemTstcn3T-WO1Vv3R0/rs:fill:0:0:1/w:1400/h:1400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9iY2Yz/YjllODVhODRlM2E3/M2ZhNGIwZTcxMTM0/MGQ1My53ZWJw.jpg"/>
      <itunes:duration>1158</itunes:duration>
      <itunes:summary>
        <![CDATA[Si emprendiéramos una expedición al Ártico con un presupuesto limitado, tendríamos que prescindir de gastos superfluos y limitarnos a comprar las cosas esenciales para la supervivencia. Esta consideración económica, aunque parece obvia, no suele hacerse cuando se trata de tomar decisiones sobre las donaciones benéficas. Sin embargo, si nuestra aspiración es ayudar al prójimo, deberíamos esforzarnos por maximizar el beneficio de los demás del mismo modo que maximizamos nuestro propio beneficio al prepararnos para la expedición. Ambos casos requieren la misma conciencia de los costos de oportunidad y el mismo compromiso obstinado con el uso eficiente de los recursos. Y ambos también pueden considerarse una cuestión de vida o muerte.]]>
      </itunes:summary>
      <itunes:keywords>costo-eficacia, priorización de causas, donación eficaz</itunes:keywords>
      <itunes:explicit>No</itunes:explicit>
    </item>
  </channel>
</rss>
