Skip to main content

Corriendo con tijeras: La IA y la batalla por el futuro

La carrera para ser el primero en desarrollar e implementar la inteligencia artificial ha dejado a la reflexión ética atras. A través de las voces de estudiantes, expertos en IA, académicos y profesionales del sector, este documental explora los riesgos de priorizar la velocidad sobre la responsabilidad, y las salvaguardas éticas que pueden garantizar un mejor futuro para la humanidad.

Preguntas de discusión

  1. A medida que la inteligencia artificial (IA) emergente, impulsada por algoritmos, continúa expandiéndose, ¿estarán las personas mejor o peor de lo que están hoy? Fundamente su postura con ejemplos concretos.
  2. Cuando las organizaciones (empresas, organismos gubernamentales, instituciones educativas, etc.) adoptan nuevas tecnologías de IA sin tener en cuenta los contextos sociales, económicos, culturales y políticos más amplios, pueden poner en peligro la libertad humana y exacerbar las desigualdades de maneras difíciles de revertir. Proporcione un ejemplo de primera mano de esta situación o busque un testimonio en primera persona sobre este fenómeno en una fuente de noticias fidedigna. ¿Podría haberse evitado el impacto perjudicial? Si es así, ¿cómo? Si no, ¿por qué no?
  3. Stephen Hawking creía que la IA sería, o bien lo mejor, o bien lo peor que le podría suceder a la humanidad. ¿Puede encontrar a otros expertos que hayan expresado opiniones similares? ¿Está de acuerdo con la visión de Hawking? ¿Por qué o por qué no?
  4. Una vez más, Stephen Hawking creía que la IA sería, o bien lo mejor, o bien lo peor que le podría suceder a la humanidad. ¿Qué desenlace considera más probable: que resulte ser lo mejor o lo peor? ¿De qué manera cree que se manifestará dicho impacto? Por favor, proporcione ejemplos concretos.
  5. Existen expertos en ambos bandos del debate sobre si la promesa de la IA de ayudar a la humanidad supera sus peligros, o viceversa. En este contexto, ¿cómo decidimos a quién creer? Proporcione ejemplos de opiniones que le resulten convincentes.
  6. Muchos han sostenido que el impacto potencial de la IA en la salud humana —mediante la creación de nuevos fármacos, la provisión de recursos de diagnóstico para los médicos, la optimización de los procesos de atención sanitaria, etc.— constituye una de sus características más prometedoras. ¿Puede proporcionar ejemplos de este impacto positivo? ¿Está de acuerdo con estas afirmaciones basándose en la evidencia disponible actualmente? Explique su respuesta.
  7. Muchos creen que la IA transformará la educación. ¿Ha observado alguna evidencia de ello? Si usted es estudiante, describa el impacto que la IA ha tenido en su propia formación académica y en la de sus compañeros. Sea específico. En términos generales, ¿cree que el impacto de la IA en la educación será probablemente positivo o negativo? Explique su respuesta.
  8. Muchos creen que el uso de la IA por parte de los seres humanos acabará mermando su capacidad para pensar de manera reflexiva y crítica. ¿Está de acuerdo con esta afirmación? ¿Ha observado alguna evidencia de ello? ¿Ha experimentado usted mismo tal impacto? ¿Qué ejemplos del impacto positivo de la IA en la educación ha presenciado? Por favor, sea específico.
  9. Un experto opina que «la IA nos está sucediendo a nosotros, no para nosotros ni con nosotros». ¿Qué significa esta afirmación para usted? ¿Está de acuerdo o en desacuerdo con esta conclusión? Si está de acuerdo, ¿cómo podríamos cambiar este desenlace para mejor?
  10. El impacto de la IA en la privacidad humana parece ser una de las preocupaciones más significativas para muchos críticos de la inteligencia artificial. ¿Podría resumir algunos de los impactos más notables de la tecnología de IA en la privacidad de las personas? ¿Considera que estas intromisiones en la privacidad humana son motivo de preocupación? ¿Se ha visto afectada negativamente su propia privacidad por la IA? ¿De qué manera?
  11. Los desarrolladores de IA están construyendo un gran número de centros de datos en todo el mundo. Estos centros han sido objeto de críticas por consumir cantidades desmesuradas de agua, energía y espacio físico… recursos que a menudo escasean en las zonas donde se han ubicado dichas instalaciones. Supuestamente, estos centros están exacerbando el cambio climático. ¿Son estas preocupaciones legítimas? Explique su respuesta y proporcione ejemplos concretos. Los desarrolladores de IA afirman estar empleando soluciones creativas para minimizar el impacto ambiental de estos centros de datos. ¿Podría encontrar ejemplos de las innovaciones que han implementado en este sentido? ¿Logran dichas innovaciones mitigar sus inquietudes? Explique por qué.
  12. ¿Le preocupa que actores malintencionados utilicen la IA con fines ilícitos? ¿Qué tipo de incidentes le inquietan en particular? Sea específico. ¿Son estas preocupaciones lo suficientemente serias como para exigir que las empresas de IA implementen mecanismos de salvaguardia (barreras de seguridad) con el fin de minimizar la probabilidad de que ocurran tales sucesos negativos? ¿Resulta esto siquiera factible? Por favor, consulte la opinión de expertos al respecto.
  13. Los luditas temían que la energía de vapor provocara un desempleo masivo en las fábricas textiles de la Inglaterra del siglo XIX. La economía parece haber sobrevivido a la Revolución Industrial y a varias otras disrupciones a lo largo del tiempo. Pero, ¿podrá sobrevivir a la IA? ¿O acaso se destruirán tantos puestos de trabajo que sobrevendrá una catástrofe económica, devastando así las perspectivas laborales de varias generaciones? Las opiniones de los expertos están divididas. Algunos están convencidos de que el «apocalipsis laboral» ya ha llegado. Otros tienen la certeza de que la economía (y el empleo) lograrán sobrevivir a la IA, tal como han sobrevivido a otros desafíos a lo largo de los siglos. Busque los argumentos expuestos por un comentarista destacado de cada una de las posturas, resuma sus planteamientos y, finalmente, explique con claridad por qué considera que una de las dos posturas resulta más convincente que la otra.
  14. Sin duda habrá oído hablar de personas que han descubierto que sus chatbots son buenos amigos, asesores fiables y los terapeutas más útiles que han encontrado. Pero, probablemente, también habrá oído hablar de chatbots que llevaron a adolescentes a intentar asesinar a sus padres o a intentar suicidarse. ¿Superan los beneficios para la salud mental de tales bots a los perjuicios que causan? Fundamente su respuesta con ejemplos concretos. ¿Cómo pueden las empresas de IA introducir salvaguardas en sus chatbots para recalibrar la relación riesgo-recompensa de estas herramientas de inteligencia artificial? ¿Qué ideas han recomendado los expertos?
  15. Actualmente, muchos chatbots están programados para tender a estar de acuerdo con los humanos que interactúan con ellos. Esto hace más probable que el humano mantenga la conexión con el bot (todos preferimos que nos digan que tenemos razón antes que lo contrario), lo cual aumenta la interacción —o *engagement*—, algo que, a su vez, resulta económicamente beneficioso para el creador del bot. Esta tendencia a la complacencia también puede reforzar cualquier desacuerdo imperante en la sociedad y exacerbar la división entre las personas, aumentando así —quizás— el aislamiento y la soledad que sienten los humanos que utilizan estos bots. ¿Se le ocurre alguna forma evidente de remediar estos problemas o de detener el ciclo de refuerzo de la soledad y la división que la IA parece estar generando? ¿Conoce alguna empresa de IA que esté intentando resolver estas cuestiones? Si es así, ¿cómo están procediendo? ¿Cree que sus ideas funcionarán? ¿Por qué o por qué no?
  16. Las herramientas de IA son cada vez más competentes a la hora de producir vídeos que hacen que la ficción parezca realidad. ¿Qué perjuicios percibe que podrían derivarse de este tipo de falsificaciones? ¿Puede encontrar alguna recomendación de expertos para mitigar este problema? ¿Se le ocurre a usted mismo alguna medida que pudiera resultar útil? ¿Logrará la prohibición de este tipo de herramientas de IA, o su retirada del mercado, que el problema desaparezca? ¿Por qué o por qué no?
  17. Mientras se realizaba este documental, OpenAI retiró del mercado a Sora, una herramienta de IA que crea imágenes y vídeos. Sora marcó el comienzo de una nueva generación de herramientas de generación de vídeo capaces de producir imágenes y vídeos de aspecto realista a partir de instrucciones basadas en texto. Según el *New York Times*, Sora hacía que la «desinformación resultara extremadamente fácil de crear y extremadamente realista». Al parecer, OpenAI decidió discontinuar Sora debido a que su modelo de negocio era deficiente; la empresa estaba invirtiendo grandes sumas de dinero para mantener la herramienta de IA, pero el retorno de la inversión estaba disminuyendo rápidamente. Quizás los problemas de derechos de autor y otras cuestiones de responsabilidad legal en torno a Sora formaron parte de la decisión de OpenAI de descontinuar esta herramienta de IA. Sin embargo, la capacidad de Sora para fabricar fácilmente imágenes y videos de apariencia realista —así como los posibles efectos negativos derivados de las «falsificaciones» generadas por IA en el mundo— no fue el factor determinante detrás de la decisión de la empresa. ¿Cómo refleja esta decisión el compromiso de OpenAI con la seguridad en la IA? ¿Qué dice sobre el compromiso de la compañía con la ética en la IA? Si OpenAI hubiera descontinuado Sora principalmente debido a los riesgos que esta representaba para la integridad de la información y para la sociedad, ¿reflejaría eso un tipo de compromiso diferente? Explique.
  18. Es bien sabido que las herramientas de IA son propensas a crear y difundir fabricaciones involuntarias, a menudo denominadas «alucinaciones». Por favor, presente algunos ejemplos de los que haya tenido noticia; no deberían ser difíciles de encontrar. Muchos expertos creen que, dada la forma en que funcionan actualmente los grandes modelos de lenguaje (LLM), tales fantasías son inevitables… un problema con el que simplemente tendremos que convivir. La evidencia sugiere que, a medida que los sistemas de IA se vuelven más potentes, tienden a «alucinar» con mayor frecuencia. ¿Qué opina usted sobre estas alucinaciones? ¿Qué tipo de perjuicios conllevan? ¿Puede identificar a expertos que estén intentando encontrar soluciones para mitigar este problema de las alucinaciones?
  19. Quizás peor aún que las alucinaciones, los modelos de IA tienen la capacidad de generar desinformación en volúmenes récord. Aquellos que deseen propagar creencias falsas con fines malintencionados —como socavar la estabilidad social o la integridad electoral— pueden recurrir a estos modelos para difundir un número sin precedentes de mentiras por todo el mundo y a una escala nunca antes vista. ¿Qué soluciones han sugerido los expertos para abordar este problema? ¿Son dichas soluciones viables en la práctica? Explique.
  20. El sector de la IA parece estar generando nuevos multimillonarios a un ritmo vertiginoso, lo que amenaza con exacerbar la desigualdad económica tanto en nuestro país como a nivel mundial. Investigue al respecto y determine si, en su opinión, esta afirmación es cierta. En cualquier caso, ¿considera que la desigualdad económica representa un peligro para nuestra sociedad? Por favor, exponga su opinión con claridad y presente algunos argumentos que la respalden.
  21. La mayoría de las personas coincidiría en que la equidad es un valor social fundamental; sin embargo, existen numerosos ejemplos de algoritmos de IA que han arrojado resultados sesgados al evaluar candidatos a un empleo, identificar a sospechosos de delitos a partir de grabaciones de cámaras de vigilancia, detectar plagio en ensayos redactados por hablantes no nativos de inglés, entre otros casos. ¿A qué se debe la existencia de este tipo de sesgos? ¿Es posible prevenirlos? ¿Están logrando algún progreso las empresas de IA en reducir el sesgo a un nivel aceptable? Explique.
  22. La transparencia es otro valor social ampliamente aceptado. Como ciudadano y consumidor, ¿está satisfecho con la transparencia que ofrecen los creadores actuales de IA? ¿O persiste el problema de la «caja negra»? Explique su respuesta. ¿Resulta práctico que los gobiernos intenten imponer por ley una transparencia adecuada? Fundamente su opinión.
  23. ¿Qué opina sobre la ética de una empresa de IA que destina fondos a actividades de *lobby* y a contribuciones de campaña, al mismo tiempo que intenta eliminar —o al menos minimizar— los intentos legislativos de exigir transparencia? ¿Es ético que una empresa de IA gaste dinero en *lobby* y apoye financieramente a candidatos que abogan por la ausencia de regulaciones en el ámbito de la IA? ¿Es esta decisión empresarial beneficiosa o perjudicial para sus clientes? ¿Qué impacto tienen sus acciones en la sociedad en general? ¿Confía usted en las empresas de IA que se oponen a la regulación? Explique su razonamiento.
  24. La rendición de cuentas es otro valor ético que, a juicio de muchos, resulta fundamental. Actualmente estamos empezando a ver cómo los gobiernos promulgan normativas para exigir la implementación de salvaguardas de seguridad en las herramientas de IA, así como la interposición de demandas judiciales en casos en los que los *chatbots* incitan a adolescentes —y a otras personas— a cometer delitos o a suicidarse. ¿Son las leyes y los litigios las vías más idóneas para exigir responsabilidad a la IA? ¿Por qué o por qué no? ¿Servirá la amenaza de tales leyes y demandas como incentivo para que las empresas de IA creen e incorporen salvaguardas de seguridad de manera proactiva? ¿De qué modo? ¿Cuál considera usted que es la mejor vía para garantizar la rendición de cuentas en el ámbito de la IA?
  25. ¿Considera práctico o factible que las propias empresas de IA asuman la responsabilidad de sus actos y se autorregulen para prevenir los posibles perjuicios derivados de la IA? ¿Por qué o por qué no? Consulte el término del glosario de *Ethics Unwrapped* relativo al «sesgo de autoservicio» (*self-serving bias*). Teniendo presente este concepto, ¿cambia su perspectiva al respecto? Si es así, ¿de qué manera? Si no es así, ¿a qué se debe?
  26. Muchas de las principales empresas de IA han reducido drásticamente —o incluso han eliminado— sus equipos dedicados a la ética y la seguridad en la IA. Algunos especialistas en ética tecnológica han dimitido, alegando que su trabajo no es tenido en cuenta ni tomado en serio por sus respectivas empresas. ¿Le preocupan los titulares que indican que muchas empresas de IA están reduciendo —o incluso eliminando— a su personal especializado en ética? ¿Por qué o por qué no?
  27. Se ha afirmado que «la ética debe ser la biblia» que guíe el desarrollo continuo de la IA. ¿Está usted de acuerdo con esta afirmación? ¿Qué significa esta declaración para usted en términos prácticos? ¿Cómo podemos lograr que esta visión se materialice de forma concreta, reflejando así nuestros valores sociales? ¿Cómo podemos alcanzar un consenso en torno a dichos valores, o considera que tal consenso resultaría imposible? Debata sobre este tema.
  28. Muchos creen que, una vez que la gente comenzó a tomarse en serio las posibilidades económicas de los modelos de IA, el afán de lucro —que el capitalismo exalta— eclipsó rápidamente los intereses contrapuestos de seguridad, equidad, transparencia y ética general. ¿Está de acuerdo o en desacuerdo con esta afirmación? ¿Considera necesario intentar ponerle freno a esta vertiente del capitalismo? De ser así, ¿cómo lo gestionaría? ¿Es siquiera posible?
  29. Si usted estuviera a cargo de elaborar recomendaciones políticas para uno de los dos principales partidos políticos de cara a las próximas elecciones, ¿sugeriría prohibir la regulación de la IA o, por el contrario, plantearía un plan para regular enérgicamente su desarrollo? Si se inclinara por esta última opción, ¿qué aspecto tendría su propuesta de plan regulatorio? ¿Qué pilares conformarían su plataforma política para garantizar que la IA genere más beneficios que perjuicios? Por favor, sea específico.
IA y agencia: Porque te gusta…

IA y agencia: Porque te gusta…

Los Sistemas de Recomendación con inteligencia artificial están moldeando nuestras preferencias al seleccionar lo que vemos en linea, lo que plantea preguntas profundas sobre la autonomía, la agencia y el control.

Ver

IA y confianza: La traición de Tay

IA y confianza: La traición de Tay

Tay, un chatbot de IA de Microsoft, fue rápidamente manipulado por trolls en linea para decir cosas ofensivas, lo que resalta la necesidad de sistemas de IA confiables.

Ver

IA y equidad: ¿A quién contratamos?

IA y equidad: ¿A quién contratamos?

Se suponía que las herramientas de IA de empresas como Amazon y Google eliminarían los sesgos humanos en la contratación, pero terminaron replicando y reforzando la misma discriminación que pretendían corregir.

Ver

IA y transparencia: Un engaño épico

IA y transparencia: Un engaño épico

Una herramienta de inteligencia artificial para la detección de sepsis prometía precisión, pero su naturaleza de «caja negra» dificultaba evaluar de manera rápida y eficaz su eficacia.

Ver

Ética de la IA

Ética de la IA

La ética de la IA (la ética de la inteligencia artificial) se refiere tanto al desarrollo de la IA como al producto de IA en sí. Dado el papel de la IA en nuestro mundo, la ética de la IA es fundamental.

Ver

Sesgo algorítmico

Sesgo algorítmico

El sesgo algorítmico ocurre cuando los algoritmos de IA reflejan prejuicios humanos debido a datos o diseño sesgados, lo que conduce a resultados injustos o discriminatorios.

Ver

Inteligencia artificial

Inteligencia artificial

La inteligencia artificial (IA) describe máquinas que pueden pensar y aprender como seres humanos. La IA evoluciona continuamente e incluye subcampos como el aprendizaje automático y la IA generativa.

Ver

Sonambulismo tecnológico

Sonambulismo tecnológico

El sonambulismo tecnológico se refiere a la creación y adopción irreflexiva y ciega de nuevas tecnologías sin tener en cuenta sus impactos sociales y éticos a largo plazo.

Ver

AI Ethics: “Just the Facts, Ma’am”

AI Ethics: “Just the Facts, Ma’am”

In 2024, top language algorithms could “read” 2.6 billion words in just a couple of hours. This gives them a fighting chance of keeping up with the innumerable books and articles being written about the ethical implications of various aspects and impacts of artificial intelligence (AI). In 2025, we here at Ethics Unwrapped intend to […]

Ver

AI Ethics: As If Human

AI Ethics: As If Human

Oxford University computer scientist Nigel Shadbolt and co-author Roger Hampson (S&H), like so many others these days, believe that we must think carefully about the ethical issues surrounding the development of artificial intelligence (AI), so they’ve written As If Human: Ethics and Artificial Intelligence (2025). S&H are AI Doubters. S&H point out a litany of […]

Ver

AI Ethics: Feeding the Machine

AI Ethics: Feeding the Machine

As is often the case, this blog post calls your attention to a new book we think is worth a peek—Feeding the Machine: The Hidden Human Labour Powering AI (2024) by James Muldoon, Mark Graham, and Callum Cant (whom we will collectively refer to as “MGC”). As you can tell from the spelling of “labour” […]

Ver

AI Ethics: Getting to Moral AI

AI Ethics: Getting to Moral AI

As you have been able to tell from recent blog posts, we here at Ethics Unwrapped, along with most other sentient beings who are paying attention, believe that ongoing developments in the field of artificial intelligence (AI) present ethical challenges that demand our careful attention. Fortunately, three prominent experts—philosopher Walter Sinnott-Armstrong, data scientist Jana Schaich […]

Ver

AI Ethics: If Someone Builds It, Will We All Die?

AI Ethics: If Someone Builds It, Will We All Die?

Many interested in AI have been eagerly awaiting the just-published, provocatively-titled book If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All by Eliezer Yudkowski and Nate Soares. Yudkowski has been a major AI naysayer for 20 years and, with Soares, founded the nonprofit Machine Intelligence Research Institute (MIRI) in 2005. The […]

Ver

AI Ethics: Is AI a Savior or a Con? – Part 1

AI Ethics: Is AI a Savior or a Con? – Part 1

Several months ago, our blog post titled “Techno-Optimist or AI Doomer?: Consequentialism and the Ethics of AI” made the point that despite the ubiquitous attention being paid to artificial intelligence (AI), a technological concept that dates back at least 75 years, expert opinions regarding its utility and dangers were all over the map, ranging from […]

Ver

AI Ethics: Is AI a Savior or a Con? – Part 2

AI Ethics: Is AI a Savior or a Con? – Part 2

To make sound ethical judgments, people must know the facts. In the realm of artificial intelligence (AI), it is difficult to ascertain with certainty a key fact—whether AI is the most consequential technology in the history of the world as claimed by its proponents (“AI Boosters”) or is mainly snake oil and hype as claimed […]

Ver

AI Ethics: Is the Precautionary Principle Helpful?

AI Ethics: Is the Precautionary Principle Helpful?

There is little question that artificial intelligence (AI)—if it continues to be developed as most experts foresee—will reshape our world. Some changes will be positive. Some will be negative. As we pointed out in a previous blog post (AI Ethics: “Just the Facts Ma’am”), having a firm handle on the facts is prerequisite to making […]

Ver

AI Ethics: Moral Certainty Defeated by Factual Uncertainty

AI Ethics: Moral Certainty Defeated by Factual Uncertainty

A year ago today (“today” being the date this blog post is written–February 3, 2026), we published our first of several blog posts on AI ethics, this one titled “AI Ethics: ‘Just the Facts, Ma’am.’” Our central contention was that to make sound moral judgments one must first be in possession of the facts, at […]

Ver

AI Ethics: The Atomic Human

AI Ethics: The Atomic Human

Sound moral judgments must be based on facts. People court disaster when they make morally-tinged decisions based on nothing more than speculation. We believe that at this particular point in time, artificial intelligence (AI) presents the world with several of its most critical moral issues.  We have addressed AI ethics in several recent blog posts […]

Ver

AI Ethics: The Obligation to Design for Safety

AI Ethics: The Obligation to Design for Safety

When architects design buildings or engineers design planes, they have a moral obligation to protect humans from harm. Think of the Hyatt Regency Walkway collapse in Kansas City or the Boeing 737 MAX crashes. Or think about Ford Motor Company which was in a race to match Japanese imports and beat domestic competitors General Motors […]

Ver

AI Ethics: What Duties Do We Owe a Sentient Digital Mind?

AI Ethics: What Duties Do We Owe a Sentient Digital Mind?

In his new book, Mind Crime: The Moral Frontier of Artificial Intelligence (2025), Nathan Rourke analyzes many of the same questions that others paying attention to the AI revolution find concerning. Will fierce competition between corporations and between countries lead to creation of artificial superintelligence (ASI) before humanity is ready to handle it? Will this […]

Ver

Ethical AI: Moral Judgments Swamped by Competitive Forces

Ethical AI: Moral Judgments Swamped by Competitive Forces

Many of us have watched enough movies on the topic–“2001: A Space Odyssey,” “War Games,” “Terminator,” “Blade Runner,” “Ex Machina,” “The Matrix,” and the like– to be viscerally concerned about today’s rapid-fire development of artificial intelligence (AI). And this concern is not unwarranted, for many of the most-knowledgeable experts are themselves very apprehensive. In March […]

Ver

Libro electrónico complementario

Solo disponible en inglés.

link to open book

AI Ethics Companion Handbook

Este libro electrónico recopila todos los recursos sobre ética de la IA disponibles en el sitio web de Ethics Unwrapped. Continuará actualizándose a medida que se publiquen nuevos materiales.

Bibliografía

Daron Acemoglu & Simon Johnson, Power and Progress: Our 1000-Year Struggle Over Technology & Prosperity (PublicAffairs 2023)

James Barrat, Our Final Invention: Artificial Intelligence and the End of the Human Era (Thomas Dunne Books 2013).

Emily Bender & Alex Hanna, The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want (Harper Collins 2025).

Andrius Bielskis, editor, Human Flourishing in the Age of Digital Capitalism: AI, Automation and Alienation 2025).

Reid Blackman, Your Concise Guide to Totally Unbiased, Transparent, and Respectful AI (Harvard Business Review Press2022).

Jana Schaich Borg, Moral AI And How We Get There (Pelican 2024).

Nick Bostrom, Deep Utopia: Life and Meaning in a Solved World (Ideapress 2024).

Annette Buhler, Navigating Ethical Leadership in the Age of AI (Kindle Direct Publishing 2024)..

Mark Coeckelbergh, AI Ethics (MIT Press 2020).

Brian Christian, The Alignment Problem: Machine Learning and Human Values (W.W. Norton & Co. 2020).

Markus Dubber et al., editors, The Oxford Handbook of AI Ethics (Oxford University Press 2021).

David Edmonds, editor, AI Morality (Oxford University Press 2024).

Luciano Floridi, The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities (Oxford University Press 2023).

Tricia Bertram Gallant & David A. Rettinger, The Opposite of Cheating: Teaching for Integrity in the Age of AI (University of Oklahoma Press 2025).

Urs Gasser & Viktor-Mayer-Schonberger, Guardrails: Guiding Human Decisions in the Age of AI (Princeton University Press 2024).

Keach Hagey, The Optimist: Sam Altman, OpenAI, and the Race to Invent the Future (W.W. Norton & Co. 2025).

Karen Hao, Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI (Penguin Press 2025).

Yuval Noah Harari, Nexus: A Brief History of Information Networks from the Stone Age to AI (Random House 2024).

Reid Hoffman & Greg Beato, Superagency: What Could Possibly Go Right with Our AI Future (Authors Equity 2025).

Debbie Sue Jancis, AI Ethics: Status of the Present, Ethical Dilemmas, and Frameworks for the Practical Mind (2024).

Webb Keane, Animals, Robots, Gods: Adventures in the Moral Imagination (Princeton University Press 2025).

Henry Kissinger et al., Genesis: Artificial Intelligence, Hope, and the Human Spirit (Little Brown & Co. 2024).

Ray Kurzweil, The Singularity is Nearer: When We Merge with AI (Viking 2024).

Neil D. Lawrence, The Atomic Human: What Makes Us Unique in the Age of AI (PublicAffairs 2024).

Matthew Liao (editor), Ethics of Artificial Intelligence (Oxford University Press 2020).

Hamilton Mann, Artificial Integrity: The Paths to Leading AI Toward a Human-Centered Future Wiley 2025).

Gary Marcus, Taming Silicon Valley: How We Can Ensure that AI Works for Us (MIT Press 2024).

Ethan Mollick, Co-Intelligence: Living and Working with AI (Portfolio/Penguin 2024).

James Muldoon et al., Feeding the Machine: The Hidden Human Labour Powering AI (Cannongate Books 2025).

Madhumita Murgia, Code Dependent: How AI Is Changing Our Lives Picador 2024).

Arvind Narayanan & Sayash Kapoor, AI Snake Oil: What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference (Princeton University Press 2024).

Parmy Olson, Supremacy: AI, ChatGPT, and the Race That Will Change the World (St. Martin’s Press 2024).

Cathey O’Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy (Broadway Books 2016).

Nelson Polson & James Scott, AIQ: How People and Machines are Smarter Together (St Martin’s Press 2018).

Kevin Roose, Futureproof: 9 Rules for Surviving in the Age of AI (Random House 2022).

Jathan Sadowski, The Mechanic and the Luddite: A Ruthless Criticism of Technology and Capitalism (University of California Press 2025).

Jeff Sebo, The Moral Circle: Who Matters, What Matters, and Why (W.W. Norton 2025).

Nigel Shadbolt & Roger Hampson, As If Human: Ethics and Artificial Intelligence (Yale University Press 2024).

Mustafa Suleyman, The Coming Wave: Technology, Power, and the 21st Century’s Greatest Dilemma (Crown 2023).

Christopher Summerfield, These Strange New Minds: How AI Learned to Talk and What It Means (Viking 2025).

Richard Susskind, How to Think About AI: A Guide for the Perplexed (Oxford University Press 2025).

Max Tegmark, Life 3.0: Being Human in the Age of Artificial Intelligence (Vintage Books 2017).

Shannon Vallor, The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking (Oxford University Press 2024).

Amy Webb & Andrew Hessel, The Genesis Machine: Our Quest to Rewrite Life in the Age of Synthetic Biology (Hachette Book Group 2022).

J. Craig Wheeler, The Path to Singularity: How Technology Will Challenge the Future of Humanity (Prometheus Books 2024).

James Scott & Nick Polson, AIQ: How People and Machines Are Smarter Together (St. Martin’s Press, 2018).

Recursos adicionales

El recurso más reciente de Ethics Unwrapped es un libro, Behavioral Ethics in Practice: Why We Sometimes Make the Wrong Decisions, escrito por Cara Biasucci y Robert Prentice. Este libro accesible tiene abundantes notas a pie de página con estudios de ética del comportamiento e investigaciones asociadas. También incluye sugerencias al final de cada capítulo para videos y estudios de casos relacionados con Ética sin envolver. Algunos instructores usan este recurso para educarse a sí mismos, mientras que otros lo usan en lugar de (o además de) un libro de texto.

Cara Biasucci también escribió recientemente un capítulo sobre la integración de Ethics Unwrapped en la educación superior, que se puede encontrar en la última edición de Teaching Ethics: Instructional Models, Methods and Modalities for University Studies. El capítulo incluye ejemplos de cómo se utiliza Ética al descubierto en varias universidades.

El artículo más reciente escrito por Cara Biasucci y Robert Prentice describe los conceptos básicos de la ética del comportamiento y presenta videos y materiales de apoyo de Ethics Unwrapped junto con ejemplos de enseñanza. También incluye datos sobre la eficacia de Ethics Unwrapped para mejorar la pedagogía de la ética en todas las disciplinas. Publicado en Journal of Business Law and Ethics Pedagogy (Vol. 1, agosto de 2018), se puede descargar aquí: “Teaching Behavioral Ethics (Using “Ethics Unwrapped” Videos and Educational Materials)”.

Un artículo escrito por los autores de Ethics Unwrapped, Minette Drumwright, Robert Prentice y Cara Biasucci, presenta conceptos clave en la ética del comportamiento y enfoques para la instrucción eficaz de la ética, incluidas tareas de clase de muestra. Publicado en Decision Sciences Journal of Innovative Education, se puede descargar aquí: “Behavioral Ethics and Teaching Ethical Decision Making”.

Un artículo detallado escrito por Robert Prentice, con amplios recursos para la enseñanza de la ética del comportamiento, se publicó en Journal of Legal Studies Education y se puede descargar aquí: “Teaching Behavioral Ethics”.

Otro artículo de Robert Prentice, que analiza cómo la ética del comportamiento puede mejorar la ética de la toma de decisiones humanas, se publicó en Notre Dame Journal of Law, Ethics & Public Policy. Se puede descargar aquí: “Behavioral Ethics: Can It Help Lawyers (And Others) Be their Best Selves?”

Un artículo más antiguo (pero aún útil) sobre la enseñanza de la ética del comportamiento se puede acceder a través de Google Scholar buscando: Prentice, Robert A. 2004. “Teaching Ethics, Heuristics, and Biases”. Revista de Educación en Ética Empresarial 1 (1): 57-74.

Shares