Skip to main content

Sesgo algorítmico

El sesgo algorítmico ocurre cuando los algoritmos de IA reflejan prejuicios humanos debido a datos o diseño sesgados, lo que conduce a resultados injustos o discriminatorios.

Sesgo algorítmico

Un sesgo es una inclinación a preferir o desfavorecer a un individuo, grupo, idea o cosa. Los prejuicios contra las personas basados ​​en su religión, raza, estatus socioeconómico, identidad de género u orientación sexual son particularmente injustos y, por lo tanto, especialmente problemáticos. Pero todos los seres humanos tienen tales prejuicios tanto consciente como inconscientemente. Debido a que el sesgo humano ha llevado a una discriminación injusta en la contratación, la promoción, la vivienda, la atención médica, los préstamos, las sentencias penales y muchas otras áreas del esfuerzo humano, muchos esperaban que reemplazar a los tomadores de decisiones humanos con computadoras remediaría, o al menos minimizaría, tal sesgo. Pero creamos los algoritmos que guían la toma de decisiones de las computadoras, por lo que esos algoritmos a menudo reflejan nuestros sesgos. Esta es una forma de sesgo algorítmico, y surge en el diseño, prueba y aplicación de sistemas informáticos.

Otra forma de sesgo algorítmico puede ocurrir con la inteligencia artificial, donde las computadoras crean su propio código después de ser entrenadas con grandes cantidades de datos. Estos sistemas de IA «aprenden» con datos de entrenamiento y siguen el principio de «basura que entra, basura que sale». Por lo tanto, si un sistema basado en IA recibe datos de entrenamiento defectuosos o incompletos, sus predicciones también serán erróneas.

Lamentablemente, abundan los ejemplos de sesgo algorítmico. Por ejemplo, una empresa construyó un sistema informático basado en IA para gestionar sus procesos de contratación, pero el sistema se entrenó con una base de datos de un período de 10 años en el que los currículos eran predominantemente de hombres blancos, por lo que el algoritmo penalizó los currículos que se enviaron con la palabra «mujeres».

Otra empresa creó un algoritmo utilizado por los jueces para determinar las decisiones sobre fianzas y sentencias que discriminaban sistemáticamente a las personas de color. Y otro algoritmo utilizado para evaluaciones clínicas hizo que los pacientes negros parecieran más saludables de lo que eran, lo que impidió que esos pacientes fueran ubicados de manera justa en la lista de espera nacional de trasplantes de riñón.

Los peligros del sesgo algorítmico son quizás más obvios en el desarrollo de software de reconocimiento facial basado en IA. Estos primeros sistemas de IA fueron alimentados con una sobrerrepresentación de rostros pálidos y masculinos. Los datos de entrenamiento no lograron representar la gama completa de diversidad humana. En consecuencia, los sistemas de reconocimiento facial funcionan mejor para identificar a hombres y personas con tonos de piel más claros que para identificar a mujeres y personas con tonos de piel más oscuros. De hecho, algunos sistemas de reconocimiento facial etiquetaron a las mujeres negras como “hombres”. Por lo tanto, aunque tendemos a suponer que el uso de la IA conducirá a decisiones justas y neutrales, esta es claramente una suposición peligrosa.

También es preocupante el problema de la “caja negra”. No sabemos cómo los sistemas de IA de aprendizaje profundo toman sus decisiones: el proceso es invisible para nosotros. Esta falta de transparencia es preocupante y puede dar lugar a productos que refuercen los estereotipos y exacerben los sesgos explícitos e implícitos.

Los defensores de la equidad instan a las empresas a protegerse contra el sesgo algorítmico evaluando sus datos de entrenamiento, haciendo que esos datos estén sujetos a evaluación pública, divulgando la precisión de las decisiones de sus sistemas y permitiendo la auditoría de terceros de sus sistemas y herramientas. Otros defensores de la IA ética, como la Liga de Justicia Algorítmica fundada por la Dra. Joy Buolamwini, también alientan la justicia algorítmica. La Dra. Buolamwini aboga por equipos de diseño y codificación inclusivos, conjuntos de datos inclusivos y una consideración más reflexiva de las implicaciones de los sistemas basados ​​en IA en general.

Por lo tanto, si bien todos podemos estar de acuerdo en que minimizar el sesgo algorítmico es deseable (al igual que con el sesgo humano), eliminar el sesgo basado en computadoras será un desafío. Pero con un énfasis en la justicia algorítmica y con un desarrollo y diseño de IA transparente, es posible que, en lugar de ser un oponente, la IA pueda convertirse en un aliado en nuestros esfuerzos por crear una sociedad justa.

Bibliografía

Ifeoma Ajunwa, “Beware of Automated Hiring,” New York Times, Oct. 19, 2019, at https://www.nytimes.com/2019/10/08/opinion/ai-hiring-discrimination.html.

Julie Angwin et al., “Machine Bias,” ProPublica, May 23, 2016, at https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.

Dina Bass & Ellen Huet, “Researchers Combat Gender and Racial Bias in Artificial Intelligence,” Bloomberg, Dec. 4, 2017, at https://www.bloomberg.com/news/articles/2017-12-04/researchers-combat-gender-and-racial-bias-in-artificial-intelligence.

Reid Blackman, Ethical Machines: Your Concise Guide to Totally Unbiased, Transparent, and Respectful AI (2022).

Brian Christian, The Alignment Problem: Machine Learning and Human Values (2020).

Jennifer Conrad, “Joy Buolamwini Call Out Bias in Facial Recognition Systems. Now She’s Urging Caution When Experimenting with AI,” Inc., Mar. 15, 2024, at https://www.inc.com/jennifer-conrad/dr-joy-buolamwini-called-out-bias-in-facial-recognition-systems-now-shes-urging-caution-when-experimenting-with-ai.html.

Mark Coeckelbergh, AI Ethics (2020).

Christina Couch, “Ghosts in the Machine,” NPR, Oct. 25, 2017, at https://www.pbs.org/wgbh/nova/article/ai-bias/.

Maria De-Arteaga et al., “Bias in Bios: A Case Study of Semantic Representation Bias in a High-Stakes Setting,” ACM Conference on Fairness, Accountability, and Transparency, Jan. 27, 2019, pp. 120-128.

Luciano Floridi, The Ethics of Artificial Intelligence: Principles, Challenges and Opportunities (2023).

Melissa Hamilton, “The Biased Algorithm: Evidence of Disparate Impact on Hispanics,” American Criminal Law Review Vol. 56, No. 4, p. 1553-1578 (2019).

Rebecca Heilweil, “Why Algorithms Can Be Racist and Sexist,” Vox, Feb. 18, 2020, at https://www.brookings.edu/articles/algorithmic-bias-detection-and-mitigation-best-practices-and-policies-to-reduce-consumer-harms/.

Nicol Lee et al., “Algorithmic Bias Detection and Mitigation: Best Practices and Policies to Reduce Consumer Harms,” Brookings, May 22, 2019, at https://www.brookings.edu/articles/algorithmic-bias-detection-and-mitigation-best-practices-and-policies-to-reduce-consumer-harms/.

Michele Loi & Markus Christen, “Insurance Discrimination and Fairness in Machine Learning : An Ethical Analysis,” Philosophy & Technology, March 13, 2021, at https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3438823. .

Cade Metz, “We Teach A.I. Systems Everything, Including Our Biases,” New York Times, Nov. 11, 2019, at https://www.nytimes.com/2019/11/11/technology/artificial-intelligence-bias.html.

Cade Metz & Adam Satariano, “An Algorithm That Grants Freedom, or Takes It Away,” New York Times, Feb. 9, 2020, at https://www.nytimes.com/2020/02/06/technology/predictive-algorithms-crime.html.

ReNika Moore, “Biden Must Act to Get Racism Out of Automated Decision-Making,” Washington Post, Aug. 9, 2021, at https://www.washingtonpost.com/opinions/2021/08/09/biden-must-act-get-racism-out-automated-decision-making/.

Shazia Siddique et al., “The Impact of Health Care Algorithms on Racial and Ethnic Disparities: A Systematic Review,” Annals of Internal Medicine, Vol. 177, No. 4 (Mar. 12, 2024).

https://www.ajl.org

Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Proceedings of the Conference on Fairness, Accountability and Transparency (pp. 77-91).

https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

https://www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms?subtitle=en

 

Ética de la IA

Ética de la IA

La ética de la IA (la ética de la inteligencia artificial) se refiere tanto al desarrollo de la IA como al producto de IA en sí. Dado el papel de la IA en nuestro mundo, la ética de la IA es fundamental.

Ver

Inteligencia artificial

Inteligencia artificial

La inteligencia artificial (IA) describe máquinas que pueden pensar y aprender como seres humanos. La IA evoluciona continuamente e incluye subcampos como el aprendizaje automático y la IA generativa.

Ver

Sonambulismo tecnológico

Sonambulismo tecnológico

El sonambulismo tecnológico se refiere a la creación y adopción irreflexiva y ciega de nuevas tecnologías sin tener en cuenta sus impactos sociales y éticos a largo plazo.

Ver

Sesgo implícito

Sesgo implícito

Tener prejuicios implícitos significa que inconscientemente mantenemos actitudes hacia los demás o asociamos estereotipos negativos con ellos.

Ver

Sesgo cognitivo

Sesgo cognitivo

Los sesgos cognitivos son errores de pensamiento que afectan la toma de decisiones de las personas en prácticamente todas las situaciones.

Ver