Desde las predicciones sorprendentemente precisas en nuestros teléfonos hasta los robots aspiradores que se desplazan solos, la inteligencia artificial (IA) se ha ido tejiendo sutilmente en la trama de nuestra vida diaria. Sin embargo, entre el entusiasmo y la curiosidad, surge una paradoja crucial: ¿es la IA una antorcha que ilumina el camino del progreso o una sombra amenazante que pone en riesgo nuestro futuro? ¿Es todo optimismo y buenos augurios, o deberíamos temer que se esté dirigiendo hacia la dominación mundial?
La verdad, como suele ocurrir, se encuentra en un punto intermedio entre estos relatos fantásticos y las ansiedades distópicas. A diferencia de los villanos de ficción, la IA no es inherentemente peligrosa. Es una herramienta poderosa, como cualquier otra tecnología, cuyo impacto depende de las manos que la manejan. La IA puede considerarse como un estudiante súper inteligente que está aprendiendo y evolucionando constantemente. Este potencial desata un mundo de posibilidades, como coches autónomos que circulan por las carreteras con una seguridad sin precedentes, o médicos virtuales que analizan escáneres médicos con una precisión superior a la humana. No obstante, al igual que cualquier estudiante, la IA también puede cometer errores. Algunas personas se preocupan por los sesgos que pueden llevar a decisiones injustas, mientras que otras temen la pérdida de empleos causada por los sistemas automatizados. Estas inquietudes son válidas y subrayan la necesidad de un debate abierto y un desarrollo responsable.
Este puede ser un viaje fascinante al mundo de la IA, buscando no solo descubrir sus emocionantes posibilidades, sino también enfrentar los desafíos que plantea. Al entender la esencia de la IA y sus capacidades, todos podemos convertirnos en participantes activos en la configuración de su futuro, asegurándonos de que beneficie a todos, y no solo a unos pocos. Esto se puede lograr juntos, disipando malentendidos y trazando un rumbo hacia un futuro responsable y ético con la IA.
Forjando un futuro responsable: Desafíos éticos
Es natural sentir preocupaciones, especialmente cuando algo parece tan poderoso como la IA. Si bien el potencial de la IA y la tecnología informática para revolucionar nuestro mundo es indiscutible, es crucial reconocer los posibles escollos que acompañan este progreso. Esta sección explora las preocupaciones éticas que han expresado pensadores y expertos destacados, abordando los retos que enfrenta la IA y la computación, y examinando soluciones para navegar estos problemas de forma responsable.
Armas de “destrucción matemática”: Ampliación de las desigualdades
Cathy O’Neil, doctora en matemáticas, es la directora ejecutiva de ORCAA, una empresa de auditoría algorítmica, y miembro del Public Interest Tech Lab en la Harvard Kennedy School.[1] En su libro de 2016, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy [2], O’Neil examina críticamente el impacto de los algoritmos de grandes volúmenes de datos en la sociedad, particularmente en su papel para exacerbar las desigualdades existentes en sectores como los seguros, la publicidad, la educación y el orden público. La obra, que fue candidata al Premio Nacional del Libro de No Ficción de 2016 pero no pasó el corte final, ha recibido elogios generalizados y ha obtenido el Premio Euler [3]. Aprovechando su experiencia en matemáticas, O’Neil expone cómo estos algoritmos, que parecen neutrales, a menudo dan lugar a resultados que perjudican a los más desfavorecidos económicamente y a las minorías raciales, reforzando los sesgos sistémicos.
Subraya el impacto perjudicial de los algoritmos discriminatorios, mostrando cómo pueden denegar oportunidades a los más desfavorecidos, como el caso de un estudiante pobre al que se le niega un préstamo debido a los riesgos percibidos asociados con su lugar de residencia. Esto perpetúa el ciclo de pobreza, socavando los valores democráticos al favorecer a los privilegiados y perjudicar a los menos afortunados. O’Neil sostiene que estos algoritmos, a los que denomina “armas de destrucción matemática”, son opacos, no están regulados y son difíciles de combatir. Su escalabilidad significa que los sesgos se amplifican, afectando a mayores segmentos de la población y consolidando la discriminación.
Algoritmos de opresión: Cómo los motores de búsqueda refuerzan el racismo
Safiya Umoja Noble es una figura destacada en este ámbito, directora del Center on Race and Digital Justice y co-directora de la Minderoo Initiative on Tech and Power en el UCLA Center for Critical Internet Inquiry. Es miembro del consejo de la Cyber Civil Rights Initiative, que atiende a las personas vulnerables al acoso en línea, y aporta su experiencia a varias organizaciones de derechos civiles y humanos. [4]. Noble, que también es autora del libro Algorithms of Oppression: How Search Engines Reinforce Racism (NYU Press) [5], que ha sido ampliamente reseñado en publicaciones académicas y populares [4], ha examinado las repercusiones de los algoritmos de los motores de búsqueda desde el punto de vista de la ciencia de la información, el aprendizaje automático y la interacción persona-ordenador. Noble comenzó tras observar resultados de búsqueda sesgados mientras estudiaba sociología y posteriormente cursaba un máster en biblioteconomía y ciencias de la información. El libro, inspirado en los problemáticos resultados de búsqueda relacionados con «chicas negras», critica los sesgos racistas y sexistas incrustados en los motores de búsqueda. Noble, que pasó al mundo académico, siguió explorando estos temas, culminando en la publicación de este análisis crítico en 2018 [6].
En su libro, que ha sido muy bien recibido, analiza cómo los motores de búsqueda, en particular Google, pueden reflejar y amplificar los prejuicios raciales y sexistas de la sociedad, perjudicando a las mujeres de color en particular. Noble muestra cómo los algoritmos suelen favorecer la blancura, asociándola con términos positivos, mientras que otros grupos marginados se ven afectados negativamente por los sesgos, con consecuencias que van desde la desventaja económica hasta la estigmatización social. Noble sostiene que este sesgo no se limita a los motores de búsqueda, sino que también se extiende a otras tecnologías como el reconocimiento facial.
Aunque muchas tecnologías actuales aseguran ser neutrales, la Dra. Noble argumenta que, con frecuencia, «reproducen los mismos problemas que deberían solucionar». Su trabajo nos invita a ser críticos con las tecnologías que empleamos y a combatir los sesgos que estas puedan tener. Solo de esta forma podremos construir un mundo digital realmente justo y equitativo.
Automatizando la desigualdad
Virginia Eubanks es una politóloga, profesora y autora estadounidense enfocada en el estudio de la tecnología y la justicia social. Eubanks fue becaria de New America, donde investigó temas como la privacidad digital, la desigualdad económica y la discriminación basada en datos [7].
Entre sus publicaciones más destacadas se encuentra Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor [8]. Este libro revela los daños causados por los algoritmos que reemplazan las decisiones humanas y su impacto negativo en las personas económicamente desfavorecidas. Eubanks expone cómo los sistemas automatizados de los servicios públicos afectan de manera desproporcionada a los pobres y a la clase trabajadora. Además, al acuñar el término «casa de pobres digital», critica la automatización de la asistencia social y otros servicios, y aboga por un enfoque de política tecnológica centrado en la responsabilidad social.
Sesgo Codificado
Coded Bias [9] (Sesgo Codificado) es un documental dirigido por Shalini Kantayya, presentado en el Festival de Cine de Sundance en 2020. Este innovador documental explora las repercusiones del descubrimiento realizado por Joy Buolamwini, investigadora del MIT Media Lab, quien encontró que los sistemas de reconocimiento facial tienen dificultades para identificar con precisión los rostros de piel oscura. El filme sigue el viaje de Buolamwini para impulsar la primera legislación en Estados Unidos destinada a abordar los sesgos en los algoritmos que afectan a todos. El documental incluye contribuciones de destacados investigadores sobre los sesgos en la tecnología de reconocimiento facial y sus implicaciones sociales. La trayectoria de Kantayya, desde el descubrimiento de los problemas en los algoritmos descritos en el libro de O’Neil, Weapons of Math Destruction [2], hasta la investigación de Buolamwini, destaca la urgente necesidad de concienciación y acción frente a la IA sesgada [10].
El documental pone de manifiesto la preocupante realidad del sesgo en la inteligencia artificial (IA). Todo comenzó con el sorprendente hallazgo de Joy Buolamwini: los sistemas de reconocimiento facial no podían identificar su rostro. Al investigar este problema, descubrió una verdad alarmante: estos sistemas estaban sesgados y funcionaban especialmente mal con los tonos de piel más oscuros [9], [10].
Coded Bias no se limita a esta reveladora observación, sino que explora el impacto más amplio de los prejuicios en la IA sobre las comunidades marginadas. La película revela cómo los algoritmos pueden perpetuar desigualdades en áreas cruciales como la vivienda, la contratación, la sanidad, la puntuación crediticia, la educación y el sistema legal. Además, el documental critica la falta de marcos jurídicos para la IA, que permite que estas violaciones de los derechos humanos ocurran sin supervisión [9], [10].
La Liga de la Justicia Algorítmica
Impulsada por sus descubrimientos, Buolamwini no solo creó conciencia sobre los sesgos en la IA, sino que fundó la Algorithmic Justice League (la Liga de la Justicia Algorítmica) en 2016 [11]. A través de esta organización, Buolamwini aboga por un desarrollo responsable de la IA y un futuro digital más justo. La Liga de la Justicia Algorítmica, A través de la investigación, el arte y la defensa, se dedica a desafiar los sesgos en la IA y tiene como objetivo fomentar un mundo digital más equitativo, reconocido por Fast Company en 2021 como una de las organizaciones de IA más innovadoras a nivel mundial [11].
Navegando por el paisaje ético de la IA
Todos hemos visto la parte más llamativa de la IA en las películas: robots haciendo tareas del hogar, ordenadores leyendo mentes, e incluso coches voladores. Pero también hemos oído hablar del lado oscuro, como los algoritmos sesgados que toman decisiones injustas o la posible pérdida de trabajos debido a la automatización. Entonces, ¿debemos amar la IA o tenerle miedo?
La respuesta es: ¡Depende! La IA es una herramienta poderosa, como un martillo muy sofisticado. En manos equivocadas, puede causar daños, pero en manos adecuadas, puede construir cosas increíbles. La clave está en asegurarse de que esas manos sean responsables y éticas.
¿Dónde están las brechas?
Las fuentes mencionadas pintan un cuadro claro: los posibles problemas de la IA están aumentando, pero las soluciones aún están en sus primeras etapas. Reconocer los problemas es solo el primer paso; el verdadero desafío es traducir esa conciencia en acción. La humanidad aún está aprendiendo cómo usar este martillo de manera responsable. La IA no es inherentemente peligrosa. El peligro radica en la intención detrás de su desarrollo y uso. Así como el fuego, la energía nuclear o la investigación biológica tienen un inmenso potencial tanto para el bien como para el mal, las consideraciones éticas y el uso responsable son primordiales. La urgencia de la acción es crucial, llamando a personas sensatas, compasivas y conscientes para que contribuyan a moldear un futuro beneficioso para la humanidad. Este llamamiento resuena para todos nosotros. Para que la IA sea una fuerza positiva, debemos participar activamente en su desarrollo e implementación, empezando por las acciones mencionadas aquí.
Aquí es donde podemos intervenir:
Capacitación más profunda de los desarrolladores: Los equipos detrás de los sistemas de IA son clave para un futuro mejor. Dotar a los desarrolladores de sensibilidad cultural y fomentar equipos diversos que comprendan distintas culturas y contextos son pasos cruciales para mitigar los sesgos no intencionados. Esto les ayuda a evitar construir sesgos accidentalmente en sus productos, al igual que aprender carpintería ayuda a no golpearte el pulgar con el martillo.
Diversidad e inclusividad de los datos: La IA es como los libros de texto que solo cuentan un lado de la historia cuando utiliza datos limitados. Necesitamos incluir diferentes perspectivas y actualizar la información continuamente, de la misma manera que mantenemos actualizadas las aplicaciones de teléfonos inteligentes o dispositivos. Ampliar los conjuntos de datos educativos para abarcar diversas perspectivas e incorporar regularmente retroalimentación de grupos diversos ayudará a garantizar la inclusividad y evitar la perpetuación de la censura.
Ser transparentes y abrir la caja negra: Imagina un truco de magia en el que no puedes ver cómo funciona la ilusión. Así es como se sienten algunos sistemas de IA. Hacerlos más transparentes, como explicar cómo toman decisiones, y desmitificar los algoritmos de toma de decisiones a través de la transparencia lleva a la confianza y permite la supervisión, lo cual es crítico para abordar posibles injusticias.
Ampliar la gobernanza y compartir el poder: Si solo algunas entidades privilegiadas tienen el poder de decidir las reglas de un juego, no es justo. Lamentablemente, podemos observar la misma injusticia en las reglas de la IA. Diversos grupos deben estar involucrados en la toma de decisiones, no solo unas pocas empresas poderosas o países. Pasar de un control unilateral hacia una participación múltiple en las regulaciones garantizará que se consideren diversas perspectivas y evitará la influencia indebida de entidades específicas.
Palabras finales
La discusión sobre la ética de la IA sin duda seguirá evolucionando. Al participar activamente en estas conversaciones, apoyar iniciativas que se alineen con nuestros valores y exigir responsabilidades a desarrolladores y reguladores, podemos trabajar hacia un futuro donde la IA empodere y eleve, no divida ni cause daño.
La IA no es mala en sí misma. Es como el fuego: puede cocinar tu cena o quemar tu casa, dependiendo de cómo la uses. Lo importante es ser consciente de los riesgos y trabajar juntos para asegurarnos de que la IA beneficie a todos, no solo a unas pocas clases privilegiadas.
Así que, pongamos las manos a la obra, tomemos ese martillo metafórico de IA y construyamos un futuro donde esta tecnología trabaje para nosotros, no en nuestra contra. Depende de todos nosotros asegurarnos de que la IA se convierta en una fuerza para el bien, no en una pesadilla de ciencia ficción.
No hemos de olvidarnos que el poder reside en la acción colectiva. Definitivamente podemos construir el futuro que queremos, juntos.
Referencias
- https://cathyoneil.org
- O’Neil, C. (2017). Weapons of Math Destruction. Harlow, England: Penguin Books.
- https://es.wikipedia.org/wiki/Armas_de_destrucción_matemática
- https://safiyaunoble.com/
- Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. New York University Press.
- https://en.wikipedia.org/wiki/Algorithms_of_Oppression
- https://es.wikipedia.org/wiki/Virginia_Eubanks
- Eubanks, V. (2018). Automating inequality: how high-tech tools profile, police, and punish the poor. Primera edición. Nueva York, St. Martin’s Press.
- https://www.codedbias.com/
- https://en.wikipedia.org/wiki/Coded_Bias
- https://www.ajl.org/