Discriminación en los sistemas de IA
la discapacidad con un enfoque interseccional
DOI:
https://doi.org/10.20318/universitas.2026.10086Palabras clave:
interseccionalidad, discapacidad, inteligencia artificial, discriminación, accesibilidadResumen
El artículo analiza los impactos de la inteligencia artificial (IA) desde un enfoque interseccional centrado en la discapacidad. Se evidencian los sesgos algorítmicos presentes en sistemas tecnológicos que reproducen desigualdades sociales. La investigación destaca la urgencia de integrar marcos éticos inclusivos y la participación activa de los colectivos en el desarrollo de IA. Asimismo, se cuestiona la colonización del concepto de interseccionalidad, proponiendo su recuperación como herramienta crítica. Solo a través de una perspectiva feminista, decolonial y de derechos humanos se puede avanzar hacia una IA verdaderamente justa e inclusiva
Descargas
Referencias
Astorga, Luis Fernando. “La consulta a las personas con discapacidad”. En Nueve conceptos claves para entender la Convención sobre los derechos de las personas con discapacidad, editado por Elizabeth Salmón y Renata Bregaglio. Pontificia Universidad Católica del Perú, 2015.
Bariffi, Francisco José. “Artificial Intelligence, Human Rights and Disability”. Pensar - Revista De Ciências Jurídicas 26. n.º 2 (2021): 14–1. https://doi.org/10.5020/2317-2150.2021.12704.
Bathaee, Yavar. “The Artificial Intelligence Black Box and the Failure of Intent and Causation”. Harvard Journal of Law & Technology 31, n.º 2 (2018): 890-938. https://jolt.law.harvard.edu/assets/articlePDFs/v31/The-Artificial-Intelligence-Black-Box-and-the-Failure-of-Intent-and-Causation-Yavar-Bathaee.pdf.
Collins Hill, Patricia, y Sirma Bilge. “¿Qué es la Interseccionalidad?”. En Interseccionalidad, editado por Ediciones Morata S.L.,2019.
———. Interseccionalidad. Ediciones Morata, S.L., 2016.
Comité de Derechos Humanos. Observación General 18: No Discriminación. CCPR/C/GC/18. 1989.
Comité sobre los Derechos de las Personas con Discapacidad. Observación General 2: sobre el artículo 9: Accesibilidad. CRPD/C/GC/2. 2014.
Comité sobre los Derechos de las Personas con Discapacidad. Observación General 6: sobre la igualdad y la no discriminación. CRPD/C/GC/6. 2018.
Convención sobre los Derechos de las Personas con Discapacidad. Adoptada el 13 de diciembre de 2006, A.G. Res. 61/106, anexo I, ONU Doc. A/RES/61/106 (24 de enero de 2007). Entrada en vigor el 3 de mayo de 2008.
Council of Europe. Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law. CETS No. 225. Vilnius, 5 de septiembre de 2024.
Crawford, Kate. Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press, 2021.
De Asís Roig, Rafael Fernando. “Lo Razonable en el Concepto de Ajuste Razonable”. En Nueve Conceptos Claves para Entender la Convención sobre los Derechos de las Personas con Discapacidad, editado por Elizabeth Salmón y Renata Bregaglio. Lima: Pontificia Universidad Católica del Perú, 2015.
———. Derechos y Tecnologías. Dykinson, 2022.
Gesser, Marivete, Pamela Block, y Anahí Guedes De Mello. “Estudios sobre discapacidad: interseccionalidad, anticapacitismo y emancipación social”. Andamios 19, n.º 49 (2022): 217–240. https://doi.org/10.29092/uacm.v19i49.924
Gómez-Quintero, Juan David. "La Colonialidad del Ser y del Saber: La Mitologización del Desarrollo en América Latina”. El Ágora USB 10, n.º 1 (2010): 87-105.
Guzmán Napuri, Christian, y Milagros Salinas Atencio. "La Inteligencia Artificial, los Sesgos del Algoritmo y la Discriminación en las Relaciones Laborales”. Laborem 24, n.º 31 (2025): 69-90. https://doi.org/10.56932/laborem.24.31.3
Hao, Karen. “This Is How AI Bias Really Happens—and Why It’s So Hard to Fix.” MIT Technology Review, 4 de febrero de 2019.
Henson, Renee. "'I Am Become Death, the Destroyer of Worlds': Applying Strict Liability to Artificial Intelligence as an Abnormally Dangerous Activity”. Temple Law Review 96, n.º 3 (2024): 349-390. https://scholarship.law.missouri.edu/cgi/viewcontent.cgi?article=2191&context=facpubs.
Korot, Edward, Nicholas Pontikos, Xiaoqing Liu, Stefan K. Wagner, Lex Faes, Julian Huemer, et al. "Predicting Sex from Retinal Fundus Photographs Using Automated Deep Learning”. Scientific Reports 11, 10286. (2021). https://doi.org/10.1038/s41598-021-89743-x.
Angwin, Julia, Jeff Larson, Surya Mattu y Lauren Kirchner. “Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks.” ProPublica, 23 de mayo de 2016.
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
Mercader Uguina, Jesús R. "Discriminación Algorítmica y Derecho Granular: Nuevos Retos para la Igualdad en la Era del Big Data”. LABOS Revista de Derecho del Trabajo y Protección Social 2, n.º 2 (2021): 4-10. https://doi.org/10.20318/labos.2021.6213.
Nakamura, Karen. "My Algorithms Have Determined You're Not Human: AI-ML, Reverse Turing-Tests, and the Disability Experience”. In Proceedings of the 21st International ACM SIGACCESS Conference on Computers and Accessibility (ASSETS '19). Nueva York, NY: Association for Computing Machinery, 2019. https://doi.org/10.1145/3308561.3353812.
Quijano, Aníbal. "Colonialidad del Poder, Eurocentrismo y América Latina”. En Cuestiones y Horizontes: De la Dependencia Histórico-Estructural a la Colonialidad/Descolonialidad del Poder. CLACSO, 2014. http://biblioteca.clacso.edu.ar/clacso/se/20140507042402/eje3-8.pdf.
Quinn, Gerard. Informe del Relator Especial sobre los Derechos de las Personas con Discapacidad. Consejo de Derechos Humanos, 49º período de sesiones, 28 de febrero–1 de abril de 2022. ONU Doc. A/HRC/49/52 (28 de diciembre de 2021).
Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.º 300/2008, (UE) n.º 167/2013, (UE) n.º 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial). DOUE L 2024/1689, de 13 de junio de 2024.
Russell, Suart Human Compatible: Artificial Intelligence and the Problem of Control. Penguin, 2020.
Salinas, Milagros, y Christian Guzmán. "La Inteligencia Artificial, los Sesgos del Algoritmo y la Discriminación en las Relaciones Laborales”. Laborem 24, n.º 31 (2025): 69-90. https://doi.org/10.56932/laborem.24.31.3.
Simó Soler, Elisa. "Hacia Una Inteligencia Artificial Interseccional". Investigaciones Feministas 15, n.º 1 (2024): 140–141. https://doi.org/10.5209/infe.81954.
Ulnicane, Inga. “Intersectionality in Artificial Intelligence: Framing Concerns and Recommendations for Action”. Social Inclusion 12, article 7543 (2024). https://doi.org/10.17645/si.7543.
Whittaker, Meredith, Meryl Alper, Cynthia L. Bennett, Sara Hendren, Elizabeth Kaziunas, Mara Mills, Meredith Ringel Morris, Joy Lisi Rankin, Emily Rogers, Marcel Salas, y Sarah Myers West. Disability, Bias, and AI. AI Now Institute, 2019. https://ainowinstitute.org/publication/disabilitybiasai-2019.
Descargas
Publicado
Número
Sección
Licencia
Derechos de autor 2025 Los autores conservan los derechos de autor y conceden a UNIVERSITAS una licencia no exclusiva de publicación bajo los términos de la licencia Creative Commons Atribución 4.0 Internacional (CC BY 4.0)

Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.
Los autores conservan la propiedad intelectual y los derechos de autor de los artículos publicados en UNIVERSITAS, mientras que conceden a la revista los derechos de edición y publicación de manera no exclusiva. En coherencia con su compromiso con la difusión del conocimiento, la revista ofrece acceso libre y gratuito a todo su contenido, fomentando así un mayor intercambio académico y cultural a nivel global.
Salvo indicación en contrario, los textos publicados en esta revista están protegidos bajo una licencia CC BY 4.0. Esto permite su copia, distribución y comunicación pública, siempre que se reconozca la autoría y la publicación original en UNIVERSITAS. La revista no cobra tarifas por recibir, procesar o publicar los artículos enviados por los autores.