Discrimination in AI systems
Disability from an intersectional approach
DOI:
https://doi.org/10.20318/universitas.2026.10086Keywords:
Intersectionality, disability, artificial intelligence, discrimination, accessibilityAbstract
The article analyzes the impacts of artificial intelligence (AI) from an intersectional approach focused on disability. It highlights the algorithmic biases present in technological systems that reproduce social inequalities. The research emphasizes the urgency of integrating inclusive ethical frameworks and the active participation of collectives in AI development. It also questions the colonization of the concept of intersectionality, proposing its recovery as a critical tool. Only through a feminist, decolonial, and human rights-based perspective can we move toward truly fair and inclusive AI
Downloads
References
Astorga, Luis Fernando. “La consulta a las personas con discapacidad”. En Nueve conceptos claves para entender la Convención sobre los derechos de las personas con discapacidad, editado por Elizabeth Salmón y Renata Bregaglio. Pontificia Universidad Católica del Perú, 2015.
Bariffi, Francisco José. “Artificial Intelligence, Human Rights and Disability”. Pensar - Revista De Ciências Jurídicas 26. n.º 2 (2021): 14–1. https://doi.org/10.5020/2317-2150.2021.12704.
Bathaee, Yavar. “The Artificial Intelligence Black Box and the Failure of Intent and Causation”. Harvard Journal of Law & Technology 31, n.º 2 (2018): 890-938. https://jolt.law.harvard.edu/assets/articlePDFs/v31/The-Artificial-Intelligence-Black-Box-and-the-Failure-of-Intent-and-Causation-Yavar-Bathaee.pdf.
Collins Hill, Patricia, y Sirma Bilge. “¿Qué es la Interseccionalidad?”. En Interseccionalidad, editado por Ediciones Morata S.L.,2019.
———. Interseccionalidad. Ediciones Morata, S.L., 2016.
Comité de Derechos Humanos. Observación General 18: No Discriminación. CCPR/C/GC/18. 1989.
Comité sobre los Derechos de las Personas con Discapacidad. Observación General 2: sobre el artículo 9: Accesibilidad. CRPD/C/GC/2. 2014.
Comité sobre los Derechos de las Personas con Discapacidad. Observación General 6: sobre la igualdad y la no discriminación. CRPD/C/GC/6. 2018.
Convención sobre los Derechos de las Personas con Discapacidad. Adoptada el 13 de diciembre de 2006, A.G. Res. 61/106, anexo I, ONU Doc. A/RES/61/106 (24 de enero de 2007). Entrada en vigor el 3 de mayo de 2008.
Council of Europe. Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law. CETS No. 225. Vilnius, 5 de septiembre de 2024.
Crawford, Kate. Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press, 2021.
De Asís Roig, Rafael Fernando. “Lo Razonable en el Concepto de Ajuste Razonable”. En Nueve Conceptos Claves para Entender la Convención sobre los Derechos de las Personas con Discapacidad, editado por Elizabeth Salmón y Renata Bregaglio. Lima: Pontificia Universidad Católica del Perú, 2015.
———. Derechos y Tecnologías. Dykinson, 2022.
Gesser, Marivete, Pamela Block, y Anahí Guedes De Mello. “Estudios sobre discapacidad: interseccionalidad, anticapacitismo y emancipación social”. Andamios 19, n.º 49 (2022): 217–240. https://doi.org/10.29092/uacm.v19i49.924
Gómez-Quintero, Juan David. "La Colonialidad del Ser y del Saber: La Mitologización del Desarrollo en América Latina”. El Ágora USB 10, n.º 1 (2010): 87-105.
Guzmán Napuri, Christian, y Milagros Salinas Atencio. "La Inteligencia Artificial, los Sesgos del Algoritmo y la Discriminación en las Relaciones Laborales”. Laborem 24, n.º 31 (2025): 69-90. https://doi.org/10.56932/laborem.24.31.3
Hao, Karen. “This Is How AI Bias Really Happens—and Why It’s So Hard to Fix.” MIT Technology Review, 4 de febrero de 2019.
Henson, Renee. "'I Am Become Death, the Destroyer of Worlds': Applying Strict Liability to Artificial Intelligence as an Abnormally Dangerous Activity”. Temple Law Review 96, n.º 3 (2024): 349-390. https://scholarship.law.missouri.edu/cgi/viewcontent.cgi?article=2191&context=facpubs.
Korot, Edward, Nicholas Pontikos, Xiaoqing Liu, Stefan K. Wagner, Lex Faes, Julian Huemer, et al. "Predicting Sex from Retinal Fundus Photographs Using Automated Deep Learning”. Scientific Reports 11, 10286. (2021). https://doi.org/10.1038/s41598-021-89743-x.
Angwin, Julia, Jeff Larson, Surya Mattu y Lauren Kirchner. “Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks.” ProPublica, 23 de mayo de 2016.
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
Mercader Uguina, Jesús R. "Discriminación Algorítmica y Derecho Granular: Nuevos Retos para la Igualdad en la Era del Big Data”. LABOS Revista de Derecho del Trabajo y Protección Social 2, n.º 2 (2021): 4-10. https://doi.org/10.20318/labos.2021.6213.
Nakamura, Karen. "My Algorithms Have Determined You're Not Human: AI-ML, Reverse Turing-Tests, and the Disability Experience”. In Proceedings of the 21st International ACM SIGACCESS Conference on Computers and Accessibility (ASSETS '19). Nueva York, NY: Association for Computing Machinery, 2019. https://doi.org/10.1145/3308561.3353812.
Quijano, Aníbal. "Colonialidad del Poder, Eurocentrismo y América Latina”. En Cuestiones y Horizontes: De la Dependencia Histórico-Estructural a la Colonialidad/Descolonialidad del Poder. CLACSO, 2014. http://biblioteca.clacso.edu.ar/clacso/se/20140507042402/eje3-8.pdf.
Quinn, Gerard. Informe del Relator Especial sobre los Derechos de las Personas con Discapacidad. Consejo de Derechos Humanos, 49º período de sesiones, 28 de febrero–1 de abril de 2022. ONU Doc. A/HRC/49/52 (28 de diciembre de 2021).
Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.º 300/2008, (UE) n.º 167/2013, (UE) n.º 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial). DOUE L 2024/1689, de 13 de junio de 2024.
Russell, Suart Human Compatible: Artificial Intelligence and the Problem of Control. Penguin, 2020.
Salinas, Milagros, y Christian Guzmán. "La Inteligencia Artificial, los Sesgos del Algoritmo y la Discriminación en las Relaciones Laborales”. Laborem 24, n.º 31 (2025): 69-90. https://doi.org/10.56932/laborem.24.31.3.
Simó Soler, Elisa. "Hacia Una Inteligencia Artificial Interseccional". Investigaciones Feministas 15, n.º 1 (2024): 140–141. https://doi.org/10.5209/infe.81954.
Ulnicane, Inga. “Intersectionality in Artificial Intelligence: Framing Concerns and Recommendations for Action”. Social Inclusion 12, article 7543 (2024). https://doi.org/10.17645/si.7543.
Whittaker, Meredith, Meryl Alper, Cynthia L. Bennett, Sara Hendren, Elizabeth Kaziunas, Mara Mills, Meredith Ringel Morris, Joy Lisi Rankin, Emily Rogers, Marcel Salas, y Sarah Myers West. Disability, Bias, and AI. AI Now Institute, 2019. https://ainowinstitute.org/publication/disabilitybiasai-2019.
Downloads
Published
Issue
Section
License
Copyright (c) 2025 Authors retain copyright and grant UNIVERSITAS a non-exclusive license to publish their work under the terms of the Creative Commons Attribution 4.0 International License (CC BY 4.0)

This work is licensed under a Creative Commons Attribution 4.0 International License.
Authors retain the intellectual property and copyright of the articles published in UNIVERSITAS, while granting the journal the non-exclusive rights of editing and publication. In line with its commitment to the dissemination of knowledge, the journal provides free and open access to all its content, thus fostering greater academic and cultural exchange worldwide.
Unless otherwise indicated, all texts published in this journal are protected under a Creative Commons Attribution 4.0 International License (CC BY 4.0). This license allows others to copy, distribute, and publicly communicate the material, provided that authorship and the original publication in UNIVERSITAS are properly acknowledged. The journal does not charge any fees for submission, processing, or publication of articles.