Discriminación en los sistemas de IA

la discapacidad con un enfoque interseccional

Autores/as

  • Italo Giancarlo Alvarez Lozano Investigador independiente
  • Diana María de los Angeles Vicente Munarriz Investigador independiente

DOI:

https://doi.org/10.20318/universitas.2026.10086

Palabras clave:

interseccionalidad, discapacidad, inteligencia artificial, discriminación, accesibilidad

Resumen

El artículo analiza los impactos de la inteligencia artificial (IA) desde un enfoque interseccional centrado en la discapacidad. Se evidencian los sesgos algorítmicos presentes en sistemas tecnológicos que reproducen desigualdades sociales. La investigación destaca la urgencia de integrar marcos éticos inclusivos y la participación activa de los colectivos en el desarrollo de IA. Asimismo, se cuestiona la colonización del concepto de interseccionalidad, proponiendo su recuperación como herramienta crítica. Solo a través de una perspectiva feminista, decolonial y de derechos humanos se puede avanzar hacia una IA verdaderamente justa e inclusiva

Descargas

Los datos de descarga aún no están disponibles.

Biografía del autor/a

  • Italo Giancarlo Alvarez Lozano, Investigador independiente

    Abogado por la Pontificia Universidad Católica del Perú. Máster y doctorando en Estudios Avanzados en Derechos Humanos por la Universidad Carlos III de Madrid.

  • Diana María de los Angeles Vicente Munarriz, Investigador independiente

    Bibliotecóloga por la Universidad Nacional Mayor de San Marcos

Referencias

Astorga, Luis Fernando. “La consulta a las personas con discapacidad”. En Nueve conceptos claves para entender la Convención sobre los derechos de las personas con discapacidad, editado por Elizabeth Salmón y Renata Bregaglio. Pontificia Universidad Católica del Perú, 2015.

Bariffi, Francisco José. “Artificial Intelligence, Human Rights and Disability”. Pensar - Revista De Ciências Jurídicas 26. n.º 2 (2021): 14–1. https://doi.org/10.5020/2317-2150.2021.12704.

Bathaee, Yavar. “The Artificial Intelligence Black Box and the Failure of Intent and Causation”. Harvard Journal of Law & Technology 31, n.º 2 (2018): 890-938. https://jolt.law.harvard.edu/assets/articlePDFs/v31/The-Artificial-Intelligence-Black-Box-and-the-Failure-of-Intent-and-Causation-Yavar-Bathaee.pdf.

Collins Hill, Patricia, y Sirma Bilge. “¿Qué es la Interseccionalidad?”. En Interseccionalidad, editado por Ediciones Morata S.L.,2019.

———. Interseccionalidad. Ediciones Morata, S.L., 2016.

Comité de Derechos Humanos. Observación General 18: No Discriminación. CCPR/C/GC/18. 1989.

Comité sobre los Derechos de las Personas con Discapacidad. Observación General 2: sobre el artículo 9: Accesibilidad. CRPD/C/GC/2. 2014.

Comité sobre los Derechos de las Personas con Discapacidad. Observación General 6: sobre la igualdad y la no discriminación. CRPD/C/GC/6. 2018.

Convención sobre los Derechos de las Personas con Discapacidad. Adoptada el 13 de diciembre de 2006, A.G. Res. 61/106, anexo I, ONU Doc. A/RES/61/106 (24 de enero de 2007). Entrada en vigor el 3 de mayo de 2008.

Council of Europe. Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law. CETS No. 225. Vilnius, 5 de septiembre de 2024.

Crawford, Kate. Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press, 2021.

De Asís Roig, Rafael Fernando. “Lo Razonable en el Concepto de Ajuste Razonable”. En Nueve Conceptos Claves para Entender la Convención sobre los Derechos de las Personas con Discapacidad, editado por Elizabeth Salmón y Renata Bregaglio. Lima: Pontificia Universidad Católica del Perú, 2015.

———. Derechos y Tecnologías. Dykinson, 2022.

Gesser, Marivete, Pamela Block, y Anahí Guedes De Mello. “Estudios sobre discapacidad: interseccionalidad, anticapacitismo y emancipación social”. Andamios 19, n.º 49 (2022): 217–240. https://doi.org/10.29092/uacm.v19i49.924

Gómez-Quintero, Juan David. "La Colonialidad del Ser y del Saber: La Mitologización del Desarrollo en América Latina”. El Ágora USB 10, n.º 1 (2010): 87-105.

Guzmán Napuri, Christian, y Milagros Salinas Atencio. "La Inteligencia Artificial, los Sesgos del Algoritmo y la Discriminación en las Relaciones Laborales”. Laborem 24, n.º 31 (2025): 69-90. https://doi.org/10.56932/laborem.24.31.3

Hao, Karen. “This Is How AI Bias Really Happens—and Why It’s So Hard to Fix.” MIT Technology Review, 4 de febrero de 2019.

https://www.technologyreview.com/2019/02/04/137602/this-is-how-ai-bias-really-happens-and-why-its-so-hard-to-fix/

Henson, Renee. "'I Am Become Death, the Destroyer of Worlds': Applying Strict Liability to Artificial Intelligence as an Abnormally Dangerous Activity”. Temple Law Review 96, n.º 3 (2024): 349-390. https://scholarship.law.missouri.edu/cgi/viewcontent.cgi?article=2191&context=facpubs.

Korot, Edward, Nicholas Pontikos, Xiaoqing Liu, Stefan K. Wagner, Lex Faes, Julian Huemer, et al. "Predicting Sex from Retinal Fundus Photographs Using Automated Deep Learning”. Scientific Reports 11, 10286. (2021). https://doi.org/10.1038/s41598-021-89743-x.

Angwin, Julia, Jeff Larson, Surya Mattu y Lauren Kirchner. “Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And It’s Biased Against Blacks.” ProPublica, 23 de mayo de 2016.

https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.

Mercader Uguina, Jesús R. "Discriminación Algorítmica y Derecho Granular: Nuevos Retos para la Igualdad en la Era del Big Data”. LABOS Revista de Derecho del Trabajo y Protección Social 2, n.º 2 (2021): 4-10. https://doi.org/10.20318/labos.2021.6213.

Nakamura, Karen. "My Algorithms Have Determined You're Not Human: AI-ML, Reverse Turing-Tests, and the Disability Experience”. In Proceedings of the 21st International ACM SIGACCESS Conference on Computers and Accessibility (ASSETS '19). Nueva York, NY: Association for Computing Machinery, 2019. https://doi.org/10.1145/3308561.3353812.

Quijano, Aníbal. "Colonialidad del Poder, Eurocentrismo y América Latina”. En Cuestiones y Horizontes: De la Dependencia Histórico-Estructural a la Colonialidad/Descolonialidad del Poder. CLACSO, 2014. http://biblioteca.clacso.edu.ar/clacso/se/20140507042402/eje3-8.pdf.

Quinn, Gerard. Informe del Relator Especial sobre los Derechos de las Personas con Discapacidad. Consejo de Derechos Humanos, 49º período de sesiones, 28 de febrero–1 de abril de 2022. ONU Doc. A/HRC/49/52 (28 de diciembre de 2021).

Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.º 300/2008, (UE) n.º 167/2013, (UE) n.º 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial). DOUE L 2024/1689, de 13 de junio de 2024.

Russell, Suart Human Compatible: Artificial Intelligence and the Problem of Control. Penguin, 2020.

Salinas, Milagros, y Christian Guzmán. "La Inteligencia Artificial, los Sesgos del Algoritmo y la Discriminación en las Relaciones Laborales”. Laborem 24, n.º 31 (2025): 69-90. https://doi.org/10.56932/laborem.24.31.3.

Simó Soler, Elisa. "Hacia Una Inteligencia Artificial Interseccional". Investigaciones Feministas 15, n.º 1 (2024): 140–141. https://doi.org/10.5209/infe.81954.

Ulnicane, Inga. “Intersectionality in Artificial Intelligence: Framing Concerns and Recommendations for Action”. Social Inclusion 12, article 7543 (2024). https://doi.org/10.17645/si.7543.

Whittaker, Meredith, Meryl Alper, Cynthia L. Bennett, Sara Hendren, Elizabeth Kaziunas, Mara Mills, Meredith Ringel Morris, Joy Lisi Rankin, Emily Rogers, Marcel Salas, y Sarah Myers West. Disability, Bias, and AI. AI Now Institute, 2019. https://ainowinstitute.org/publication/disabilitybiasai-2019.

Descargas

Publicado

2025-12-18

Número

Sección

Artículos

Cómo citar

«Discriminación En Los Sistemas De IA: La Discapacidad Con Un Enfoque Interseccional». 2025. UNIVERSITAS. Revista De Filosofía, Derecho Y Política, n.º 48 (diciembre): 98-120. https://doi.org/10.20318/universitas.2026.10086.