Gender bias (in AI)
Abstract
In the face of the emergence of artificial intelligence systems in multiple spheres, the incorporation of a gender perspective is essential to prevent the perpetuation and strengthening of stereotypes and discriminatory behaviors through biases in algorithms.
AI demands a conscious intervention in its development and algorithm formulation, along with adherence to key principles such as transparency and responsibility, vital to avoiding gender bias. Bias is demonstrated through various studies and entails discrimination. It generally originates from the underrepresentation of groups and tends to manifest indirectly. An analysis of the regulatory framework applicable to artificial intelligence systems is included, as far as it is relevant to the gender issue.
Downloads
References
Barrio Andrés, M. (2021). Génesis y desarrollo de los derechos digitales. Revista de Las Cortes Generales, 110, 197-233. https://doi.org/10.33426/rcg/2021/110/1572
Barrio Andrés, M. (2022). Garantía de los derechos en los entornos digitales. En Cotino Hueso, L. (Coord.), La Carta de Derechos Digitales (363-395). Tirant Lo Blanch.
Boix Palop, A. (2020) Los algoritmos son reglamentos: La necesidad de extender las garantías propias de las normas reglamentarias a los programas empleados por la administración para la adopción de decisiones. Revista de Derecho Público: teoría y método, 1, 223-269.
Buolamwini, J. y Timnit, G. (2018) Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research Conference on Fairness, Accountability, and Transparency, 1-15. http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
Coltrane, S. y Messineo, M. (2000). The Perpetuation of Subtle Prejudice: Race and Gender Imagy in 1990s Television Advertising. Sex Role, (42), 363-389.
Cotino Hueso, l y Castellanos Claramunt, J. (2022). Transparencia y Explicabilidad de la Inteligencia Artificial y “Compañía" (Comunicación, Interpretabilidad, Inteligibilidad, Auditabilidad, Testabilidad, Comprobabilidad, Simulabilidad...). Para qué, para quién y cuánta. Transparencia y explicabilidad de la Inteligencia Artificial. Tirant Lo Blanch.
Cotino Hueso, L. (2022). La Carta de Derechos Digitales, Tirant Lo Blanch.
De la Sierra Morón, S. (2022). Una introducción a la carta de derechos digitales. En Cotino Hueso, L. (Coord.), La Carta de Derechos Digitales (27-52). Tirant Lo Blanch.
Gutiérrez David, M. (2021). Administraciones inteligentes y acceso al código fuente y los algoritmos públicos. Conjurando riesgos de cajas negras decisionales. Derecom, 31, 19-105.
Hernández Peña, J. C. (2022). El marco jurídico de la inteligencia artificial. Principios, procedimientos y estructuras de gobernanzas. Aranzadi.
Hundt, A., Agnew, W., Zeng. W., Kacianka, S. y Gombolay, M. (2022). Robots Enact Malignant Stereotypes. ACM Conference on Fairness, Accountability, and Transparency FAccT ’22, June 21–24. https://doi.org/10.1145/3531146.3533138.
Kim, J. L., Sorsoli, C. L., Collins, K., Zylbergold, B. A., Schooler, D., y Tolman, D. L. (2007). From Sex to Sexuality: Exposing the Heterosexual Script on Primetime Network Television. The Journal of Sex Research, 44 (2), 145–157. http://www.jstor.org/stable/25701753.
Kullmann, M. (2018). Platform Work, Algorithmic Decision-Making, and EU Gender Equality Law. International Journal of Comparative Labour Law and Industrial Relations, 34 (1), 1-21.
Lovdal, L. (1989) Sex Role messages in television commercials: An updat.
Sex Roles, 21, 715-724. https://doi.org/10.1007/BF00289804.
Martín Delgado, I. (2009). La gestión electrónica del procedimiento administrativo. QDL, 21, 84-101.
Martín Delgado, I. (2009). Naturaleza, concepto y régimen jurídico de la actuación administrativa automatizada. Revista de Administración Pública, 180, 353-386.
Matthes, J., Prieler, M. y Adam, K. (2016). Gender-role portrayals in television advertising across the globe. Sex Roles. A Journal of Research, 75 (7-8), 314-327. https://doi.org/10.1007/s11199-016-0617-y.
Mehrabi, N., Morstatter, F., Saxena, N. Lerman, K. y Galstyan, A. (2019). A Survey on Bias and Fairness in Machine Learning. arXiv 2022. https://doi.org/10.48550/arXiv.1908.09635
Serra Cristobal, R. (2004) La discriminación indirecta por razón de sexo, en Ridaura Martínez, M.J. y Aznar Gómez, M. (Coords.), Discriminación versus Diferenciación (Especial referencia a la problemática de la mujer) (365-398). Tirant lo Blanch.
Vestri, G. (2021). La inteligencia artificial ante el desafío de la transparencia algorítmica: Una aproximación desde la perspectiva jurídico-administrativa. Revista Aragonesa de Administración Pública, 56, 368-398.
Eunomía. Revista en Cultura de la Legalidad is a duly registered journal, with EISSN 2253-6655.
The articles published in Eunomía are –unless indicated otherwise– under a Creative Commons Attribution-No Derivative Works 3.0 Spain license. You can copy, distribute and communicate them publicly as long as you cite their author and the journal and institution that publishes them and do not make derivative works with them. The full license can be consulted at: http://creativecommons.org/licenses/by-nd/3.0/es/deed.es
Funding data
-
Agencia Estatal de Investigación
Grant numbers PID2021-127122NB-I00