Anthropological problem behind the discrimination generated from artificial intelligence algorithms

Main Article Content

Gabriela Morales Ramírez
https://orcid.org/0000-0003-1297-2977

Abstract

Artificial intelligence is currently at a point of development never seen before, promising great benefits that transcend into different social spheres. One problem in this regard is the apparent neutrality of the algorithms used in their programming and their impact on a large scale in relation to the discrimination generated from the biases immersed in them, coming from their designers. This is the result of a partial view of reality and the person himself. The solution to segregation can be found not only in the so-called parities, which are a response intended to compensate for errors in programming and result in inequalities in opportunities and privileges for certain groups, but in a look at the whole person.

Downloads

Download data is not yet available.

PLUMX Metrics

Article Details

How to Cite
Morales Ramírez, G. (2023). Anthropological problem behind the discrimination generated from artificial intelligence algorithms. Medicina Y Ética, 34(2), 429–480. https://doi.org/10.36105/mye.2023v34n2.04
Section
Articles
Author Biography

Gabriela Morales Ramírez, Universidad Panamericana

Graduated in Philosophy from the Universidad Panamericana. Master in Philosophy of Science in the area of Philosophical and Social Studies of Science and Technology.

References

Adetunji J. Los sesgos en inteligencia artificial, el reflejo de una sociedad injusta: The Conversation [Internet] 17 de mayo de 2021 [consultado 20 de abril de 2022]. Disponible en: https://theconversation.com/los-sesgos-en-inteligencia-artificial-elreflejo-de-una-sociedad-injusta-160820

Baeza R, Muñoz C. Académicos viendo Netflix: sesgos codificados. CIPER Académico [Internet]. 8 de mayo de 2021 [consultado 2 de noviembre de 2022]. Disponible en: https://www.ciperchile.cl/2021/05/08/academicos-viendo-netflix-sesgoscodificados/

Schmiedchen F, Bartosch U, Bauberger S, Stefan S, von Damm T, Engels R, Rehbein M, Stapf-Finé H, Sülzen A. Informe sobre los principios Asilomar en Inteligencia Artificial. Berlín: Grupo de Estudio Evaluación de la tecnología de la digitalización de la Federación de Científicos Alemanes; 2018. https://vdw-ev.de/wp-content/uploads/2019/05/Informe-sobre-los-principios-Asilomar-en-Inteligencia-Artificial_final.pdf

BIKTOM. Künstliche Intelligenz verstehen als Automation des Entscheidens. Berlín: Leitfaden; 2018. https://www.bitkom.org/sites/default/files/file/import/BitkomLeitfaden-KI-verstehen-als-Automation-des-Entscheidens-2-Mai-2017.pdf

Burgos J. Antropología Breve. España: Palabra; 2010.

Charte F. Qué peligro implican los sesgos en los modelos de inteligencia artificial: Campus MVP [Internet]. 17 de mayo de 2021 [consultado 25 de abril de 2022]. Disponible en: https://www.campusmvp.es/recursos/post/que-peligro-implican-lossesgos-en-los-modelos-de-inteligencia-artificial.aspx

Coeckelbergh M. Ética de la inteligencia artificial. España: Cátedra; 2021.

De Aquino T. S Th.: HJG [Internet]. septiembre 2012 [consultado 2 de noviembre de 2022]. Disponible en: https://hjg.com.ar/sumat/. I, q. 29, a. 4.

De los Ríos M. ¿Quién es el ser humano? Bioética. Aporte para un debate necesario. México: Fundación Rafael Preciado Hernández; 2018. p. 11-27.

Eticas Research and Consulting SL. Guía de Auditoría Algorítmica [Internet]. 2021 [consultado 2 de enero de 2023]. Disponible en: https://www.eticasconsulting.com/wp-content/uploads/2021/01/Eticas-consulting.pdf

Ferrante E. Inteligencia artificial y sesgos algorítmicos ¿Por qué deberían importarnos? Nueva Sociedad: Fundación Friedrich Ebert, 2021; (294):27-36.

González L. Discriminación, discriminación peyorativa y la Declaración Universal de los Derechos Humanos. Aguilar A. Discriminación, sesgos cognitivos y derechos humanos: perspectivas y debates transdisciplinarios. México: UNAM; 2022. p. 9-12.

Jonas H. El principio de responsabilidad. Ensayo de una ética para la civilización tecnológica. Barcelona: Herder; 1995.

Kanheman D, Tversky A. Prospect Theory: An Analysis of Decision under Risk. Econometrica. 1979; 47(2):263-291. https://doi.org/10.2307/1914185

Muñoz C. La discriminación en una sociedad automatizada: Contribuciones desde América Latina. Rev. chil. derecho tecnol. (en línea) [Internet]. 30 de junio de 2021 [citado 4 de febrero de 2023]; 10(1):271-307. Disponible en: https://rchdt.uchile.cl/index.php/RCHDT/article/view/58793

Noriega A. Discriminación algorítmica y costo de equidad. Aguilar A. Discriminación, sesgos cognitivos y derechos humanos: perspectivas y debates transdisciplinarios. México: UNAM; 2022. p. 139-144. https://biblio.juridicas.unam.mx/bjv/detalle-libro/7065-discriminacion-sesgos-cognitivos-y-derechos-humanos-perspectivas-y-debates-transdisciplinarios-coleccion-pudh

O´Neil K. Weapons ot Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Nueva York: Crown; 2016.

Ortega A. La imparable marcha de los robots. España: Alianza; 2016.

Osorio B. Antropología de la donación: el don como principio de la acción humana. Escritos. 2015; 23(50):67-82.

Pablo VI. Carta Encíclica Populorum Progressio del Papa Pablo VI a los obispos, sacerdotes, religiosos y fieles de todo el mundo y a todos los hombres de buena voluntad sobre la necesidad de promover el desarrollo de los pueblos [Internet]. 26 de marzo de 1967 [consultado 3 de noviembre de 2022]. Disponible en: http://w2.vatican.va/content/paulvi/es/encyclicals/documents/hf_p-vi_enc_26031967_populorum.html

Popper K. La lógica de la investigación científica. Madrid: Tecnos; 1977.

ROBOTechnics. Principios de Asilomar de la Inteligencia Artificial [Internet]. 11 de noviembre de 2017 [consultado 22 de abril de 2022]. Disponible en: https://www.robotechnics.es/asilomar/

De los sesgos a la manipulación, la cuestión ética es ineludible en el desarrollo de la inteligencia artificial: Nektiu [Internet]. 24 de junio de 2021 [consultado 24 de abril de 2022]. Disponible en: https://nektiu.com/de-los-sesgos-a-la-manipulacion-la-cuestion-etica-es-ineludible-en-el-desarrollo-de-la-inteligencia-artificial/

Risse M. Sobre los sesgos cognitivos y los derechos humanos. Aguilar A. Discriminación, sesgos cognitivos y derechos humanos: perspectivas y debates transdisciplinarios. México: UNAM; 2022. p. 46-57.

Sabán A. Amazon desecha una IA de reclutamiento por su sesgo contra las mujeres: Genbeta [Internet]. 10 de octubre de 2018 [consultado 23 de abril de 2022]. Disponible en: https://www.genbeta.com/actualidad/amazon-desecha-ia-reclutamiento-su-sesgo-mujeres

Sánchez M. Prevenir y controlar la discriminación algorítmica. RC D [Internet]. 2021 [consultado 18 de abril de 2022]; (427). Disponible en: https://www.researchgate.net/publication/358207305_Prevenir_y_controlar_la_discriminacion_algoritmica

Sunstein C, Thaler R. Un pequeño empujón. El impulso que necesitas para tomar mejores decisiones sobre salud, dinero y felicidad. Estados Unidos: Taurus; 2008.

Verdoy A. El concepto de progreso en la doctrina de Montini. Sols J. La humanidad en camino. Medio siglo de la Encíclica Populorum Progessio. Barcelona: Herder; 2019. p. 12-83.

Villarruel-Fuentes M. El quehacer del científico: una perspectiva crítica desde referentes psicológicos. Revista Ensayos Pedagógicos, 2019; 14(1):55-68.

Vinck D. Ciencias y sociedad: Sociología del trabajo científico. Barcelona: Gedisa; 2014.