{"id":2795,"date":"2023-03-31T14:41:04","date_gmt":"2023-03-31T20:41:04","guid":{"rendered":"https:\/\/investiga.uned.ac.cr\/agendajoven\/?page_id=2795"},"modified":"2023-03-31T14:41:04","modified_gmt":"2023-03-31T20:41:04","slug":"ethics-of-artificial-intelligence-bernd-carsten-stahl-doris-schroeder-y-rowena-rodrigues","status":"publish","type":"page","link":"https:\/\/investiga.uned.ac.cr\/agendajoven\/ethics-of-artificial-intelligence-bernd-carsten-stahl-doris-schroeder-y-rowena-rodrigues\/","title":{"rendered":"Ethics of Artificial Intelligence &#8211; Bernd Carsten Stahl, Doris Schroeder y Rowena Rodrigues"},"content":{"rendered":"\n<div class=\"wp-block-image\"><figure class=\"aligncenter size-full is-resized\"><a href=\"https:\/\/investiga.uned.ac.cr\/agendajoven\/wp-content\/uploads\/sites\/16\/2023\/03\/Libro-M-Eugenia-ethics.png\"><img fetchpriority=\"high\" decoding=\"async\" src=\"https:\/\/investiga.uned.ac.cr\/agendajoven\/wp-content\/uploads\/sites\/16\/2023\/03\/Libro-M-Eugenia-ethics.png\" alt=\"\" class=\"wp-image-2793\" width=\"392\" height=\"594\" \/><\/a><\/figure><\/div>\n\n\n\n<p><strong>Libro<\/strong>: Ethics of Artificial Intelligence. Case Studies and Options for Addressing Ethical Challenges<br \/><strong>Autores:<\/strong>&nbsp;Bernd Carsten Stahl, Doris Schroeder y Rowena Rodrigues<br \/><strong>A\u00f1o original de publicaci\u00f3n:&nbsp;<\/strong>2023<br \/><strong>Editorial:&nbsp;<\/strong>Springer<br \/><strong>Rese\u00f1ado por:&nbsp;<\/strong>Mar\u00eda Eugenia Bujanda<br \/><strong>Palabras clave:&nbsp;<\/strong>Inteligencia artificial, \u00c9tica de la tecnolog\u00eda, \u00c9tica de las computadoras, \u00c9tica de la informaci\u00f3n, Investigaci\u00f3n e innovaci\u00f3n responsables<br \/><strong>Citaci\u00f3n del libro<\/strong>: Stahl, B. C., Schroeder, D. &amp; Rodrigues, R. (2023).&nbsp;<em>Ethics of Artificial Intelligence. Case Studies and Options for Addressing Ethical Challenges. <\/em>Springer.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>A lo largo de las \u00faltimas d\u00e9cadas, la Inteligencia Artificial (IA) se ha convertido en una tecnolog\u00eda cada vez m\u00e1s presente y capaz de impactar nuestra vida cotidiana en m\u00faltiples formas, a menudo sin que seamos del todo conscientes de ello. Sin embargo, los recientes avances en el aprendizaje aut\u00f3nomo<a href=\"#_ftn1\">[1]<\/a>, especialmente en el aprendizaje profundo, est\u00e1n teniendo un impacto nunca antes visto en la opini\u00f3n p\u00fablica debido a la aparici\u00f3n de herramientas<a href=\"#_ftn2\">[2]<\/a> que nos permiten a personas no expertas explorar todo el potencial de estas \u00faltimas generaciones de IA<a href=\"#_ftn3\">[3]<\/a>.<\/p>\n\n\n\n<p>En este contexto de una adopci\u00f3n sin precedentes de estas herramientas, resulta esencial reflexionar de manera profunda y debatir abiertamente sobre su funcionamiento, posibilidades reales, usos potenciales, as\u00ed como las implicaciones que estos pueden tener en todas las esferas de la vida social, incluyendo la educaci\u00f3n, la cultura, la democracia y la econom\u00eda. Es importante tambi\u00e9n examinar estos temas desde una perspectiva \u00e9tica y la obra que se rese\u00f1a en este texto se dedica a abordar este \u00faltimo aspecto.<\/p>\n\n\n\n<p>El libro <em>\u00c9tica de la inteligencia artificial, estudios de casos y opciones para abordar los desaf\u00edos \u00e9ticos<\/em>, publicado por Springer en acceso abierto este mismo a\u00f1o, examina una serie de desaf\u00edos \u00e9ticos planteados por los sistemas de IA en \u00e1reas relacionadas con los derechos humanos. Los autores del libro, Bernd Carsten Stahl, Doris Schroeder y Rowena Rodrigues, analizan casos reales publicados en medios de comunicaci\u00f3n o informes de investigaci\u00f3n, agrupados en siete categor\u00edas que surgieron de su trabajo en el proyecto de investigaci\u00f3n <em>Shaping the ethical dimensions of Smart Information Systems<\/em> (2018-2021), financiado por la Uni\u00f3n Europea. Las categor\u00edas son las siguientes:<\/p>\n\n\n\n<ol class=\"wp-block-list\" type=\"1\"><li>Discriminaci\u00f3n injusta e ilegal<\/li><li>Privacidad<\/li><li>Capitalismo de vigilancia<\/li><li>Manipulaci\u00f3n<\/li><li>Derecho a la vida, la libertad y la seguridad de la persona<\/li><li>Dignidad<\/li><li>AI para el Bien y los Objetivos de Desarrollo Sostenible de la ONU<\/li><\/ol>\n\n\n\n<p>El libro dedica un cap\u00edtulo a cada una de estas siete categor\u00edas, y utiliza la misma estructura en todos. En cada cap\u00edtulo se presentan los casos de la vida real, se eval\u00faan las situaciones aportando elementos de an\u00e1lisis desde un contexto m\u00e1s amplio, y se sugieren estrategias que permitir\u00edan abordar los aspectos \u00e9ticos involucrados.<\/p>\n\n\n\n<p>Entre los problemas \u00e9ticos m\u00e1s graves que plantea la IA, destacan aquellos que afectan al derecho a la igualdad y la no discriminaci\u00f3n. Estos problemas surgen debido principalmente a los sesgos y las exclusiones presentes en las bases de datos utilizadas por estos sistemas. Las implicaciones son graves, dado que cada vez m\u00e1s decisiones se basan o incluso se delegan en sistemas autom\u00e1ticos. Algunos \u00e1mbitos donde se utilizan estas tecnolog\u00edas son la selecci\u00f3n y reclutamiento de personal; el despido de personas trabajadoras; la asignaci\u00f3n de servicios p\u00fablicos y beneficios sociales; el otorgamiento de cr\u00e9ditos y seguros; la concesi\u00f3n de visados y beneficios judiciales; y la vigilancia policial <em>predictiva<\/em>, entre otros.<\/p>\n\n\n\n<p>Las fallas en la protecci\u00f3n de los derechos relacionados con la privacidad y la intimidad son igualmente problem\u00e1ticas y se evidencian en gran parte de los casos incluidos en el libro. No obstante, las situaciones m\u00e1s cr\u00edticas se producen cuando se emplea la IA para capturar y analizar m\u00faltiples datos sobre el comportamiento, opiniones, preferencias de la ciudadan\u00eda, sin su conocimiento o permiso expl\u00edcito. La gravedad de estas pr\u00e1cticas se vuelve evidente al observar que se enmarcan en estrategias de control y manipulaci\u00f3n social con fines pol\u00edticos y econ\u00f3micos, llevadas a cabo tanto por algunos Estados como por numerosas corporaciones.<\/p>\n\n\n\n<p>El libro tambi\u00e9n aborda los peligros que algunas tecnolog\u00edas representan para el derecho a la vida y a la seguridad. Los casos presentados se refieren a errores o vulnerabilidades presentes en tecnolog\u00edas como los autom\u00f3viles aut\u00f3nomos, los centros dom\u00e9sticos inteligentes o los sistemas de diagn\u00f3stico m\u00e9dico. Sin embargo, se echa en falta la menci\u00f3n al \u00e1mbito de mayor riesgo e implicaciones \u00e9ticas y humanitarias: el de las armas aut\u00f3nomas<a href=\"#_ftn4\">[4]<\/a>. Resulta crucial promulgar un instrumento internacional jur\u00eddicamente vinculante que establezca prohibiciones y regulaciones respecto a este tipo de armamento. Lamentablemente, a pesar de que pa\u00edses como Costa Rica han tratado de impulsar esta iniciativa en la agenda internacional desde hace m\u00e1s de diez a\u00f1os, todav\u00eda no se ha logrado obtener resultados concretos en este sentido<a href=\"#_ftn5\">[5]<\/a>.<\/p>\n\n\n\n<p>Un \u00faltimo conjunto de problemas \u00e9ticos se ha dado en casos de uso de la IA en proyectos de desarrollo o para el cumplimiento de los Objetivos de Desarrollo Sostenible de la ONU. En este \u00e1mbito, preocupa la falta de sensibilidad, inclusividad y participaci\u00f3n igualitaria en la implementaci\u00f3n de sistemas de IA creados en el Norte para su puesta en pr\u00e1ctica en pa\u00edses del Sur. Estas situaciones no solo reflejan una mentalidad a\u00fan colonialista por parte de los pa\u00edses del Norte, sino que a menudo causan da\u00f1os materiales significativos a las poblaciones afectadas.<\/p>\n\n\n\n<p>En cuanto a las estrategias para enfrentar los problemas \u00e9ticos de la IA, el libro propone una variedad de opciones interesantes. Por ejemplo, se mencionan las evaluaciones de impacto de la IA para identificar los efectos a largo plazo de la implementaci\u00f3n de estas tecnolog\u00edas. Tambi\u00e9n se destaca la importancia de aplicar la \u00e9tica por dise\u00f1o o <em>ethics by design<\/em>, que implica la integraci\u00f3n de valores en el proceso de dise\u00f1o de los sistemas. Las regulaciones antimonopolio son otra medida importante para evitar que las corporaciones implementen pr\u00e1cticas que pongan en peligro la competencia empresarial justa. Adem\u00e1s, es crucial fortalecer las pr\u00e1cticas de acceso e intercambio de datos, as\u00ed como garantizar que las personas puedan reclamar su derecho a decidir c\u00f3mo se recolectan, usan y comparten sus datos. Finalmente, es fundamental fomentar pr\u00e1cticas que contribuyan a la transparencia y explicabilidad de los algoritmos y de los resultados que estos arrojan.<\/p>\n\n\n\n<p>Como se puede observar, uno de los valores m\u00e1s destacados del libro es que ilustra de manera concreta y pr\u00e1ctica una serie de problemas reales que surgen del uso de estas tecnolog\u00edas emergentes, junto con las implicaciones \u00e9ticas que conllevan y las posibles estrategias para mitigar sus efectos negativos. Si bien no profundiza en los aspectos m\u00e1s te\u00f3ricos, se manifiesta a favor de un enfoque abierto y plural de la \u00e9tica de la IA y se\u00f1ala que muchas de las reflexiones se inspiran en el enfoque de generaci\u00f3n de gu\u00edas basadas en principios \u00e9ticos. Las propias autoras hacen hincapi\u00e9 en que \u201ceste es un libro de estudios de caso de \u00e9tica de la IA, no un libro filos\u00f3fico sobre \u00e9tica\u201d (p. 5).<\/p>\n\n\n\n<p>Aunque el prop\u00f3sito de este libro no es realizar un estudio a profundidad de la \u00e9tica de la IA, es importante reconocer la importancia de comprender de manera profunda los m\u00faltiples factores sociales, econ\u00f3micos y pol\u00edticos que influyen en el dise\u00f1o, implementaci\u00f3n y uso de estas tecnolog\u00edas, considerando sus posibles repercusiones a mediano y largo plazo en todos los \u00e1mbitos de la vida humana.<\/p>\n\n\n\n<p>Por \u00faltimo, tambi\u00e9n resulta fundamental la necesidad de continuar reflexionando sobre las implicaciones \u00e9ticas de los diferentes tipos de sistemas de IA, a medida que estos van surgiendo y evolucionando. Un ejemplo de ello son los modelos de lenguaje avanzados que han capturado la atenci\u00f3n medi\u00e1tica recientemente (como GPT). Estos modelos presentan problemas propios y distintivos, que incluyen la apropiaci\u00f3n indebida de producciones art\u00edsticas e intelectuales, la explotaci\u00f3n de mano de obra barata en pa\u00edses del \u00c1frica para las labores psicol\u00f3gicamente m\u00e1s desgastantes de la fase de afinamiento del modelo, el antropomorfismo y su impacto en las personas, el ingente consumo de recursos energ\u00e9ticos, la creciente dificultad para diferenciar contenido aut\u00e9ntico de contenido sint\u00e9tico, as\u00ed como el peligro de concentraci\u00f3n de poder en un reducido n\u00famero de corporaciones.<\/p>\n\n\n\n<p>Para concluir esta rese\u00f1a, se destaca una de las consecuencias m\u00e1s relevantes que se derivan del tema abordado en el libro, especialmente para los sistemas educativos y las instituciones de educaci\u00f3n superior. Seg\u00fan las autoras del libro, es crucial plantear el desarrollo de la capacidad y la voluntad de reflexionar sobre las implicaciones \u00e9ticas del uso de las tecnolog\u00edas digitales, como una competencia esencial para la vida en las sociedades actuales y futuras. Esto significa que las instituciones educativas, especialmente la universidad, deber\u00e1n asegurar que estos elementos se contemplen en la formaci\u00f3n de su estudiantado, as\u00ed como en sus planes de investigaci\u00f3n y de extensi\u00f3n cultural.<\/p>\n\n\n\n<p><a href=\"https:\/\/link.springer.com\/book\/10.1007\/978-3-031-17040-9\" target=\"_blank\" rel=\"noreferrer noopener\">Enlace al libro.<\/a><\/p>\n\n\n\n<hr class=\"wp-block-separator\" \/>\n\n\n\n<p><a href=\"#_ftnref1\">[1]<\/a> Sistemas que incorporan datos hist\u00f3ricos para realizar predicciones y que siguen adapt\u00e1ndose a medida que reciben m\u00e1s datos.<\/p>\n\n\n\n<p><a href=\"#_ftnref2\">[2]<\/a> Herramientas como ChatGPT, Midjourney, Whisper, DALL-E, Runway, Tome, entre muchas otras, etc.<\/p>\n\n\n\n<p><a href=\"#_ftnref3\">[3]<\/a> Se le ha dado el nombre de \u201cIA generativa\u201d a la \u00faltima generaci\u00f3n de herramientas de IA que permiten generar datos y productos nuevos, distintos de aquellos con los que fueron \u201centrenadas\u201d, haciendo posible la creaci\u00f3n de nuevos textos, im\u00e1genes, v\u00eddeo, c\u00f3digo, sonido, etc.<\/p>\n\n\n\n<p><a href=\"#_ftnref4\">[4]<\/a> Armamento que usa sensores, algoritmos y aprendizaje autom\u00e1tico para operar sin intervenci\u00f3n humana directa.<\/p>\n\n\n\n<p><a href=\"#_ftnref5\">[5]<\/a> Costa Rica ha apoyado desde el inicio todas las iniciativas internacionales que se han promovido desde Naciones Unidas para la aprobaci\u00f3n de un instrumento jur\u00eddico vinculante en este campo. En 2020 lanz\u00f3 la campa\u00f1a nacional <em>Por un pa\u00eds libre de armas aut\u00f3nomas: tecnolog\u00eda al servicio de la paz<\/em>. En febrero de 2023, organiz\u00f3 la <em>Conferencia Latinoamericana y del Caribe sobre el impacto social y humanitario de las armas aut\u00f3nomas<\/em>, en el que participaron autoridades de 33 Estados de Am\u00e9rica Latina y el Caribe, representantes de la sociedad civil y de organismos internacionales.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><\/p>\n\n\n\n<div class=\"wp-block-themeisle-blocks-advanced-columns has-1-columns has-desktop-equal-layout has-tablet-equal-layout has-mobile-equal-layout has-default-gap has-vertical-unset\" id=\"wp-block-themeisle-blocks-advanced-columns-30bbad54\"><div class=\"wp-block-themeisle-blocks-advanced-columns-overlay\"><\/div><div class=\"innerblocks-wrap\">\n<div class=\"wp-block-themeisle-blocks-advanced-column\" id=\"wp-block-themeisle-blocks-advanced-column-210a7a95\"><\/div>\n<\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Libro: Ethics of Artificial Intelligence. Case Studies and Options for Addressing Ethical ChallengesAutores:&nbsp;Bernd Carsten Stahl, Doris Schroeder y Rowena RodriguesA\u00f1o original de publicaci\u00f3n:&nbsp;2023Editorial:&nbsp;SpringerRese\u00f1ado por:&nbsp;Mar\u00eda Eugenia BujandaPalabras clave:&nbsp;Inteligencia artificial, \u00c9tica de la tecnolog\u00eda, \u00c9tica de las computadoras, \u00c9tica de la informaci\u00f3n, Investigaci\u00f3n e innovaci\u00f3n responsablesCitaci\u00f3n del libro: Stahl, B. C., Schroeder, [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":2796,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"ngg_post_thumbnail":0,"_themeisle_gutenberg_block_has_review":false,"footnotes":""},"class_list":["post-2795","page","type-page","status-publish","has-post-thumbnail","hentry"],"_links":{"self":[{"href":"https:\/\/investiga.uned.ac.cr\/agendajoven\/wp-json\/wp\/v2\/pages\/2795","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/investiga.uned.ac.cr\/agendajoven\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/investiga.uned.ac.cr\/agendajoven\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/investiga.uned.ac.cr\/agendajoven\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/investiga.uned.ac.cr\/agendajoven\/wp-json\/wp\/v2\/comments?post=2795"}],"version-history":[{"count":0,"href":"https:\/\/investiga.uned.ac.cr\/agendajoven\/wp-json\/wp\/v2\/pages\/2795\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/investiga.uned.ac.cr\/agendajoven\/wp-json\/"}],"wp:attachment":[{"href":"https:\/\/investiga.uned.ac.cr\/agendajoven\/wp-json\/wp\/v2\/media?parent=2795"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}