Por Beatriz Bugallo Montaño
Friedman y Nissenbaum (1) alertaban en 1996 sobre los sesgos en la Inteligencia Artificial –en adelante IA-, procurando prevenirlos y que no distorsionaran el efecto de las aplicaciones de esta tecnología que se sustenta en datos y algoritmos. Los datos constituyen los elementos base con contenidos que se entrenan y permiten resultados informáticos, mientras que los algoritmos en informática son el conjunto de órdenes o instrucciones que organizadamente buscan un determinado efecto y objetivo.
Considerando que sesgo para la Real Academia Española significa “Oblicuidad o torcimiento de una cosa hacia un lado ...”, los sesgos en la IA hacen referencia a desviaciones que tienen lugar en los resultados de la aplicación de ciertos algoritmos a los datos seleccionados para cualquiera de las tecnologías comprendidas en la IA. Los sesgos algorítmicos consisten en la valoración o apreciación de un resultado derivado de las instrucciones dadas a través del software, con una definida inclinación a una posición, a un tema o a una idea. Los sesgos también pueden tener como origen los datos que se incorporan en el proceso de entrenamiento para el modelo de la IA.
Se procura que no presente sesgos ningún sistema de IA, que las decisiones que tome, sea en reconocimiento facial, predictibilidad o cualquier objetivo que se plantee, no presenten desviaciones o tendencias hacia alguna posición en particular, particularmente si es discriminatoria en cualquier sentido.
En una aplicación de IA, en Munich, que valoraba entrevistas de trabajo realizadas por videoconferencia se identificaron algunos sesgos (corregidos a posteriori) que interpretaban cualidades en función de ciertos objetos que acompañaban al entrevistado. Así fue que se constató que el uso de lentes determinaba que el software considerara al entrevistado menos responsable y más introvertido; ese sesgo se identificó al contrastar con entrevistas de la misma persona, diciendo lo mismo sin lentes. También se constató que exhibir una estantería con libros por detrás del entrevistado online, hacía que el programa considerara a esa persona más abierto, amable, extrovertido, frente al caso en el cual simplemente había una pared sin ningún objeto. Algo similar sucedió en caso que una mujer entrevistada utilizara un pañuelo en la cabeza, por oposición al caso de la misma mujer entrevistada que no lo utilizara.
Hay diversos tipos de sesgo algorítmico según dónde surja la desviación identificada, entre las que destacan los llamados sesgos clásicos: estadístico, cultural, cognitivo. Los sesgos también se pueden caracterizar como concientes o inconcientes, observables o no observables, inductivos, corregibles, controlables (2). Productores e informáticos de la IA deben revisar, comprobar los resultados para prevenir y corregir sesgos. Es fundamental ubicar su origen.
Frente a los sesgos se aplican los contrasesgos, es decir, medidas preventivas o correctivas desde la propia tecnología para corregir las desviaciones apreciables. Se realizan auditorías de algoritmos para prevenir sesgos y evitar daños, lo que implica un control o revisión- a veces por terceros – de la calidad de los datos entrenados, así como un análisis de la composición de los data sets, conjunto de datos, que se van a entrenar. Se puede identificar tres amplias categorías de medidasen general: a) la eliminación de sesgos que hagan los propios algoritmos de IA; b) hacer que los algoritmos aplicados sean transparentes, dando a conocer fortalezas y debilidades; c) auditar la carga de los algoritmos. Existen también, al efecto, aplicaciones de software de contrasesgos.
Con el objetivo de poner en evidencia los sesgos de la IA y de impedirlos se aprobaron algunas normas legales, de diverso nivel. Particularmente, a nivel europeo, se encuentra la Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión, de 21 de abril de 2021 (3). Destaca la necesidad de prevenirlos y corregirlos, imponiendo la aplicación de medidas oportunas a efectos de evitar el riesgo de posibles sesgos, particularmente en cuanto los sistemas de IA que considera de alto riesgo, como ser aquéllos cuyo objetivo es ayudar a las autoridades judiciales a investigar e interpretar los hechos y el Derecho.
En algunos Estados de USA se aprobaron disposiciones a nivel local – estatal. Es el caso del Estado de Nueva York (4), que en 2017 aprobó la Ley de rendición de cuentas algorítmica (1696-2017): entre diversas obligaciones impone que en conjunto, los algoritmos deben ser accesibles a través de un único catálogo y las mejores prácticas deben documentarse en un manual de estándares técnicos, puesto en conocimiento del público. Hay otras leyes estatales en los Estados de Washington, California, Illinois y Vermont (5). En USA no hay – al menos todavía - una norma legal general. De todas maneras, desde la Comisión Federal de Comercio se establecen reglas al respecto y se han constituído a principios del 2021 una serie de comisiones y agencias a nivel de Gobierno, destinadas a profundizar la implementación de Políticas Públicas en la IA.
A nivel internacional, la Organización para la Cooperación y el Desarrollo Económicos (OCDE en español – OECD en inglés) adoptó el 21 de mayo de 2019 la Recomendación del Consejo sobre Inteligencia Artificial(Documento OECD/LEGAL/0449) (6) como guía para la legislación que realicen los Estados nacionales. Dicho documento hace referencia a la necesidad de que los actores de la IA aborden la gestión de sus riesgos, incluidos los correspondientes a los sesgos, en procura del desarrollo de IA que esté “libre de sesgos inapropiados”.
Hasta ahora la regulación legal como solución eficiente para la prevención y corrección de los sesgos de la IA está muy lejos de ser considerada por un número relevante de involucrados en este tema. La mentada necesidad de “transparencia de los algoritmos” sigue siendo cuestionada.
Finalmente, se destaca como muy relevante el aporte que desde la Ética se realiza para el tratamiento de datos y aplicación de algoritmos en la IA. Tiene como objetivo que las opciones tomadas por analistas y operadores sean las correctas para interpretar al menos ciertos sesgos. Hay diversas iniciativas y Guías que se utilizan para la actividad técnica de los sistemas de la IA, así como ámbitos de debate de las cuestiones que cotidianamente se presentan. Temas como la discriminación por género, el uso de la IA en el Arte, entre otros, generan los llamados dilemas éticos de la IA (7).
Entre los documentos más destacados se encuentran las “Directrices éticas para una IA fiable” elaborado por el Grupo independiente de Expertos de alto nivel sobre Inteligencia Artificial creado por la Comisión Europea en junio de 2018, publicado en abril del 2019 (8). Entre otras alusiones al tema, el documento hace referencia a los sesgos al analizar el principio de equidad, estableciendo que debe existir un compromiso de “asegurar que las personas y grupos no sufran sesgos injustos, discriminación ni estigmatización. Si se pueden evitar los sesgos injustos, los sistemas de IA podrían incluso aumentar la equidad social.”.
También la UNESCO elaboró un documento sobre Ética e IA donde hace referencia a que la IA puede dar lugar a resultados discriminatorios así como a “sesgos implíticos o incorporados” que es necesario prevenir y corregir. Se trata del “Estudio preliminar sobre los aspectos técnicos y jurídicos relativos a la conveniencia de disponer de un instrumento normativo sobre la ética de la inteligencia artificial”, de fecha 28 de marzo de 2019 (9).
En definitiva: así como a lo largo de la Historia, en todos los tiempos, ha habido tendencias, sesgos o desviaciones en las opiniones y decisiones humanas, también en las aplicaciones de la IA, que se basan en datos de origen humano, con entrenamiento realizado por seres humanos, pueden encontrarse sesgos o desviaciones. En la IA los sesgos se pueden identificar y corregir para una aplicación más eficiente. De todas maneras, no olvidemos que lo que se puede estar percibiendo en algunas circunstancias como sesgo puede ser un reflejo certero de la realidad. Bien entrenados, los datos no mienten.
(1) FRIEDMAN, Batya, NISSENBAUM, Helen, “Bias in Computer Systems”, ACM Transactions on Information SystemsVolume 14 Issue 3 July 1996, pág. 330–347 https://doi.org/10.1145/230538.230561, vto. 3/7/2021
(2) ROVATSOS, Michael, MITTELSTADT, Brent, KOENE, Ansgar, “Landscape Summar: Bias in Algorithmic Decision Making”, 2019, https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/819055/Landscape_Summary_-_Bias_in_Algorithmic_Decision-Making.pdf,vto. 3/7/2021
(3) https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:52021PC0206&from=ES, vto. 24/6/2021
(4) https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-461253F9C6D0&FullText=1, vto. 24/6/2021
(5) Ver información de seguimiento del tema en “National Conference of States Legislature. Legislation Related to Artificial Intelligence”: https://www.ncsl.org/research/telecommunications-and-information-technology/2020-legislation-related-to-artificial-intelligence.aspx/?ref=hackernoon.com, vto. 24/6/2021.
(6) https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449, vto. 1/7/2021.
(7) Se puede ver una serie de situaciones de sesgos descriptas en el sitio web de la UNESCO.
(8) Grupo independiente de Expertos de alto nivel sobre Inteligencia Artificial, “Directrices éticas para una IA fiable”, pág. 48-49, https://op.europa.eu/es/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1, vto. 1/7/2021
(9) https://unesdoc.unesco.org/ark:/48223/pf0000367422_spa, vto. 24/6/2021
Comentarios