top of page

Una mirada a la Inteligencia Artificial y sus fundamentos ético-jurídicos

Por Karina Provasnik-Joaquín Rubio


Los días 24 y 25 de junio se llevó a cabo el “LegalTech Summit 2021”, donde fuimos parte del panel “Una mirada a la Inteligencia Artificial y sus fundamentos éticos jurídicos”.


En una primera instancia se abordaron diferentes conceptos clave para introducir en la temática al público. Dado que el concepto de Inteligencia Artificial es amplio, se hizo una distinción entre lo que se considera IA de bajo nivel e IA de alto nivel. La IA de bajo nivel es un sistema diseñado y entrenado para una tarea en particular: asistentes personales virtuales, como Siri de Apple, RPA, chatbots, son una forma de esta clase de IA. Por otra parte, la IA de alto nivel es un sistema con habilidades cognitivas humanas generalizadas, de modo que cuando se le presenta una tarea desconocida, tiene suficiente capacidad como para encontrar una solución.


Como ejemplo de IA de bajo nivel, se hizo referencia a RPA que es el proceso de crear automáticamente un sistema o una función de proceso donde la intervención del humano no es necesaria.


En una segunda instancia se procedió a explicar con mayor precisión el concepto de Aprendizaje Automático, así como los diferentes tipos de aprendizaje existentes y se plantearon algunos dilemas éticos que esto trae aparejado.


En este sentido, por un lado, existen los algoritmos de aprendizaje automático supervisados, esto quiere decir que los algoritmos “aprenden” de un conjunto de datos de entrenamiento conocido. Así por ejemplo, si queremos que el algoritmo aprenda a diferenciar autos de motos, le vamos a enseñar miles de imágenes de autos (datos de entrada) y le diremos que son autos (salida que queremos obtener). Además si el sistema hace una predicción errónea, lo corregiremos. Entonces, en un determinado momento, sabrá diferenciarlos por sí solo. Este tipo de algoritmo se utiliza, por ejemplo, en la detección de spam de los emails.


Por otro lado, existe el aprendizaje automático no supervisado. Si bien este tipo de aprendizaje es similar al supervisado, se diferencian en que aquí los datos no están etiquetados y van a ser clasificados por parte del algoritmo: de acuerdo con determinados patrones de similitudes o diferencias, el algoritmo es capaz de entrenarse a sí mismo sin indicaciones externas. Un ejemplo de este tipo de aprendizaje es el que usa el sistema de detección de fraudes de las tarjetas de crédito.


Finalmente, está el aprendizaje por refuerzo. En este caso, los datos no están etiquetados, pero después de realizar una acción o varias acciones basadas en prueba y error y con un objetivo específico de recompensa, el sistema de IA recibe retroalimentación continua y los datos quedan identificados en el sistema para futuras acciones. Se utiliza este tipo de aprendizaje generalmente en los videojuegos.


De estos conceptos se concluye que es muy relevante la evidencia de cómo los sistemas se retroalimentan y logran aprender de su propia experiencia, lo que hace necesario prever la autonomía que estas máquinas inteligentes pueden lograr, ya que llegarán a tomar decisiones cada vez más complejas y con mayor impacto sobre las organizaciones y la sociedad misma.


Es por ello por lo que aquí nos parece imprescindible introducir el concepto de ética. Todos tenemos alguna referencia respecto de qué es la ética. Si la concebimos como disciplina filosófica que nos ayuda a reflexionar sobre los comportamientos correctos e incorrectos y sobre cómo llegar a tener una buena vida en interacción con otros seres humanos y en armonía con el medio ambiente (RAE), entonces la ética se convierte en un componente clave para el desarrollo actual y futuro de la IA, ya que es la base para mantener la integridad y la legitimidad de sus aplicaciones.


Entendemos, como lo han manifestado distintos institutos académicos y de políticas públicas, que los desarrollos tecnológicos deben estar sujetos a la aprobación y verificación de la sociedad no sólo con criterios técnicos, sino también con criterios éticos.


Para finalizar, expusimos algunos ejemplos de dilemas éticos. Uno de ellos es el caso que ocurrió hace algún tiempo en Amazon, con motivo de la selección de personal, el algoritmo había sido ‘entrenado’ con datos de diez años anteriores, en los que había una mayoría de hombres blancos de menos de 40 años. Por lo tanto, empezó a discriminar de forma involuntaria por género, raza y edad.


Entonces, algo que debemos tener en cuenta es que un algoritmo en sí mismo no es bueno ni es malo; el algoritmo se alimenta de datos, y estos datos pueden tener sesgos. Por lo que es muy importante detectarlos y mitigarlos, además de tenerlos presente cuando se lidere o se participe en proyectos de IA.


Finalmente planteamos el dilema ético del MIT (Massachussets Institute of Technology) que se ha popularizado ya hace tiempo y está relacionado con la programación de sistemas de los autos autónomos. Este caso expone diferentes imágenes con situaciones ante un accidente de tránsito. Imaginemos que vamos en un coche que se maneja automáticamente, y tres personas cruzan con semáforo en rojo. Está la opción de seguir adelante y atropellarlos, o volantear y estrellarse contra una pared, matando al ocupante del vehículo. En un caso así, ¿qué debería hacer ese sistema inteligente?


Es aquí donde aparecen muchos dilemas. Algunos dirán que siempre se debe proteger al ocupante del vehículo; otros pueden opinar que no habría que sacrificar la vida del ocupante si las personas están cruzando en rojo. Pero esta percepción tal vez cambie si cruzan en verde. O aunque crucen en rojo, ¿la opinión cambiaría si quienes cometen la infracción son niños o ancianos?


Entonces, podemos percibir que el tema es mucho más complejo de lo que parece, y es por eso por lo que el MIT ha creado un centro de investigación, moralmachine.mit.edu, que presenta diversos dilemas morales y se han realizado millones de encuestas a nivel global.

Algunos de los resultados que arroja esta encuesta es que los algoritmos deberían tomar las decisiones que salven mayor número de vidas, y preferentemente mayor número de vidas de niños. Sin embargo, existen diferentes opiniones según zonas geográficas y culturas. Así por ejemplo, hay países en los cuales se opta por salvar a los ancianos frente a los niños.

Como podemos constatar a partir de lo expuesto, hay una casuística bastante compleja, y poder definir responsabilidades, así como crear una legislación que sea capaz de abordar las preocupaciones éticas que trae aparejado el uso de soluciones de IA no será para nada rápido ni sencillo. Es por ello, que espacios de conversación como el Summit se vuelven fundamentales para involucrar diversos actores y para que se genere una sinergia y colaboración entre aquellos interesados en IA para afrontar los desafíos del futuro.

90 visualizaciones0 comentarios

Commentaires


bottom of page