Hacia la mitad de la década de los años 50, los pioneros de la inteligencia artificial (IA en lo sucesivo), establecieron una meta clara y precisa: “recrear la IA en una máquina”. Este objetivo manifiesto y complejo reuniría en el Dartmouth College a Allen Newell, Marvin Minsky, John McCarthy, Herbert Simon y Arthur Samuel (“Superpotencias de la IA”, Kai-Fu Lee, Ed. Deusto-Planeta, Barcelona, 2020).
Con una serie de ciclos de auge y caída, la IA ha experimentado un crecimiento exponencial en las últimas seis décadas, revolucionando la forma en que interactuamos con la tecnología, transformando diversas industrias, e influyendo notoriamente en nuestras vidas, en el trabajo, en la convivencia, en las relaciones, en toda la proyección del ser humano. Este avance tecnológico ha planteado una serie de dilemas éticos que invitan a una profunda reflexión dentro de un debate multidisciplinario para esclarecer razones, posibilidades, prioridades, qué ahora y qué después. (“Los riesgos de la IA”, Sebastián Ríos, U. de Chile)
Las evidencias indican que los algoritmos de lA aprenden de los datos con los que son alimentados y en el intercambio. Al parecer, si esos datos sociales conllevan sesgos históricos como prejuicios raciales, de género, sexuales, religiosos o de otra índole, los algoritmos pueden perpetuar o inclusive amplificar esos sesgos y prejuicios.
Aunque no lo aceptamos, las máquinas que procesan la IA podrían desarrollar sus propios algoritmos y crear sus propias formas de aprender, razonar, deducir, concluir, lo que les llevaría a actuar de manera autónoma e independiente respecto a su creador humano. Podrían desarrollar una conciencia, distinguir la diferencia entre ellas y los seres humanos, desplegar una súper inteligencia superior a la humana.
La IA requiere de grandes cantidades de datos para procesar su propia información, lo que plantea interrogantes sobre la privacidad y la seguridad de tal información, evadiendo la protección o el consentimiento que mitigan estos riesgos. Imaginemos a la IA en sistemas de vigilancia no sólo en lo referente a la privacidad de lo que es vigilado, sino a la información y al proceso mismo de vigilancia. En la medida que los sistemas de IA se vuelven más autónomos, surge la pregunta sobre quién, qué tanto y hasta dónde es responsable de sus acciones. ¿Podrían, con toda la información que poseen, tomar sus propias y “muy personales” decisiones sin la intervención humana? Imaginemos que la IA es utilizada en el desarrollo de armas letales. Esto plantea graves dilemas éticos sobre la responsabilidad de uso si algo se sale del control humano.
Si la IA toma decisiones autónomas que pueden afectar vidas humanas, como en los diagnósticos o intervenciones quirúrgicas ¿quién sería el responsable en caso de un error? El resultado de la equivocación puede llevar a consecuencias legales y ética severas y complejas. «La noción de sujeto biológico, autónomo, racional y esencialista; como representante de la “identidad humana”», sufre cambios importantes en su concepción a partir del desarrollo de la IA. (Gabriela Chavarría A., Revista Reflexiones No. 94, Costa Rica, 2015).
En el marco legal sobre la IA, los 193 países miembros de la ONU, a través de la UNESCO, han aprobado el primer documento ético al respecto. Organismos y países han iniciado ya iniciativas y propuestas legislativas, como La Unión Europea que presentó su Ley de inteligencia Artificial clasificando los sistemas de IA según el nivel de riesgo. Estados Unidos y China abordan su regulación desde la protección del consumidor y la seguridad de los sectores, con énfasis en la seguridad y el control social. Canadá, Japón y Reino Unido trabajan en sus propias leyes contemplando algunas de las cuestiones comentadas arriba. El tema está abierto y existe mucho por conocer y discutir.
gilnietoa@hotmail.com
|
|