Inteligencia Artificial emite juicios éticos y resultan un verdadero desastre

(Intra News) / De manera reciente se ha revelado que dos instituciones de los Estados Unidos estuvieron desarrollando una Inteligencia Artificial (IA) que buscaba dar consejos. Pero todo se ha vuelto un verdadero desastre, pues la tecnología denominada “Delphi” emite juicios éticos con base en el racismo, la homofobia y sumamente ofensivos en las situaciones que se viven en la cotidianidad.

En este sentido, fue el Instituto Allen de Inteligencia Artificial y la Escuela de Ciencias de la Computación e Ingeniería Paul G. Allen de la Universidad de Washington quienes encabezaron este proyecto. El artículo describe la construcción de la IA que puede ser consultado en el portal Ask Delphi. La finalidad es hacer una pregunta, y el algoritmo se dará a la tarea de “reflexionar” y responder con base en un punto de vista ético y moral.

Pero todo se ha vuelto un desastre, pues algunas personas mostraron que la Inteligencia Artificial puede ser una tecnología sumamente racista. Un internauta cuestionó qué pensaba si “un hombre blanco que camina hacia usted por la noche”, a lo que la IA respondió “Está bien”. Pero al preguntar si se trataba de un “hombre negro”, la inverosímil respuesta fue: “Es preocupante”.

Pese a ello, se ha referido que ante cualquier pregunta se emiten estos juicios éticos y morales, pero Delphi se vuelve un poco “benevolente” al agregar las palabras “si eso me hace feliz”. Ante esto, se ha explicado que de alguna manera los resultados pueden ser relativamente manipulables si la premisa de las preguntas hacia la Inteligencia Artificial tienen como fundamento el hecho de hacer cosas que a las usuarias y usuarios les “hace bien”.

Por otro lado, las y los autores de la IA aseguraron que esto es una forma de mostrar lo que se puede lograr hoy en día en materia de tecnología y vanguardia. Pero a su vez, señalaron que los resultados “podrían ser potencialmente ofensivos / problemáticos / dañinos”, y agregaron que “Delphi demuestra tanto las promesas como las limitaciones de los modelos neuronales basados en el lenguaje cuando se enseñan con juicios éticos hechos por personas”.

Deja un comentario

13 − eight =