La científica de CONICET habló en la 99.9 sobre los miedos que ha generado el surgimiento del ChatGPT y aclaró que se debe dar un debate ético sobre lo límites a la inteligencia artificial que destacó como muy útil para la sociedad.
La irrupción del ChatGPT inmediatamente generó polémica por la implementación de esta nueva tecnología de inteligencia artificial.
La científica Sandra Pitta, viene abordando estos temas buscando que haya un debate más profundo en torno a cuestiones que hoy no se discuten. “Estoy trabajando mucho los temas de ética científica”, dijo en la 99.9. Luego agregó: “casualmente me interesa porque estas tecnologías que se están aplicando, serán parte de nuestra vida y hay que sacarse los miedos. Son productos del ser humano y hay reglas éticas que deben trasladarle a las máquinas. Esto es imparable y es maravilloso lo que se puede lograr con la inteligencia artificial como el hecho de nuevos medicamentos o la estructura de proteínas que es compleja y se acelera de esta forma“.
Ese debate que pide Pitta tiene distintas aristas que se deben discutir para dejar claros los límites: “el tema ético abarca todas la áreas, desde la justicia, la biología, la química….todo y nos atravesará a todos. Negarlo o decir que no pasará o enojarse con el chatGPT, es un sinsentido. Hay que ver como funciona, como aplicamos la ética en el desarrollo de estos procesos. Hay mucho miedo en lo laboral, obvio que habrá trabajos que no existirán más pero se generarán otros. Hay una historia extensa de construcción y destrucción constante”.
Ese miedo lleva al rechazo inmediato e incluso a la formación de opinión en base a la desinformación, como ya ha sucedido históricamente con otros adelantos tecnológicos que resultaron positivos: “el miedo me parece que hay que sosegarlo porque sino se genera un rechazo a pesar de que la tecnología seguirá avanzando. A los alimentos transgénicos se los llamó FrankensFood pensando que eran como Frankenstein y hoy la historia es distinta. Creo que es necesario encarar esto con reglas éticas y el debate no se da. Aparecen notas, pero el tema no se debate. Es un tema favorable para la justicia porque ayuda mucho al estudio de las causas, pero el que toma la decisión final es el ser humano”, indicó como ejemplo.
Esos límites éticos tienen que estar focalizados en quienes administran la inteligencia artificial. “El ChatGPT está generado por una empresa con información hasta el año 2021 y uno le hace una pregunta cualquiera por lo que contesta como si fuera un ensayo. Toma toda la información que encuentra y responde. Pero el chat lo entrenamos los seres humanos, el problema ético es el entrenamiento que le damos al Chat, donde ponemos los frenos éticos y quien lo entrena. Todavía es muy rudimentario y hay que darle tiempo”, señaló Sandra Pitta.