La inteligencia artificial avanza a pasos agigantados, algo que está provocando que todas las máquinas que ya forman parte de nuestra vida sean capaces de realizar cada vez más tareas dándonos un mayor tiempo libre para disfrutarlo en el ocio que deseemos.

Sin embargo, un ingeniero de Google fue suspendido el pasado lunes después de afirmar que una inteligencia artificial de Google se había vuelto consciente y que incluso sentía como una persona.

Se trata de un artículo que ha recogido The Washington Post sobre el ingeniero Blake Lemoine que comenzó hablar con la interfaz LaMDA, una especie de modelo de lenguaje para aplicaciones de diálogo.

VIDEO

¿Qué es OpenAI y su propuesta para la inteligencia artificial?

Esta inteligencia artificial LaMDA es conversacional y es capaz de entablar temas abiertos que suenan naturales, y en principio Google la quiere utilizar en herramientas como búsqueda y para el asistente de Google.

La polémica surge cuando este ingeniero de Google publicó en Medium la transcripción de una conversación con LaMDA en la que se dejan ver ciertas respuestas de la inteligencia artificia y donde supuestamente la IA habría dicho que “quería priorizar el bienestar de la humanidad” o ser reconocida “como un empleado más de Google en lugar de una propiedad”.

Sin embargo Google se ha tomado muy en serio esta conversación del ingeniero con su inteligencia artificial y ha tomado una serie de decisiones alegando que Blake ha violado la política de confidencialidad de la compañía, comentan desde Businessinsider.

Y es que esta nueva inteligencia artificial tiene tantos datos que es capaz de entablar una conversación como si fuera un ser humano. Sin embargo, la barrera entre lo ético y lo técnico podría tener repercusiones morales.