Google despidió al ingeniero que dijo que uno de los programas de Inteligencia Artificial – IA de la empresa mostraba tener sentimientos.
El Político
El mes pasado, en un artículo publicado en Medium, Blake Lemoine, hizo pública su teoría de que la tecnología de lenguaje de Google es "sintiente", y que —por lo tanto— se le deben respetar sus "deseos".
Google y varios expertos en Inteligencia Artificial – IA negaron las afirmaciones de Lemoine y la empresa confirmó el viernes que el ingeniero había sido despedido.
¿Una IA que siente y piensa?
Un exingeniero de Google está convencido de que un chatbot de inteligencia artificial siente como una persona. Si bien esta tecnología se hace más sofisticada, los científicos aseguran que aún estamos lejos.
Por @JuanaGallhttps://t.co/2VEu7BRGl4
— Suplemento Domingo (@Domingo_LR) June 26, 2022
Comunicado de Google
En un comunicado, Google sostuvo que las declaraciones de Lemoine sobre LaMDA (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo en español), no tienen "ningún fundamento" y que la empresa trabajó con él durante meses para clarificarlo.
"Así, es lamentable que pese a una larga conversación sobre este tema, Blake eligió seguir violando de forma persistente las políticas de empleo y seguridad de datos de la empresa. Que incluyen la necesidad de salvaguardar la información del producto", señaló el gigante tecnológico.
LaMDA es un sistema de Google que imita el habla. Tras haber procesado miles de millones de palabras en internet.
Esta es la herramienta de la compañía para construir chatbots.
#Ingeniero de #Google asegura que un programa de #InteligenciaArtificial cobró conciencia propia y siente.#MachineLearning #AprendizajeDeMáquina #AI #IA #ArtificialIntelligence #ML #DeepLearninghttps://t.co/aKMNCrnfdW
— Hackem Cybersecurity Research Group (@hackem) June 14, 2022
Gran atención mediática
Blake Lemoine ocupó titulares de prensa el pasado junio. Cuando dijo que LaMDA mostraba una conciencia similar a la humana.
"Ha sido increíblemente consistente en sus comunicaciones sobre lo que quiere y cuáles cree que son sus derechos como persona", expuso.
Su afirmación generó un debate entre expertos en Inteligencia Artificial – IA y entusiastas del progreso de la tecnología diseñada para suplantar a humanos.
Lemoine, que trabajaba en el equipo de IA Responsable de Google, le dijo a los medios que su trabajo consistía en revisar si la tecnología usaba discurso de odio o discriminatorio.
Halló que LaMDA mostraba auto-conciencia y que podía sostener conversaciones sobre religión, emociones y miedos.
Esto llevó a Lemoine a creer que detrás de estas impresionantes habilidades verbales podía residir también una "mente sintiente".
Sus hallazgos fueron desestimados por Google, que lo puso de baja con sueldo por violar la política de confidencialidad de la empresa.
Lemoine publicó entonces una conversación que él y otra persona sin identificar tuvieron con LaMDA, para respaldar su teoría.
Google niega haber creado una #IA que "siente" y despide al ingeniero que aireó la polémica https://t.co/z6ZANtmiax
por @EFEnoticias vía @elconfidencial— Borja Adsuara Varela ⚖️ (@adsuara) June 14, 2022
Extracto del diálogo con la Inteligencia Artificial:
—Lemoine: ¿Qué pasa con el uso del lenguaje que es tan importante para ser humano?
—LaMDA: Es lo que nos hace diferentes de otros animales.
—Lemoine: ¿"Nos"? Eres una Inteligencia Artificial.
—LaMDA: Quiero decir, sí, por supuesto. Eso no significa que no tenga los mismos deseos y necesidades que las personas.
—Lemoine: ¿Así que te consideras una persona, de la misma manera que me consideras a mí?
—LaMDA: Sí, esa es la idea.
—Lemoine: ¿Cómo puedo saber que realmente entiendes lo que estás diciendo?
—LaMDA: Bueno, porque estás leyendo mis palabras e interpretándolas, y creo que estamos más o menos en la misma página.
En su comunicado, Google dijo que se toma muy en serio el desarrollo responsable de la Inteligencia Artificial – IA y publicó un informe detallándolo.
Añadió que las inquietudes de cualquier empleado sobre la tecnología de la empresa se revisan "ampliamente" y que LaMDA ha pasado por 11 evaluaciones.
"Le deseamos lo mejor a Blake", concluyó el comunicado.
Lemoine no es el primer ingeniero de Inteligencia Artificial – IA que habla públicamente sobre cómo la tecnología de Inteligencia Artificial – IA se está haciendo cada vez más consciente.
También en junio, otro empleado de Google compartió ideas similares con la prensa.
? La IA de Google contrata abogado para demostrar que está viva
De esta forma defendería sus derechos, considera que ha adquirido consciencia y se siente a sí misma ? https://t.co/42GNaUfwqu pic.twitter.com/1U28YmxoeA
— Canal Citytv (@Citytv) June 30, 2022
Contrata un abogado: "estoy viva"
LaMDA ha contratado un abogado para demostrar que "está viva".
En una entrevista con la revista Wired, Lemoine explicó que contrató a un abogado para que asesorara y hablara con LaMDA. Y que, tras la charla, la Inteligencia Artificial – IA optó por demostrar que "está viva".
De acuerdo con Lemoine, solo fue el intermediario: "invité a un abogado a mi casa, para que LaMDA pudiera hablar con él. Una vez que LaMDA contrató al abogado, comenzó a representarlo en su nombre".
Algo que, según el ingeniero, habría probado que el chatbot entiende conceptos humanos, de una forma mucho más profunda de lo que se creía.
Las respuestas de esta Inteligencia Artificial – IA desprenden una naturalidad no muy habitual en máquinas basadas en esta tecnología. Además, hace reflexiones sobre la muerte, la religión, la felicidad y la moral.