A pesar de las advertencias de dos analistas del área de seguridad, el CEO de Google, Sundar Pichai, decidió colocar en el mercado el chatbot del buscador, conocido como Bard.
Mario Beroes/El Político
Dos de los analistas responsables de evaluar los productos de IA de Google informaron por escrito a sus superiores sobre el riesgo de que el chatbot desarrollado por la compañía generara contenido falso o peligroso.
Los dos empleados trabajaban en el equipo de Jen Gennai, directora del grupo de Innovación Responsable de Google.
Luego de varias pruebas y de revisar la herramienta, insistieron en que las medidas de seguridad eran insuficientes y que el chatbot no estaba listo.
Sin embargo, la directiva de la empresa de tecnología californiana, pasó por alto las advertencias y Bard, finalmente, fue presentado el pasado 8 de febrero, aunque solo a un número muy limitado de usuarios.
Por qué es importante
The New York Times en un artículo acusa a Gennai de alterar el documento final para eliminar la recomendación y minimizar la alarma sobre los riesgos.
El medio estadounidense cita a dos personas vinculadas con el proceso.
Sin embargo, Google se defendió de la acusación afirmando que "justo por este tipo de alarmas", había lanzado Bard como un experimento limitado.
Gennai, la directora del equipo de Innovación Responsable, confirmó aThe New York Times que había "corregido suposiciones inexactas" en el informe de los analistas. Dijo que "los evaluadores no debían opinar sobre si se debía proceder o no con el lanzamiento".
Carrera frenética
La llegada de ChatGPT, el chatbot de OpenAI, en noviembre del año pasado, fue el punto de partida de una carrera frenética en el desarrollo de modelos impulsados por IA.
Los grandes de la industria, como Microsoft y Google, se apuraron en presentar nuevas herramientas y funcionalidades, a pesar de que distintas organizaciones y expertos han advertido sobre los riesgos inherentes a este tipo de tecnología.
Así como los trabajadores de Google pidieron frenar la salida de Bard, un grupo de trabajadores de Microsoft hicieron lo propio hace diez meses.
Especialistas en ética y otros analistas de Microsoft presentaron varios informes sobre cómo la IA detrás de un chatbot planificado podría generar caos en grupos de Facebook con desinformación.
Advirtieron de cómo una herramienta de este tipo, sin los recaudos suficientes, atentaría contra el pensamiento crítico de los usuarios.
A modo de conclusión
Estos "detalles", en su momento, detuvieron el lanzamiento de sistemas similares. En 2016, por ejemplo, Microsoft retiró rápidamente un chatbot llamado Tay, después de que los usuarios lo hicieran generar respuestas racistas y homofóbicas. Estuvo disponible menos de un día.
Antes de Bard, Google ya había anunciado en 2020 a Meena, un chatbot similar. Sin embargo, la compañía consideró que el producto era demasiado arriesgado y finalmente decidió no lanzarlo al mercado.
Las cosas han cambiado. Ambas firmas tecnológicas ya publicaron sus nuevos chatbots, sin resolver varias de las preocupaciones de entonces.
Newsguard, una plataforma que mide y califica la confiabilidad de fuentes informativas, viene alertando desde enero cómo ChatGPT, GPT-4 y Bard producen fácilmente contenido falso para respaldar conocidas teorías conspirativas.
Inclusive el modelo de OpenAI se inventa estudios completos y los presenta como verídicos.