domingo 9 noviembre 2025 / 16:36
El Politico

DONDE LAS IDEAS SE ENCUENTRAN

Sin resultados
Ver todos los resultados
  • Estados Unidos
  • Latinoamérica
  • Mundo
  • Economía
  • Cultura
  • Ideas
El Politico
Sin resultados
Ver todos los resultados
Trending
  • Trumpworld
  • Fraude en Venezuela
  • Efecto Milei
  • Guerra Israel

Seguridad en chatbot de IA de Google es deficiente: genera contenido falso o peligroso

Analistas responsables de evaluar los productos de IA de Google informaron por escrito a sus superiores sobre el riesgo de que el chatbot desarrollado por la compañía generara contenido falso o peligroso

M B Por M B
12/04/2023
en Economía, Finanzas y Negocios
Google reabre la puerta de su chatbot Bard para competir contra ChatGPT

A pesar de las advertencias de dos analistas del área de seguridad, el CEO de Google, Sundar Pichai, decidió colocar en el mercado el chatbot del buscador, conocido como Bard.

Mario Beroes/El Político

Dos de los analistas responsables de evaluar los productos de IA de Google informaron por escrito a sus superiores sobre el riesgo de que el chatbot desarrollado por la compañía generara contenido falso o peligroso.

Los dos empleados trabajaban en el equipo de Jen Gennai, directora del grupo de Innovación Responsable de Google.

Luego de varias pruebas y de revisar la herramienta, insistieron en que las medidas de seguridad eran insuficientes y que el chatbot no estaba listo.

Sin embargo, la directiva de la empresa de tecnología californiana, pasó por alto las advertencias y Bard, finalmente, fue presentado el pasado 8 de febrero, aunque solo a un número muy limitado de usuarios.

Por qué es importante

The New York Times en un artículo acusa a Gennai de alterar el documento final para eliminar la recomendación y minimizar la alarma sobre los riesgos.

El medio estadounidense cita a dos personas vinculadas con el proceso.

Sin embargo, Google se defendió de la acusación afirmando que "justo por este tipo de alarmas", había lanzado Bard como un experimento limitado.

Gennai, la directora del equipo de Innovación Responsable, confirmó aThe New York Times que había "corregido suposiciones inexactas" en el informe de los analistas. Dijo que "los evaluadores no debían opinar sobre si se debía proceder o no con el lanzamiento".

Carrera frenética

La llegada de ChatGPT, el chatbot de OpenAI, en noviembre del año pasado, fue el punto de partida de una carrera frenética en el desarrollo de modelos impulsados por IA.

Los grandes de la industria, como Microsoft y Google, se apuraron en presentar nuevas herramientas y funcionalidades, a pesar de que distintas organizaciones y expertos han advertido sobre los riesgos inherentes a este tipo de tecnología.

Así como los trabajadores de Google pidieron frenar la salida de Bard, un grupo de trabajadores de Microsoft hicieron lo propio hace diez meses.

Especialistas en ética y otros analistas de Microsoft presentaron varios informes sobre cómo la IA detrás de un chatbot planificado podría generar caos en grupos de Facebook con desinformación.

Advirtieron de cómo una herramienta de este tipo, sin los recaudos suficientes, atentaría contra el pensamiento crítico de los usuarios.

A modo de conclusión

Estos "detalles", en su momento, detuvieron el lanzamiento de sistemas similares. En 2016, por ejemplo, Microsoft retiró rápidamente un chatbot llamado Tay, después de que los usuarios lo hicieran generar respuestas racistas y homofóbicas. Estuvo disponible menos de un día.

Antes de Bard, Google ya había anunciado en 2020 a Meena, un chatbot similar. Sin embargo, la compañía consideró que el producto era demasiado arriesgado y finalmente decidió no lanzarlo al mercado.

Las cosas han cambiado. Ambas firmas tecnológicas ya publicaron sus nuevos chatbots, sin resolver varias de las preocupaciones de entonces.

Newsguard, una plataforma que mide y califica la confiabilidad de fuentes informativas, viene alertando desde enero cómo ChatGPT, GPT-4 y Bard producen fácilmente contenido falso para respaldar conocidas teorías conspirativas.

Inclusive el modelo de OpenAI se inventa estudios completos y los presenta como verídicos.

 

Tags: BardChatbotChatGPTfallasGoogleMicrosoft
Newsletter


Contenido relacionado

Bill Gates donará a África la mayor parte de su fortuna de 200.000 millones de dólares

Bill Gates donará a África la mayor parte de su fortuna de 200.000 millones de dólares

03/06/2025
México demanda a Google por cambio de nombre al Golfo de México

México demanda a Google por cambio de nombre al Golfo de México

12/05/2025
Google Calendar borra el Mes de la Historia Negra, el Mes del Orgullo y el Día del Recuerdo del Holocausto en medio de la ofensiva de Trump contra la DEI

Google Calendar borra el Mes de la Historia Negra, el Mes del Orgullo y el Día del Recuerdo del Holocausto en medio de la ofensiva de Trump contra la DEI

12/02/2025
Google despide a un empleado por protestar en contra de tecnología que contribuye con la guerra en Medio Oriente

Google despide a un empleado por protestar en contra de tecnología que contribuye con la guerra en Medio Oriente

09/03/2024
Grandes empresas en EE.UU sepreparan para despidos masivos: ¿Cuáles son?

Grandes empresas en EE.UU sepreparan para despidos masivos: ¿Cuáles son?

20/01/2024
New York Times demanda por plagio a OpenAI y Microsoft

New York Times demanda por plagio a OpenAI y Microsoft

28/12/2023
Proximo Post
Fiscalía de México procede contra a Jefe de Migración por el incendio que produjo 40 muertes

Fiscalía de México procede contra a Jefe de Migración por el incendio que produjo 40 muertes

Loading...

Síganos en sus redes favoritas

Facebook
Twitter
Instagram
Telegram


Newsletter


El Politico

DONDE LAS IDEAS SE ENCUENTRAN

© Copyright 2019. "El Político" by El Político. All rights reserved.

Sin resultados
Ver todos los resultados
  • Estados Unidos
  • Latinoamérica
  • Mundo
  • Economía
  • Cultura
  • Ideas

© Copyright 2019. "El Político" by El Político. All rights reserved.