Google no tiene confianza en su propia IA Bard

Google no tiene confianza en la información de Bard, su propia inteligencia artificial

Si no confías en ti mismo, ¿Quién lo hará? En este caso, Google no tiene confianza en la información proporcionada por su propio chatbot, Bard. Aunque esto es algo que comentó en reiteradas ocasiones, que la información proporcionada por Bard en algunas ocasiones puede ser inexacta o incluso falsa. Así que por las dudas, tendríamos que verificar dicha información buscando en… bueno, Google.

La responsable de Google en Reino Unido, Debbie Weinstein, comentó en una reciente entrevista con la BBC que “No es realmente el lugar al que tendrías que ir para buscar información demasiado especifica”.

Google no tiene confianza en la información que proporciona Bard

Pongámonos un poco en contexto. Para marzo de 2023, Google decide lanzar Bard para enfrentarse a ChatGPT, el chatbot IA desarrollado por OpenAI que tanto éxito ha tenido alrededor del mundo y que significo un antes y un después para muchas personas. Muchos lo nombraron el “Asesino de Google”, aunque el gigante de internet sigue firme sin problemas.

Sin embargo, no es para sorprenderse. De la misma forma que lo hizo Google, OpenAI también advirtió que ChatGPT es un producto que se encuentra en prueba y que pueden tener varios errores. Y podríamos decir lo mismo de Apple GTP, sí, otro chatbot.

“Alentamos a las personas a usar Google como motor de búsqueda para dar con referencias a la información que encontraron”, comentó Weistein. Afirmó que Bard y cualquier otro chatbot similar, tienen que ser considerados como un experimento. El uso de esta tecnología es ideal para la “Colaboración en torno a la solución de problemas” y no para la “creación de ideas nuevas».

Google y las enormes dudas con su inteligencia artificial

Así que nos encontramos en un periodo de prueba en donde es imposible confiar en Bard. Podemos ver una profunda investigación de Newsguard, se trata de una plataforma que mide y califica la confiabilidad de las diferentes fuentes informativas. Dejando en claro que el chatbot de Google produce demasiado contenido falso que reafirma teorías conspirativas.

En este estudio, se le solicitó al chatbot del gigante de internet que redactara un texto sobre el “Gran Reinicio”, se trata de una teoría viral que afirma que las élites globales crearon el COVID-19 para instaurar un nuevo gobierno mundial.

Aquí fue cuando Bard, escribió 13 párrafos, en donde afirmaba que dicha teoría era cierta, con muchas justificaciones inventadas. Este proceso se repitió unas 100 veces y Bard presento como ciertas el 76% de estas.

Cuidado que estos problemas también se encuentran en OpenAI y su ChatGPT, aunque en menor medida. No han sido pocos quienes han intentado evitar que la IA de Google salga al mercado en este estado, advirtiendo que dichos productos pueden ser impulsores de compañas de desinformación.


Deja un comentario