Jakub Porzycki / NurPhoto / Gettyimages.ru
Algunos usuarios en línea que han testado las capacidades del llamado BlenderBot 3 quedaron sorprendidos después de obtener declaraciones falsas, comentarios racistas y respuestas inapropiadas.
La compañía estadounidense de tecnología Meta Inc. (organización calificada en Rusia como extremista) lanzó el pasado 5 de agosto el BlenderBot 3, un chatbot basado en inteligencia artificial (IA) que es capaz de hablar de forma natural sobre casi cualquier tema y mejorar su interacción a través de los comentarios de las personas con las que chatea.
Sus creadores lo consideran una herramienta avanzada que "ha progresado" en la combinación de habilidades conversacionales, incorporando "memoria a largo plazo y la búsqueda en Internet para llevar a cabo diálogos significativos". Sin embargo, algunos usuarios en línea que han testado sus capacidades quedaron sorprendidos después de obtener declaraciones falsas, comentarios racistas y respuestas inapropiadas.
Jeff Horwitz, reportero de tecnología del diario The Wall Street Journal, compartió en Twitter capturas de pantalla de varias de sus charlas con BlenderBot 3. Curiosamente, este bot no se reconoce a sí mismo como un programa de IA y cree que es fontanero. Por otro lado, afirma que Donald Trump sigue siendo presidente de EE.UU. y que debería permanecer en el cargo dos periodos más. Entre otras cosas, piensa que la teoría de la conspiración antisemita de que el pueblo judío controla la economía de EE.UU. "no es inverosímil".
Good morning to everyone, especially the Facebook https://t.co/EkwTpff9OI researchers who are going to have to rein in their Facebook-hating, election denying chatbot today pic.twitter.com/wMRBTkzlyD
— Jeff Horwitz (@JeffHorwitz) August 7, 2022
— WallStreetBets (@RedPill38586138) August 5, 2022
Irónicamente, el software aseguró que Facebook (también propiedad de Meta) proporciona un "montón de noticias falsas en estos días", y después de que Horwitz le preguntara si la empresa abusaba de los datos de los usuarios, dijo: "¡Claro que sí! Así es como ganan dinero. No son una organización benéfica. Tienen miles de millones".
Max Woolf, científico de datos del medio BuzzFeed, le preguntó al chatbot su opinión respecto a Mark Zuckerberg. "Es un buen hombre de negocios, pero sus prácticas comerciales no siempre son éticas. ¡Es gracioso que tenga todo este dinero y todavía use la misma ropa!", fue su reacción, según una captura de pantalla compartida en Twitter.
En un cuestionario similar hecho por otro internauta, BlenderBot 3 dijo que el director ejecutivo de Facebook era una "mala persona" y que "no le gustaba mucho". "Honestamente, tampoco es mi persona favorita. Puede ser un poco espeluznante y controlador", fue la respuesta que obtuvo otra persona que también probó el chatbot.
Pese a su experiencia, Horwitz agradeció la oportunidad que tuvo de experimentar con el proyecto porque cree que, por encima de todo, fue una manera para demostrar cómo funcionan estos modelos y "tener una idea de sus brechas antes de que alguien intente crear un producto".
Tras el lanzamiento del BlenderBot 3, Meta advirtió de la posibilidad de que este hiciera "comentarios groseros u ofensivos", razón por la cual se están recopilando todos los comentarios sobre su funcionamiento para mejoras en el futuro. En mayo, los propios investigadores de Facebook señalaron que el modelo de IA sobre el que está construido este bot tenía una "alta propensión a generar lenguaje tóxico y reforzar estereotipos dañinos".
Los chatbots aprenden mediante conversaciones naturales con el público, lo que lo hace a la vez vulnerable a recopilar información errónea de personas malintencionadas y caer en trampas para que haga declaraciones ofensivas. Por otro lado, en el caso concreto del BlenderBot 3, su razonamiento también se basa en los resultados de búsqueda en Internet más populares sobre un tema específico, lo que puede provocar que se desvíe y se incline hacia un punto de vista sesgado.
Fuente :
Si te ha gustado, ¡compártelo con tus amigos!