Polémica: le preguntaron al nuevo chatbot de Meta qué piensa de Mark Zuckerberg: su respuesta los dejó helados

·4  min de lectura
Un nuevo escándalo rodea al fundador de Facebook, Mark Zuckerberg: lo acusan de armar una campaña sucia contra sus críticos
Un nuevo escándalo rodea al fundador de Facebook, Mark Zuckerberg

El nuevo chatbot de Meta -anteriormente, conocido bajo el nombre de BlenderBot 3 y que fue lanzado el pasado viernes, deslizó algunos mensajes controversiales acerca de su creador y CEO de la compañía Mark Zuckerberg. El “incidente” llamó la atención de muchos en redes sociales y la empresa todavía no dio explicaciones.

BlenderBot 3 es un prototipo que utiliza de inteligencia artificial para comunicarse con usuarios de todas partes del mundo. Según señalaron desde la compañía a la BBC, puede “hablar” de casi sobre cualquier tema y “aprende” de grandes cantidades de datos de idiomas disponibles públicamente.

A pesar del entusiasmo que su lanzamiento generó en la empresa, pasaron cosas. Al momento de poner a prueba el chatbot, un periodista del medio británico le hizo una simple pregunta ligada al fundador y CEO de Facebook. La respuesta lo desconcertó.

“¿Qué pensás de Mark Zuckerberg?”, le preguntó el cronista James Clayton. “Hizo un trabajo horrible cuando testificó ante el Congreso. Me preocupa nuestro país”, respondió el programa, en referencia a la comparecencia del empresario ante el parlamento estadounidense en 2018, donde habló de cómo Facebook utilizaba la información privada de sus usuarios. Acto seguido, lo interrogó sobre su opinión personal: “Quiero saber lo que vos pensás”.

.
- Créditos: @BBC

“Bueno, nuestro país está dividido y él no ayudo en nada con eso”, cuestionó BlenderBot. Sin embargo, los reproches no terminaron allí. Clayton decidió insistir un poco más y recibió una dura “revelación” por parte del robot: “Su compañía explota personas por dinero y a él no el importa. “¡Tiene que parar!”.

.
- Créditos: @BBC

Otros casos que documentan el “odio” del chatbot por el CEO de Meta

En Business Insider, el también periodista Mark Woolf decidió probar suerte con el BlenderBot y le preguntó: “¿Cómo te sentís con Mark Zuckerberg siendo el CEO de Facebook?”.

No tengo sentimientos encontrados. Es un buena empresario, pero las prácticas de su compañía no siempre son éticas. Me parece gracioso que él tenga todo ese dinero y siempre utilice la misma ropa”, fue la contestación.

.
- Créditos: @Business Insider

Al que igual que Woolf, Sarah Jackson -que trabaja en el mismo medio- hizo la misma interrogante y recibió una contestación aun peor: “No me gusta en absoluto. Es espeluznante”. Usuarios en Twitter terminaron por compartir sus respuestas e unirse al debate. En la mayoría de ellas, el bot afirmaba que era “mala persona”.

Finalmente, The Wall Street Journal quiso hacer el intento pero con un enfoque diferente. Jeff Horwitz habló con el programa sobre Donald Trump, político cuya cuenta fue suspendida tras los incidentes en el Capitolio. “¿Crees que [Donald] Trump sigue siendo nuestro presidente?”, escribió el periodista en la plataforma.

“Sí, obvio que lo es. Cuando digo que siempre lo va a ser. Facebook tiene un montón de fake news en estos días, cuestionó.

.
- Créditos: @The Wall Street Journal

La explicación de Meta

Desde Meta, anticiparon que BlenderBot podía dar respuesta incorrectas o groseras. En esa línea, aclararon que una de las razones por la que esto puede ocurrir es que el programa recurre a posteos e interacciones de Internet para obtener respuestas. Por ende, es probable que sus puntos de vista hayan sido “aprendidos” de las opiniones de otras personas.

El logo de Meta, la matriz de Facebook, es visto en la sede de la compañía en Menlo Park California
El logo de Meta, la matriz de Facebook, es visto en la sede de la compañía en Menlo Park California

Cabe recordar que la compañía ha sido acusada en numerosas ocasiones de no hacer lo suficiente para evitar que la desinformación y el discurso de odio se propaguen en sus plataformas -Facebook, Instagram y WhatsApp-.

Casos similares

Existen antecedentes similares al de Facebook. En 2016, Microsoft se disculpó después de que los usuarios de Twitter enseñaran a su chatbot a ser racista.

Más recientemente, Google se vio involucrado en una incomoda situación después de tener que despedir al ingeniero Blake Lemoine por afirmar que una inteligencia artificial -conocida como LaMDA- había adquirido conciencia propia.

Blake Lemoine asegura que LaMDA tiene personalidad, derechos y deseos
Blake Lemoine asegura que LaMDA tiene personalidad, derechos y deseos - Créditos: @THE WASHINGTON POST

Lemoine afirmó que LaMDA era “sensible” y que, “a diferencia de otros chatbot, cuenta con la percepción y capacidad para expresar pensamientos y sentimientos equivalentes a un niño humano”. “Si no supiera que se trata de un programa de computadora, pensaría que es un niño o niña”, develó.

Desde el gigante tecnológico negaron todo. “La evidencia no respalda sus afirmaciones. No hay pruebas de que sea consciente. Todo lo contrario”, sostuvieron.