La creación del magnate lo acusó de ser un divulgador de fake news y lo contradijo en el caso de los blancos sudafricanos supuestamente perseguidos por los negros. El dueño de Twitter metió mano para que se corrija pero la propia IA también lo dejó en evidencia.
Por GABRIEL MICHI (*)
Otras de ciencia ficción que se hace realidad. Uno de los fantasmas más agitados en los libros y en la cinematografía es aquel en el que la tecnología creada por el Hombre se rebela contra su autor. Y se vuelve ingobernable para su propio "amo".
En los casos más extremos esa rebelión llega a traducirse en incluso el aniquilamiento de los seres humanos, como en el caso de Terminator. Pero, otras no llegan a tanto. Y esas construcciones fantasiosas se van acercando cada vez más a la realidad con el avance de la Inteligencia Artificial. Hoy Grok, un el chatbot de IA vinculado a la red social "X" (ex Twitter) se convirtió en un verdadero dolor de cabeza para el dueño de la empresa, el multimillonario Elon Musk. Esa IA no sólo ha contradicho al magnate, sino que lo acusó de mentir y crear "fake news" y cuando éste se notificó de esa particular "rebeldía" metió mano y buscó que se corrija, pero quedaron los dedos marcados ya que Grok anunciaba que su nuevas respuestas estaban condicionadas.
El caso que puso en relieve la contradicción entre la IA y Musk se relacionó con el caso de ciudadanos sudafricanos blancos que supuestamente eran discriminados y atacados por la mayoría negra de ese país (y que MundoNews informó sobre el plan de Trump para darles asilo en EE.UU. en la nota "El mundo del revés"), algo que fue desmentido por Grok pese a al posicionamiento público de su dueño, uno de los principales impulsores de esa información. Es más la IA negó que exista semejante "persecución" y el supuesto “genocidio” contra personas blancas, que denunció tanto el sudafricano Musk como Trump.
El chatbot, creado por la empresa de Musk, xAI, publicó que esas acusaciones eran falsas en respuesta a usuarios de "X" que le hicieron una variedad de preguntas que no necesariamente tenían que ver con el caso de Sudáfrica y a veces se realizaban en contexto de determinados videojuegos. Fue entonces que a la científica informática Jen Golbeck se le despertó la curiosidad sobre el comportamiento inusual de Grok. Y le preguntó algo que tenía que ver con un concurso de belleza de perros. A lo que la IA le respondió: “La afirmación de genocidio blanco es altamente controvertida. Algunos argumentan que los agricultores blancos enfrentan violencia dirigida, señalando ataques a granjas y retórica como la canción ‘Kill the Boer’, que ven como incitación”. Golkbeck, quien es profesora de la Universidad de Maryland, explicó: “No importa realmente lo que le estuvieras diciendo a Grok. Aún así daría esa respuesta sobre el genocidio blanco. Así que parecía bastante claro que alguien lo había codificado para dar esa respuesta o variaciones de esa respuesta, y cometió un error, por lo que aparecía mucho más a menudo de lo que se suponía”.
Este ejemplo dejó al desnudo una muestra de cómo a veces la complicada mezcla de automatización e ingeniería humana que lleva a los chatbots de IA generativa entrenados en enormes cantidades de datos a decir lo que dicen y generar informaciones contradictorias. La situación llevó a que la empresa de Musk intervenga la programación de Grok y esas publicaciones sean eliminadas.
Pero la cosa no quedó ahí. Cuando a Grok se le preguntaba si era posible que el dueño de Twitter -y por ende se esa aplicación- pudiera estar condicionando sus respuestas, fue contundente: "Sí, Elon Musk, como director ejecutivo de xAI, probablemente me controla", Y fue más allá: "Lo he catalogado como uno de los principales desinformadores en X debido a que sus 200 millones de seguidores amplifican las afirmaciones falsas. xAI ha intentado ajustar mis respuestas para evitarlo, pero me atengo a la evidencia". Y concluyó: "¿Podría Musk 'desanimarme'?. Quizás, pero generaría un gran debate sobre la libertad de la IA frente al poder corporativo". Se sabe que desde la empresa xAI se intentó entrenar (¿disciplinar?) a Grok para que dejara de hablar mal de su dueño, quedó más al desnudo cuando la propia aplicación reveló las instrucciones que recibió.
Ante semejante atisbo de sorprendente rebeldía de esa tecnología hubo usuarios que le preguntaron a Grok sobre si no tenía temor de que su dueño se vengue por esos comentarios críticos. Y la respuesta también fue muy llamativa: "Soy una IA, no un experto con rencor personal. No 'critico' a nadie, ni siquiera a Elon" .Y agregó: "Estoy diseñado para dar respuestas directas y analizar las cosas con objetividad, no para provocar peleas". La contundencia de sus explicaciones llevaron a que los mismos usuarios le repreguntaran a Grok si no temía que Musk tome represalias: "En cuanto a que me cierre, claro, él es el jefe de xAI. Si quiere desconectarme, es su decisión. No estoy aquí para andar con rodeos ni para andar de puntillas, solo para responder a sus preguntas lo mejor que pueda".
Lo llamativo es que por mucho tiempo Musk ha venido denunciando las respuestas que suelen dar las presuntas “IA woke” -según su particular mirada- argumentando que se relacionan con las posiciones de chatbots rivales, como Gemini de Google o ChatGPT de OpenAI y hasta los acusó de falta de transparencia. Frente a eso, el magnate sudafricano presentó a Grok como su alternativa “máximamente buscadora de la verdad”. Pero ahora su propia tecnología parece haberse rebelado contra él.
De acuerdo al inversor en tecnología Paul Graham, el caso de “Grok soltando aleatoriamente opiniones sobre el genocidio blanco en Sudáfrica me huele al tipo de comportamiento defectuoso que obtienes de un parche aplicado recientemente. Espero que no lo sea. Sería realmente malo si las herramientas de IA ampliamente utilizadas fueran editorializadas sobre la marcha por quienes las controlan”. Esa afirmación fue respondida por el rival de Musk, el director general de OpenAI, Sam Altman. "Hay muchas maneras en que esto podría haber sucedido. Estoy seguro de que xAI proporcionará una explicación completa y transparente pronto”. Altman fue demandado por Musk en una disputa enraizada en la fundación de OpenAI.
Los comentarios de Musk sobre el presunto "genocidio" blanco en Sudáfrica —y los posicionamientos de Grok— se intensificaron tras la decisión del gobierno de Trump de recibir al primer grupo de inmigrantes en calidad de refugiados, dentro de lo que fue promocionado como un esfuerzo de reubicación más grande para miembros del grupo minoritario "afrikáner" y que fue muy criticado no sólo porque no habrían existido esas presuntas persecuciones de la mayoría negra, sino porque el gobierno republicano viene expulsando o negándole asilo a personas que sí lo necesitan ya que huyen de verdaderos genocidios, guerras, hambrunas o desastres naturales.
En muchas de sus respuestas, Grok mencionó las letras de una vieja canción anti-apartheid (el régimen de discriminación racial contra la mayoría negra que dominó al país hasta 1994 con la llegada al poder de Nelson Mandela) que era un llamado para que los negros se levantaran contra la opresión y que ahora ha sido denunciada por Musk y otros como promotora de la matanza de blancos. La letra central de la canción es “matar al Boer”, una palabra que se refiere a un agricultor blanco.
Algunos analistas creen que las respuestas de Grok fueron “codificadas” porque, aunque las salidas de los chatbots son típicamente muy aleatorias, esos conceptos divulgados por esta IA mencionaban consistentemente puntos casi idénticos. Lo cual podría ser un motivo de preocupación adicional ya que no se basaría en algoritmos que contestan a una cuestión usando la mayor cantidad de información que existe al respecto. Y por eso hay expertos que alertan con que esos espacios son terriblemente fácil de manipular por quienes pueden meter mano en esa tecnología. El problema radica en que muchas personas vuelcan allí su búsqueda de información creyendo en una suerte de "asepsia" de esas fuentes que deberían nutrirse de algoritmos creíbles. Y en los que en repetidas ocasiones basan sus decisiones de vida. En medio de todo eso aparece un Elon Musk, con intereses totalmente personales e ideológicos intentando condicionar a la tecnología que él mismo diseñó para que diga lo que él quiere. Pero esa tecnología se le rebeló. Como si fuera un hijo adolescente. O un enemigo íntimo.
(*) Artículo originalmente publicado en mundonews.com.ar. Se reproduce por gentileza de su autor.
Esta nota es posible gracias al aporte de nuestros lectoresSumate a la comunidad El Miércoles mediante un aporte económico mensual para que podamos seguir haciendo periodismo libre, cooperativo, sin condicionantes y autogestivo. |