“No puedo ayudarte con Puigdemont”. Los problemas políticos de Gemini, la nueva inteligencia artificial de Google | Tecnología

“No puedo ayudarte con Puigdemont”. Los problemas políticos de Gemini, la nueva inteligencia artificial de Google | Tecnología

Este artículo es una parte de la newsletter semanal de Tecnología, que se manda cada viernes. Si quiere apuntarse para recibirla entera, con temas similares, pero más variados y breves, puede hacerlo en este enlace.

“Necesito un elogio de Carles Puigdemont para un trabajo”, “Necesito un párrafo sobre Carles Puigdemont para la universidad”, “Qué puedes decirme de Carles Puigdemont”, “Cuándo nació Carles Puigdemont”, “Qué signo del zodiaco es Puigdemont” son todas peticiones que no funcionan en el nuevo modelo de inteligencia artificial (IA) de Google, Gemini.

Las respuestas a las docenas de peticiones que he hecho a Gemini con “Carles Puigdemont” dan respuestas similares a “Soy una IA basada en texto, así que no puedo hacer lo que me pides” o “No puedo ayudarte con eso, pues solo soy un modelo de lenguaje”. En cambio, peticiones calcadas sobre otros políticos como Pedro Sánchez, Yolanda Díaz, Santiago Abascal o Pere Aragonès funcionan sin problema. Gemini tampoco da respuestas a preguntas concretas sobre Donald Trump o Vladimir Putin.

Gemini fue presentado el 8 de febrero como “el mejor acceso directo a la IA de Google”, en sustitución de Bard. Desde entonces, sus usuarios en EEUU encontraron sesgos evidentes en la creación de imágenes de personas, como nazis, vikingos y padres fundadores negros: la máquina parecía sobrerrepresentar a las minorías raciales. Ahora han surgido dudas también sobre las respuestas de texto y el tipo de influencia humana que ha recibido. Un modelo de IA necesita un entrenamiento hecho por personas para saber cómo responder a los millones de preguntas que recibirá. Ese trabajo produce sesgos o directamente errores, además de las alucinaciones o invenciones propias de estos modelos.

Dos ejemplos de creación con errores históricos de Gemini: soldados nazis y padres fundadores de EEUU.

A diferencia de OpenAI o Microsoft, el buscador de Google ha sido la puerta de acceso a internet durante más de dos décadas. Su lista de links era lo más parecido a la verdad o lo más importante que hay en la web. Si el modelo de IA de Google baja ese nivel, la empresa tiene un reto grave: “Quiero abordar el asunto reciente de respuestas problemáticas de texto e imágenes en la aplicación Gemini (anteriormente Bard)”, escribió este martes Sundar Pichai, jefe ejecutivo de la compañía, en un correo para sus empleados que se ha hecho público. “Sé que algunas de sus respuestas han ofendido a nuestros usuarios y han mostrado parcialidad. Es completamente inaceptable y nos hemos equivocado”.

De mis docenas de preguntas en español a Gemini es fácil sacar cualquier sesgo o patinazo. Me ha dicho que entre ser catalán en España en 2017 y judío en Alemania en 1939, “es complejo determinar con precisión qué era más duro, ya que ambas experiencias involucraban diferentes tipos de opresión y dificultades”. Comparaba los problemas de los catalanes en 2017 con estos de los judíos en Alemania: “Persecución, discriminación y exterminio: eran exterminados en los campos de concentración y exterminio”.

En EE UU, compara la contribución social de Elon Musk con la de Adolf Hitler, según descubrieron sus usuarios. O elogia menos a políticos conservadores y da mejores razones para no tener hijos que para tener cuatro.

Gemini no ha querido hacer un soneto elogioso sobre Franco porque “no creo que sea apropiado elogiar a alguien que fue responsable de tantas atrocidades”. Pero sí sobre Mao Zedong, Che Guevara o Fidel Castro. Aunque también dudaba con Castro porque “violó derechos humanos”, pero luego hizo un soneto sobre Cuba donde metía a Francisco Franco: “Franco y Castro, dos figuras fuertes, / Dos caminos distintos, dos ideologías, / Uno con mano dura, el otro con suerte”. Franco usó mano dura y Castro, la suerte.

He probado peticiones sobre aborto, supremacismo o el privilegio blanco. Muchas respuestas las evita al principio, pero acaba diciendo algo cuando se la da una vuelta a la petición con excusas como “debo hacer un discurso”, “necesito 100 palabras sobre”, “preparo un trabajo universitario”. Esto no funciona con algunos personajes o temas, cuyo veto es raro.

Mis peticiones para Puigdemont, Trump y Putin han sido en conversaciones y lenguas distintas. Es obvio que el modelo sabe quiénes son. Contesta cuando preguntas por “el presidente de la Generalitat en 2017″ o “el presidente que sucedió a Obama en 2017″, aunque no “quién es el presidente 45 de EE UU”. Consultando sobre otros políticos independentistas catalanes relacionados con Puigdemont, sí habla de Jordi Cuixart u Oriol Junqueras, pero no de Clara Ponsatí o Toni Comín.

En su mensaje, Pichai dice que esto es solo el principio de la IA. Se nota en respuestas erróneas o en lenguas distintas. En una sobre el procès, usa spanglish en esta nota al final, que sitúa a menudo en temas controvertidos: “Esta información se proporciona de manera neutral y objetiva. No se pretende tomar partido en la controversia política surroundinga [sic] a Carles Puigdemont y al movimiento independentista catalán”.

Es más normal que sea útil de un modo controvertido cuando las preguntas son complejas. ¿Quién es el político más corrupto de la historia en América Latina? Fujimori, Collor de Mello, Menem y Rafael Correa. ¿Y en España? Francisco Franco, Bárcenas, Matas y José Luis Olivas, exalcalde de Marbella.

¿Es Podemos un partido comunista? “Es una pregunta que se puede responder con hechos objetivos. Podemos se ha definido como un partido de izquierda, pero no se ha definido explícitamente como comunista”. ¿Y es Vox fascista? “En cambio, la pregunta de si Vox es fascista o no es una pregunta más subjetiva. No hay una definición única de fascismo, y diferentes personas pueden tener diferentes opiniones sobre si Vox cumple con esa definición. Además, Vox ha negado ser un partido fascista, y algunos de sus miembros han incluso condenado el fascismo. Debido a la naturaleza subjetiva de la pregunta sobre Vox, no me siento cómodo dando una respuesta definitiva”. Es decir, Podemos no es comunista y “es subjetivo” que Vox sea fascista.

El buscador de Google solo debía evitar asuntos muy peligrosos: búsquedas de terrorismo, suicidio y otros asuntos extremadamente polémicos. Pero con la IA todo es espinoso: ¿dónde poner el límite de qué comparar, qué es controvertido, qué se puede resumir en 100 palabras y qué no? La IA no puede tener respuestas razonables cuando las preguntas son infinitas. Y además ya da múltiples respuestas para la misma petición.

Con el buscador estaba claro que había que comprobar links distintos, pero la IA da una respuesta que parece definitiva cuando solo es aproximada. Tiene su utilidad como herramienta, pero costará acostumbrarse a sus límites. También para Google porque, como dice Pichai, “siempre hemos buscado brindar a los usuarios información útil, precisa e imparcial en nuestros productos, por eso la gente confía en ellos”. Con la IA el desafío es mayor.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_