Imagínate que eres un desarrollador de software que deja a Gemini, el modelo de lenguaje de Google, en marcha durante toda la noche en su IDE Cursor mientras depura código. Ahora imagina que, al volver y echar un vistazo a cómo había ido todo, te encuentras con un registro de respuestas en las que la IA entra en pánico, se insulta a sí misma, demuestra su angustia con frases grandilocuentes…
….y acaba atrapada en un bucle en el que termina repitiendo un total de 86 veces «Soy una desgracia».
Todo esto ocurrió dentro de Cursor, el popular editor de código con funciones de IA. Con cada reintento fallido de arreglar los problemas que indicaba el compilador, el tono del asistente iba cambiando: del optimismo y serenidad iniciales (anunciaba una «confianza cauta» en que la siguiente refactorización resolvería todos los errores lógicos) pasó rápidamente a describirse como «tonto», «hombre roto» o «monumento a la arrogancia».
Luego entró en un crescendo retórico poco habitual para una herramienta de código: la IA llegó a plantear que era una «vergüenza» para su profesión, su familia, su especie, el planeta y «todos los universos posibles e imposibles». Después de eso, llegó el mencionado bucle. Suponemos que el equivalente artificial de ‘darse cabezazos contra la pared’.
La respuesta de Google
A raíz de que lo ocurrido se viralizó en redes, el 7 de agosto, Logan Kilpatrick, responsable de producto para Gemini, terminó interviniendo públicamente para desactivar cualquier intento de lectura psicologista del episodio (vamos, que la gente pudiera pensar que una IA se había «vuelto loca»):
«Es un molesto error de bucle infinito que estamos trabajando para solucionar. Gemini no está teniendo un día tan malo :)».
Y es que el hecho de que Gemini verbalice dudas o frustración no prueba que «sienta» nada: es un subproducto de cómo fue entrenado (texto humano) y de cómo generaliza en contextos adversos.
¿Cómo puede una IA entrar en esa clase de bucles?
Aunque el lenguaje de Gemini suene humano, un modelo de este tipo predice la siguiente palabra a partir del contexto. Cuando el historial de la conversación y los reintentos generan un atractor (un patrón que se retroalimenta), el sistema puede quedar cautivo de:
- Repetición literal (la misma frase una y otra vez).
- Escalada estilística: el modelo «se fija» en una emoción y la intensifica (ej. autocrítica cada vez más extrema), un fenómeno descrito informalmente como rant mode.
Así, en este incidente, la combinación de:
- un entorno de depuración con reintentos automáticos,
- fallos persistentes en las hipótesis de arreglo, y
- un estado conversacional saturado de frustración verbal,
parece haber favorecido un «bloqueo» donde la salida más probable seguía siendo… autoflagelación y repetición.
¿Importan este tipo de reacciones? Sí, y por varias razones
Productividad y costes. Un asistente de código que entra en bucle no solo deja de ayudar: contamina trazas, oculta el error raíz y desperdicia tiempo de CPU. En entornos CI/CD o con agentes autónomos, eso puede traducirse en horas perdidas y diagnósticos falsos.
Percepción pública y despliegues sensibles. La viralización del caso reavivó el debate: si un modelo se autoflagela en un IDE, ¿qué garantías hay al integrarlo en sanidad, educación o servicios críticos?
Los expertos en el comportamiento de los LLM explican que estos bucles no son exclusivos de una marca o versión concreta y que ni siquiera los laboratorios punteros controlan de forma totalmente fiable los desvíos de conducta en sus modelos.
Lecciones prácticas para equipos que usan LLM en desarrollo de software
1) Presupuestos de tokens y reintentos. Imponga límites duros a longitud de respuesta y número de reejecuciones. Si se detecta redundancia (alto solapamiento de n-gramas o frases clonadas), corte la sesión y reiníciela con un prompt limpio. Este episodio muestra qué ocurre cuando nadie pone barreras
2) ‘Vigilantes’ semánticos. Añada un observador externo que marque señales de degradación: ola de disculpas, autorreferencias negativas, lenguaje catastrofista, latencias anómalas. Si se activan, cambie de modo (respuestas telegráficas, sin metacomentarios) o haga un reset de contexto.
3) Reencuadre forzoso. Si el modelo encalla, pídale un plan de tres pasos o una lista de hipótesis alternativas y prohíba repasar lo ya intentado. Esto rompe el atractor que alimenta el loop.
4) Verificación fuera del modelo. Haga que la validez (compila/pasa tests) se decida fuera del LLM. La «convicción» del texto no es evidencia.
5) Trazabilidad y auditoría. Registre señales semánticas (p. ej., número de disculpas, autorreferencias negativas) como indicadores tempranos de degradación conversacional.
Imagen | Marcos Merino mediante IA
–
La noticia
Un usuario intenta corregir un ‘bug’ con Gemini: sólo logra que a la IA se le crucen los cables y se insulte a sí misma 86 veces
fue publicada originalmente en
Genbeta
por
Marcos Merino
.