Tocar los algoritmos no solucionará los tres grandes problemas de las redes sociales: es su naturaleza, según estos investigadores

Tocar los algoritmos no solucionará los tres grandes problemas de las redes sociales: es su naturaleza, según estos investigadores

Las redes sociales, que hace años prometía ser un ágora para el debate público, han degenerado en plataformas sesgadas, que actúan como ‘cámaras de resonancia’ y que amplifican los posicionamientos más incendiarios. Se suele echar en cara este problema a los algoritmos que adoptan dichas redes para decidir qué publicaciones visualizan los usuarios y cuáles no, y de hecho en España ha habido incluso propuestas políticas de que el Gobierno los intervenga

…pero un nuevo estudio académico (realizado por Petter Törnberg y Maik Larooij, de la Univ. de Ámsterdam) sostiene que esos efectos no son fallos puntuales ni fruto exclusivo de «malos algoritmos», sino consecuencias estructurales del propio modelo de red social: incluso con un diseño minimalista —sin feeds manipulados ni incentivos explícitos— terminan emergiendo las mismas dinámicas tóxicas.

Seis «arreglos» puestos a prueba… y sus efectos colaterales

Para observar cómo surgen los peores rasgos de las redes, los investigadores combinaron un modelo clásico de agentes con grandes modelos de lenguaje (LLM). Crearon «personas sintéticas» inspiradas en el American National Election Survey —con perfiles textuales del tipo «Te llamas Bob, vives en Massachusetts y te gusta la pesca«— y las soltaron en un entorno social básico.

Allí podían publicar, leer, republicar o seguir a otros; al decidir a quién seguir, revisaban mensajes antiguos y el perfil del usuario. Sin trucos ni ajustes: las patologías salieron «de fábrica».

El equipo testó seis intervenciones populares en el debate académico y tecnológico:

  1. Feeds cronológicos o aleatorios.
  2. Invertir la lógica de «optimización por engagement» para restar visibilidad a lo más viral y sensacionalista.
  3. Aumentar la diversidad de puntos de vista mostrados al usuario.
  4. «Algoritmos de puente» que elevan contenido que fomente entendimiento mutuo.
  5. Ocultar métricas sociales (reposts, seguidores) para reducir señales de influencia.
  6. Suprimir biografías para limitar marcadores identitarios.

El resultado fue descorazonador: ninguna medida desactiva el mecanismo de fondo y varias empeoran otros indicadores. El orden cronológico, por ejemplo, reduce la desigualdad de atención (que unos pocos acaparen casi todo el alcance)… pero intensifica la amplificación de contenidos extremos. Los «algoritmos de puente» debilitan el vínculo entre partidismo y engagement y mejoran modestamente la diversidad de exposición, a costa de aumentar la desigualdad de atención. Y elevar la diversidad de puntos de vista no tuvo impacto significativo.

La lectura de conjunto es clara: los parches «mueven» el problema, pero no lo resuelven; tocar una palanca mejora un síntoma y descompone otro. Incluso intervenciones muy fuertes —que, por otro lado, serían impracticables en plataformas que dependen del entretenimiento continuo— no logran cambiar los resultados básicos.

Por qué pasa: una retroalimentación entre emociones y estructura

Más allá de que el contenido polarizante viaje rápido, el estudio subraya un bucle menos visible: las acciones emocionales (como el impulso de republicar algo indignante) moldean la estructura de la red, y esa estructura, a su vez, selecciona el contenido que vemos, cerrando el círculo. En otras palabras, la misma definición de red social —publicar, republicar, seguir— basta para sembrar las condiciones de toxicidad, independientemente de que exista o no un algoritmo recomendado al uso.

El 1%, la IA y las reacciones

La desigualdad de atención en redes sigue una distribución de ley de potencias: una pequeñísima élite concentra la conversación: «La atención atrae atención», y el resultado es un sistema de influencias hiperdesequilibrado en el que lo ruidoso y extremo cobra visibilidad desproporcionada.

Ese «prisma de las redes sociales» distorsiona nuestra percepción: creemos que el conjunto es más radical de lo que realmente es y sobrestimamos la polarización del adversario.

Y los autores advierten que la irrupción de los LLM agrava la situación: actores oportunistas ya usan IA para producir a escala contenidos que maximizan atención —a menudo desinformación polarizante—, poniendo en cuestión la sostenibilidad del modelo de red social tal y como lo conocemos.

La reacción social parece apuntar a marcas-árbitro (medios reconocibles) y espacios cerrados (grupos de WhatsApp), aunque nada impide que la toxicidad «se escape» hacia esos entornos.

Imagen | Marcos Merino mediante IA

En Genbeta | Ya ha habido muertos por culpa de un algoritmo. Y según este ingeniero de GitHub, «el primer gran desastre de la IA está por suceder»


La noticia

Tocar los algoritmos no solucionará los tres grandes problemas de las redes sociales: es su naturaleza, según estos investigadores

fue publicada originalmente en

Genbeta

por
Marcos Merino

.

Salir de la versión móvil