Columnista
La violencia provocada
Investigadores de universidades como Stanford, Harvard y la Universidad de Queensland han demostrado que la exposición repetida a visiones únicas intensifica la polarización y reduce la empatía.

24 de jun de 2025, 01:49 a. m.
Actualizado el 24 de jun de 2025, 01:49 a. m.
No toda violencia se mide en muertos o heridos. Existe otra, más silenciosa pero igualmente destructiva, que se gesta en lo cultural, lo simbólico y lo social. Es la violencia que divide, que polariza, que nos obliga a tomar partido incluso cuando preferiríamos pensar con libertad. No grita ni golpea, pero sí encasilla. Y lo más preocupante: nuestras herramientas diarias de comunicación promueven esta división y exclusión. Cuando pensamos simplemente comunicarnos, el sistema nos está encasillando, actuando como un precursor de más violencia.
La psicología social lleva décadas advirtiendo que basta una división mínima para que emerja la rivalidad. El clásico experimento de los ‘grupos mínimos’ de Henri Tajfel, en la Universidad de Bristol, demostró que con solo asignar etiquetas arbitrarias a personas, estas ya empezaban a favorecer a su grupo y rechazar al otro. Muzafer Sherif, desde la Universidad de Oklahoma, fue más allá: en el experimento Robbers Cave mostró cómo niños perfectamente funcionales podían caer en la hostilidad si se inducía competencia, y cómo solo la colaboración en torno a un objetivo común podía revertir esa agresión.
Hoy, esa lógica se ha trasladado a las redes sociales. No porque estemos discutiendo con extraños, sino porque estamos siendo programados para ver menos, interactuar menos y reaccionar más. A mediados de la década pasada, Facebook cambió su algoritmo para priorizar las ‘interacciones significativas’. Se le ha atribuido a Mark Zuckerberg la frase de, “la gente cree que necesita 15 amigos, pero yo les voy a dar tres, o máximo dos”. No importa si esa frase fue exacta, o si Zuckerberg es el autor, el principio rector del diseño era claro. Las plataformas decidieron que, en lugar de ampliar nuestro mundo, debían estrecharlo. Y así fue como millones de usuarios quedaron atrapados en burbujas de pensamiento homogéneo: los llamados ‘echo chambers’. Cuando una máquina decide qué ves y qué no, no estás eligiendo libremente. Estás viendo una versión reducida del mundo.
Esta dinámica -en la que los algoritmos nos muestran solo lo que confirma nuestras creencias o enciende nuestras emociones- ha sido ampliamente estudiada. Investigadores de universidades como Stanford, Harvard y la Universidad de Queensland han demostrado que la exposición repetida a visiones únicas intensifica la polarización y reduce la empatía. Y esto no solo ocurre entre votantes o activistas: afecta nuestras relaciones familiares, laborales y comunitarias. Tal vez antes discutíamos en la mesa con un amigo sobre política. Hoy lo bloqueamos.
Pero no todo está perdido. Cada vez más personas están encontrando maneras de salir de esas cámaras de eco. Así lo relata un artículo reciente de Wired, mostrando cómo usuarios están utilizando plataformas como AllSides, que compara cómo distintos medios (de izquierda, centro y derecha) abordan un mismo tema. Es una forma de recordar que casi ningún conflicto humano es blanco o negro. Y que muchas veces, en el centro, hay verdad.
La violencia social crece cuando dejamos de pensar por nosotros mismos. No se trata de elegir entre un bando u otro, sino de resistir la tentación de dejar que nos lo impongan. Escuchar, exponerse al matiz, leer a quienes no pensamos igual, es una forma poderosa de desarmar el conflicto antes de que se convierta en guerra. En cada clic, en cada conversación, elegimos si alimentamos el algoritmo o recuperamos nuestra humanidad.