Instagram y su nefasto mecanismo de censura
Por Lisandro Prieto Femenía
Sin libertad de pensamiento, la libertad de expresión vale poco – José Luis Sampedro
La promesa de las grandes plataformas digitales fue simple y seductora: restaurar la palabra pública, democratizar la difusión, dar voz a quien antes carecía de tribuna. Instagram, en particular, se presentó como un ágora visual donde la creatividad y la expresión personal florecían sin intermediarios. Pues bien, hoy esa promesa aparece totalmente corroída por una doble realidad: por un lado, la red social tolera y a menudo amplifica imágenes y relatos de violencia, pornografía y todo tipo de atrocidades; por otro, castiga e invisibiliza sistemáticamente voces que promueven la concientización, el cuidado, el amor a la familia o posiciones discordantes con ciertas corrientes culturales posmodernas. Entre la retórica de la libertad y la práctica de la moderación se ha instalado una hipocresía patética que merece ser confrontada filosóficamente.
Bien sabemos que la hipocresía no es un fallo técnico accidental, sino la clara manifestación lógica de una arquitectura institucional y económica. Las decisiones de qué puede permanecer visible y qué debe ser suprimido no nacen en un vacío moral, sino que responde a intereses, incentivos y diseños que priorizan la captura de atención y la extracción masiva de datos de todos los usuarios. En lugar de una ética coherente de la palabra pública, lo que está rigiendo es una economía de la atención que recompensa solamente lo sensacional, lo inmediato y lo emotivo. Las imágenes que escandalizan atraen miradas y likes mientras que los relatos serenos de aprendizaje, sensatez, cordura o crítica reflexiva atraen menos y, por tanto, quedan penalizados por un algoritmo cuya función primera es maximizar retención y retorno publicitario. Así, la plataforma enseña su clara moral: la visibilidad se paga en tiempo de atención y la censura se impone cuando el discurso no resulta rentable o resulta políticamente incómodo.
La precitada economía no actúa sola: la moderación se externaliza a sistemas mixtos de aprendizaje automático y denuncias humanas, ambos cargados de sesgos de dudosa procedencia. Los modelos se entrenan con datos que reproducen prejuicios: léxico marcado como “peligroso”, imágenes etiquetadas como “sensibles”, comunidades etiquetadas como de alto riesgo. El resultado es un sistema que discrimina no sólo por el contenido sino por el estilo, vocabulario y afiliación. Es fácil ignorar o retrasar la retirada de material explícito que atrae audiencia; es mucho más sencillo y barato sancionar a usuarios que comparten testimonios incómodos para las narrativas patéticas dominantes. La hipótesis es inquietante pero totalmente verosímil: la censura no castiga únicamente por daño, sino también por incomodidad y por riesgo reputacional para la plataforma, ya comprometida con ciertos intereses.
Ahora bien, contrastemos la retórica y la praxis mediante ejemplos concretos. Incidentes en los que asesinatos han sido transmitidos o difundidos en vivo, y han circulado durante horas antes de su eliminación, muestran un fracaso institucional para priorizar la protección de las víctimas por sobre la viralidad. En paralelo, hay múltiples relatos periodísticos e investigaciones que denuncian cierres de cuentas y eliminación de contenidos destinados a la prevención y cuidado o a la crítica social, alegando siempre “violaciones de políticas” de la empresa- “contenido sensible”, “desinformación”, “discurso de odio”- con criterios vagos y aplicaciones erráticas. Estos patrones, repetidos en distintos contextos, delinean una práctica nefasta: contenidos gráficos que alimentan la máquina de la atención perviven mientras que las voces que desestabilizan narrativas cómodas se silencian con rapidez.
Para comprender la mecánica de este fenómeno, conviene apoyarse en algunos marcos teóricos contemporáneos. Shoshana Zuboff ha mostrado cómo las plataformas convierten la conducta en datos y luego en ganancias mediante la vigilancia, que es la materia prima de un negocio que no sólo vende atención sino que moldea sujetos. Por su parte, Eli Pariser advirtió la creación de “burbujas de filtro”, entornos que homogeneizan la información y restringen la pluralidad real. Simultáneamente, Tarleton Gillespie describe a las empresas tecnológicas como “custodios de internet”, es decir, actores privados que, sin legitimidad democrática, toman decisiones de alcance público. Por último, Safiya Noble expuso cómo los sesgos tecnológicos reproducen y amplifican ciertas injusticias. Todos estos aportes coinciden en un punto crucial: las decisiones de “moderación” en las redes no son neutrales, sino que son políticas enmascaradas de técnicas.
De aquí se desprende una tensión filosófica central, puesto que la supuesta libertad de expresión que proclaman estas redes sociales es, en el mejor de los casos, una libertad condicionada por el acceso y la visibilidad. No basta con la posibilidad de hablar, porque la libertad real exige ser realmente escuchado. La famosa técnica del “shadowbanning”, la degradación algorítmica y los sistemas opacos de apelación ilustran con claridad cómo la supresión puede ser más efectiva cuando es invisible, es decir, que la voz no es silenciada por eliminación directa sino por la negación de audiencia. La privatización de la jurisdicción comunicativa despoja a la esfera pública de mecanismos democráticos de resolución de conflictos, a saber, normas esenciales para la convivencia digital pasan ahora por equipos internos de moderación, políticas de empresa y modelos entrenados (entidades que no rinden cuentas a los ciudadanos). Sin ir más lejos, hace un año, Instagram decidió eliminar mi cuenta, la cual tenía 1,4 millones de seguidores, sin mediar explicación alguna y sin permitirme atisbo de apelación. ¿Democrático no?
La censura selectiva plantea también una cuestión ética sobre la correspondencia entre intención y efecto. Muchos contenidos removidos por “desinformación” o por violaciones a términos ambiguos escritos por un degenerado desconocido en Los Ángeles son, en realidad, esfuerzos de concientización o testimonios personales. Penalizar una crítica por el uso de lenguaje desacomodado a la moda posmo-progre o por documentación cruda- por ejemplo, materiales destinados a sensibilizar sobre riesgos o a documentar violencia para pedir justicia- equivale a castigar la posibilidad misma de narrar la experiencia. Así, se produce un doble daño perverso: las víctimas pierden voz y la sociedad pierde información crítica para poder deliberar con autonomía.
Tampoco puede soslayarse la dimensión de la vulgar vigilancia de datos. Instagram no sólo decide qué verás, sino que también perfila quién eres ante los demás. Cada “me gusta”, cada tiempo de visionado, cada comentario alimentan modelos que categorizan usuarios en función de su capacidad de retención, su propensión a reaccionar emocionalmente y su capacidad de monetización. Estos perfiles determinan tratamientos claramente diferenciales: exposición priorizada, relegación o supresión. La instrumentación de datos para moderación de contenidos convierte la privacidad en un vector de control porque el historial de interacciones define si una voz será amplificada o enterrada en el olvido. Además, la monetización de la atención vuelve la moderación un servicio económicamente rentable ya que las empresas que venden soluciones de verificación se benefician de un mercado de “seguridad” digital que, paradójicamente, es turbio y discrecional.
Las consecuencias sociales son bastante profundas. Primero, la erosión del debate plural que se da cuando ciertas críticas son sistemáticamente invisibilizadas produce un empobrecimiento de la deliberación pública que pierde su capacidad de autocorrección. En segundo lugar, se produce una desigualdad comunicativa peligrosa, porque quienes disponen de recursos- instituciones bien financiadas, influencers alineados con las agendas dominantes- navegan mejor los rigores y las zonas grises de las políticas mientras que los de “abajo”, activistas independientes y comunidades altamente vulnerables, son propensos a sanciones permanentes. En tercer y último lugar, se ejecuta una delegación de la legitimidad: funciones que pertenecen a la esfera pública, como la regulación de discursos nocivos y la protección de derechos, son asumidas por actores privados sin los mecanismos de transparencia y control democrático necesarios. A pesar de que no existe en el mundo un registro internacional de memes o de contenido digital, si uno comparte contenidos que van en contra de las modas, la entidad etérea de Instagram tiene la potestad de acusarte de infringir normas de “derecho de autor”, aunque ese contenido no esté fehacientemente patentado en ninguna parte.
Frente a este cuadro, las respuestas puramente tecnológicas no bastan. Es necesario plantear una reforma que convoque principios de justicia comunicativa que implique cierta transparencia algorítmica real- no meras divulgaciones de marketing-, auditorías independientes de moderación de contenidos, mecanismos de apelación que restituyan no sólo cuentas sino alcance y reparación simbólica, y normas que desincentiven el diseño de productos que premian solamente lo que es nocivo. De igual manera, también es necesario contar con políticas públicas que limiten la externalización de funciones regulatorias a privados y que obliguen a presentar cierta rendición de cuentas, como lo hacen con casi todos los mortales.
El problema es, en último término, filosófico. Se trata de decidir qué tipo de esfera pública queremos. ¿Aceptamos que un puñado minúsculo de empresas privadas, guiadas por incentivos comerciales y criterios nebulosos, definan los límites de lo pensable y lo visible? ¿O reclamaremos una esfera en la que la moderación sea un asunto de derechos, criterios transparentes y supervisión democrática? La respuesta no es una nostalgia idealizada de internet, sino una exigencia para recuperar mecanismos de deliberación y responsabilidad que permitan que la libertad de expresión no sea sólo un eslogan progre sino una práctica efectiva que tenga alcance verdadero para todos.
Si las plataformas se proclaman paladines de la libre expresión, deberán también aceptar las obligaciones que ello implica, a saber: explicitar criterios, proporcionar recursos reales de apelación, someterse a auditorías públicas y desvincular la policía del pensamiento digital de los incentivos que premian lo aberrante. Sin esas condiciones, la declaración de libertad será sólo una mera fachada mientras que la maquinaria seguirá alimentando la visibilidad de lo escandaloso y devorará a quienes practican la palabra como cuidado, denuncia y remedio. Pues bien, queridos lectores, la verdadera libertad de expresión exige más que la posibilidad de publicar pavadas en una red social; requiere también el derecho a ser visibilizado, a ser escuchado y a participar en una esfera pública que no esté en venta. Sólo así, dejarán de florecer los censuradores rapaces bajo la máscara de “pluralistas”.