Fabricar la realidad o el capitalismo de plataformas

Miguel Huerta

Vivimos en una paradoja ontológica sin precedentes. La misma infraestructura que democratizó el acceso al conocimiento está siendo utilizada para construir realidades a medida, donde la verdad ya no se descubre, sino que se diseña. Las grandes empresas tecnológicas, mediante una alianza tácita con actores políticos y económicos, han trascendido su rol de meras herramientas para convertirse en arquitectas de la percepción humana. Lo que comenzó como plataformas de conexión hoy operan como fábricas de subjetividad, donde algoritmos optimizados para el engagement no sólo reflejan nuestras preferencias, sino que las inventan, las amplifican y las convierten en patrones de comportamiento predecibles y monetizables.

Este poder de moldear la realidad opera a través de una doble maquinaria: la visible y la opaca. En la superficie, vemos interfaces intuitivas y servicios gratuitos; en las profundidades, ejércitos de bots, granjas de contenidos y algoritmos de recomendación trabajan para saturar el espacio digital con narrativas que sirven a intereses específicos. Gobiernos y corporaciones no necesitan censurar abiertamente cuando pueden ahogar el discurso público en un diluvio de desinformación calculada, donde cada usuario recibe una versión personalizada de los hechos. La arquitectura legal actual, con sus vacíos y ambigüedades, funciona como un escudo perfecto, pues permite a las plataformas lucrarse con la viralidad del contenido más dañino mientras alegan neutralidad cuando las consecuencias sociales estallan.

El verdadero giro que propone la filosofía aquí es la externalización de la agencia humana. Al delegar la curaduría de nuestra experiencia informativa a algoritmos cuya única métrica es el tiempo de pantalla, cedemos silenciosamente nuestra capacidad de juzgar, discernir y construir consensos. Lo que Yuval Noah Harari identifica como el “hackeo humano” en su análisis del Nexus entre poder y tecnología no es una metáfora distópica, sino un proceso ya en marcha. Sistemas que conocen nuestros sesgos cognitivos mejor que nosotrxs mismxs, y que los explotan para mantenernos en estados emocionales rentables. La ira, el miedo y la indignación no son efectos colaterales, sino productos de diseño.

Este proceso tiene un ciclo de retroalimentación perverso, tal como se describe en el ejemplo del Nexus: una ciudadana busca en internet un refresco. Con ese simple gesto, desencadena una cadena en la que sus datos personales se venden a empresas transnacionales, las cuales a su vez compran espacio publicitario en Google o TikTok para enviarle anuncios personalizados. Pero la transacción no termina ahí. Esa información, su patrón de búsqueda, su ubicación, su demora en decidir, se convierte en materia prima para entrenar sistemas de inteligencia artificial más potentes, que luego se venden a gobiernos y corporaciones. Así, nuestra vida cotidiana se duplica en un doble flujo: como consumidores de contenidos y, simultáneamente, como productores involuntarios de datos que alimentan la máquina que nos observa, nos anticipa y, finalmente, nos define. Somos a la vez clientx y mercancía, usuarix y algoritmo en entrenamiento.

Frente a esta colonización de lo real, la ética enfrenta su desafío más urgente. La pregunta ya no es sólo cómo usar la tecnología responsablemente, sino quién tiene el derecho de definir los parámetros de la realidad compartida. Cuando una empresa privada puede decidir qué versión de un conflicto histórico verán mil millones de personas, o cuando un gobierno puede manipular tendencias para simular consenso social, los fundamentos mismos de la democracia deliberativa se desintegran. Estamos presenciando la privatización de la hermenéutica social en donde la interpretación del mundo ya no surge del debate público, sino de los análisis de datos de unas pocas corporaciones en Silicon Valley.

La resistencia, en este sentido, debe ser tanto epistemológica como política. Necesitamos recuperar la noción de que la realidad es un bien común, no un recurso explotable. Esto implica exigir transparencia algorítmica, sí, pero también cultivar una nueva alfabetización digital que nos enseñe a leer entre los datos, a desconfiar de las certezas personalizadas y a valorar los espacios digitales no optimizados para la adicción. El humanismo en la era digital no consistirá en rechazar la tecnología, sino en reafirmar que la construcción de significado debe permanecer en manos de comunidades deliberantes, no de corporaciones que responden ante accionistas.

En última instancia, el poder de moldear la realidad digital es el poder de moldear el futuro de la conciencia colectiva. Permitir que este poder permanezca concentrado y desregulado no es un error técnico, sino una abdicación moral. La batalla por el alma de la era digital no se librará entre humanos y máquinas, sino entre dos visiones de humanidad: una como conjunto de perfiles dataficados y manipulables, y otra como comunidad autónoma capaz de usar la tecnología sin ser usada por ella. Nuestra tarea más inmediata es asegurar que la segunda posibilidad no se convierta en mera nostalgia por un mundo que dejamos que otrxs diseñaran por nosotrxs.

Y aquí emerge la pregunta más incómoda, la que reverbera en cada clic, en cada contenido recomendado, en cada tendencia artificialmente inflada: ¿quién controla realmente a quién? ¿Nosotrxs a las herramientas que creamos para expandir nuestro conocimiento, o estas arquitecturas digitales (y los intereses que las gobiernan) a nosotrxs, transformando lentamente nuestra autonomía en ilusión, nuestra atención en materia prima explotable, y nuestra realidad en un producto de consumo?

Deja un comentario