Miguel Huerta
Como humanidad hemos cometido un sinfín de errores que nos llevan a pensar si somos nuestros propios verdugos. Nuestras herramientas inventadas son un claro ejemplo. Cuando inventamos la rueda, estoy seguro que en un momento en la historia alguien no pensó en las posibilidades de transporte, sino en la posibilidad de atropellar a alguien. Esto es casi seguro y la pregunta que habría hecho es la misma que nos persigue hoy, amplificada hasta el infinito: ¿quién responde por lo que una herramienta hace cuando ya no la controlamos del todo? En el momento actual, tenemos un invento que puede causar el mismo efecto en alguien, pues la inteligencia artificial no es solamente la nueva rueda. Me atrevo a decir que es la primera herramienta que puede moverse sola.
De igual manera, cuando hablamos de ética y tecnología, solemos caer en el mismo error: pensamos que el problema es la tecnología. Pero la ética nunca ha sido sobre los objetos. Es sobre las decisiones, sobre nuestras deliberaciones y cómo discernimos lo que deseamos. Ahora, con la inteligencia artificial tenemos a una competencia externa a la agencia humana, ya que lo que hace singular a la inteligencia artificial es que hemos creado algo que toma decisiones que parecen propias, aunque sean el reflejo calculado de millones de decisiones humanas previas.
Y es que la IA no inventa valores sino que los destila. Y en ese proceso de destilación, algo se pierde y algo se amplifica. Son dos actos contradictorios en sí. La pregunta en este sentido es: ¿qué estamos amplificando sin darnos cuenta?
Tomemos uno de los casos más recientes y controversiales sobre la actualidad de la IA (noticia del 25 de febrero de 2026). Resulta que Anthropic, la empresa que creó a la IA Claude, se negó a que el gobierno de los Estados Unidos usara dicha tecnología para fines bélicos sin restricciones (se ha dicho que esta IA fue utilizada vía Palantir en el secuestro de del presidente de Venezuela, Nicolás Maduro). Por su parte, el gobierno respondió con sanciones, amenazas legales y la búsqueda de proveedores más “obedientes”. A primera vista, parece un conflicto corporativo. Pero visto con lentes filosóficos, es algo mucho más profundo. Es una de las primeras veces en la historia moderna que una empresa tecnológica multimillonaria antepone una línea ética al dinero y al poder institucional de un Estado. Y eso, en la historia de la tecnología, no tiene precedente.

Ingenuamente, a mi parecer, Platón imaginó a los filósofos gobernando las ciudades precisamente porque creía que el poder sin sabiduría es peligroso (algo que muchos gobiernos deberían de entender). Hoy a la sabiduría se le relega a la academia en gran parte y gobiernan los ingenieros, empresarios y algoritmos. Y el poder que detentan no es el de grandes ejércitos o armamentos; es el poder de procesar información a una velocidad que ningún ser humano puede seguir, de tomar decisiones en fracciones de segundo, de operar en sistemas de armas autónomas donde la pregunta “¿debería disparar?” ya no la hace un soldado con conciencia, sino un modelo matemático entrenado para optimizar objetivos.
Recordemos que Kant nos enseñó que tratar a los seres humanos como fines en sí mismos, nunca como meros medios, es el principio moral fundamental (imperativo categórico). Entonces, ¿qué ocurre cuando quien aprieta el botón no tiene ninguna capacidad de aplicar ese principio porque simplemente no tiene conciencia?
Hay quienes argumentan que estas son preocupaciones abstractas, que la tecnología siempre ha sido neutral y que lo que importa es quién la usa. Es un argumento cómodo, pero falso. Por ejemplo, un cuchillo puede cortar pan y gargantas, es verdad. Pero una IA entrenada específicamente para identificar y neutralizar objetivos humanos en una guerra no es neutral de la misma manera que un cuchillo. Lleva incorporada una lógica, una serie de reglas precargadas, una jerarquía de valores, un concepto de quién cuenta como amenaza. Y esa lógica la estructuraron y la planearon personas, en alguna sala de reuniones y con alguna base de datos. En este sentido, la neutralidad de la herramienta es una ilusión que nos conviene creer porque nos exime de responsabilidad. Por más políticas que las empresas tecnológicas nos expongan.
Lo que el caso Anthropic nos muestra es que hay un dilema ético en nuestra época y no es si la IA puede pensar, sino quién tiene el derecho de decidir para qué piensa. Los Estados invocan la seguridad nacional. Las empresas invocan sus principios. La sociedad apenas alcanzamos a entender de qué se habla. Y mientras tanto, las decisiones se toman en favor de unos cuantos sin reflexionar sobre sus resultados. ¿Puede una inteligencia artificial cometer el mismo pecado de no reflexionar? Técnicamente, nunca reflexiona. Siempre obedece. Y eso la hace, en manos equivocadas, infinitamente más peligrosa que cualquier funcionario burocrático incompetente.
Acá es preferible estar alertas de modo prudente, pues no conviene caer en conspiraciones o paranoia, tampoco en el optimismo ingenuo. La inteligencia artificial también diagnostica enfermedades antes de que sean mortales, traduce idiomas en tiempo real, ayuda a comunidades relegadas a encontrar soluciones desde varios frentes, etcétera. El problema no es la existencia de esta tecnología. El problema es la ausencia de un marco ético que vaya al mismo ritmo que su desarrollo. Lo que también es otro problema, pues la IA avanza a gran velocidad de un día para otro y la tarea ética toma su tiempo humano.
Necesitamos regresar a la conversación humana sobre qué tipo de mundo queremos habitar. ¿Queremos un mundo donde los Estados puedan exigir a las empresas tecnológicas acceso irrestricto a sus herramientas para crear armas y dirigir guerras? ¿O queremos un mundo donde existan límites frente a la barbarie y que se ponga al frente a la humanidad por encima del poder? Una pregunta similar la hizo el poeta romano Juvenal hace dos mil años sobre los guardias del poder. Hoy la misma pregunta aplica para los modelos de inteligencia artificial que custodian nuestras comunicaciones, orientan nuestras decisiones y, cada vez más, participan en nuestros conflictos.
La ética no es un lujo para tiempos de paz. Es precisamente en los momentos de tensión, cuando el poder presiona, cuando el dinero corrompe, cuando la urgencia justifica los atajos, cuando la ética muestra su verdadero sentido. Lo que hizo Anthropic, independientemente de si se comparte o no su postura, fue un acto que abona a la ética. Decir que hay cosas que no se hacen aunque cuesten. Eso es exactamente lo que Sócrates hizo cuando se negó a huir de su condena. Y ya sabemos cómo le fue. Pero también sabemos que dos mil años después seguimos hablando de él, porque tenía razón.
Confío en que el futuro de la inteligencia artificial no lo decidirán los algoritmos. Lo decidiremos como humanidad, con las preguntas que nos atrevamos a hacer y con la senda que nos atrevamos a seguir. La pregunta no es si las máquinas aprenderán a ser éticas. La pregunta es si nosotrxs lo seremos cuando sea necesario. Y hoy lo es.
2026 – Acción Ética – Todos los derechos reservados. Este ensayo fue escrito con fines de reflexión y análisis.