Cinco geeks tan famosos que pueden ser identificados por sus nombres de pila —Dario, Demis, Elon, Mark y Sam— ejercen un control casi divino sobre los modelos de inteligencia artificial que darán forma al futuro. La administración Trump se ha mantenido al margen incluso cuando esos modelos han adquirido capacidades asombrosas, convencida de que la competencia sin restricciones entre empresas privadas es la mejor manera de garantizar que Estados Unidos gane la carrera de la IA frente a China. Hasta ahora: algo cambió y la lógica de dejar hacer empieza a dar paso a una etapa de mayor intervención.
De repente, el tratamiento desenfadado de la IA por parte de Estados Unidos parece estar llegando a su fin. La razón es que el vertiginoso progreso de los modelos también representa una amenaza para la propia seguridad nacional del país, inquietando a miembros de la administración Trump que antes estaban más preocupados por la sobrerregulación. Al mismo tiempo, el creciente resentimiento entre los votantes estadounidenses está convirtiendo a la IA en un tema políticamente explosivo. Un enfoque de laissez-faire ya no es políticamente sostenible ni estratégicamente prudente.
El punto de inflexión fue el anuncio del lanzamiento del modelo Claude Mythos por parte de Anthropic el 7 de abril. La última creación de la compañía es tan sorprendentemente eficaz para encontrar vulnerabilidades de software que, en las manos equivocadas, amenazaría infraestructuras críticas, desde bancos hasta hospitales. Los modelos de IA también plantean cada vez más otros riesgos, desde peligros para la bioseguridad hasta estafas a escala industrial.
China está ganando la carrera por el talento de la IA
El director ejecutivo de Anthropic, Dario Amodei, consideró con acierto que Mythos era demasiado peligroso para un lanzamiento general. En su lugar, lo ha reservado para su uso por parte de unas 50 grandes empresas de los sectores de la informática, el software y las finanzas, con el fin de reforzar sus propias defensas. El secretario del Tesoro de Estados Unidos, Scott Bessent, se mostró tan inquieto que convocó a los principales bancos a conversaciones urgentes.
No fue la primera vez que la administración Trump interviene en este tema. Semanas antes, el Pentágono había tomado cartas en el asunto después de que Amodei se negara a permitir que el modelo de Anthropic se utilizara en armas totalmente autónomas o para la vigilancia masiva dentro del país. También entonces la administración Trump se alarmó, debido al poder que una sola empresa ejercía sobre una tecnología central para la seguridad nacional.
Una reacción adversa entre los votantes aumentará la presión sobre la administración Trump para intervenir. Las encuestas de opinión están llevando a cada vez más políticos a pensar que la IA será uno de los grandes temas en las elecciones de 2028. Los estadounidenses son mucho más escépticos respecto de la IA que las personas de otros países. Siete de cada diez creen que la IA perjudicará las oportunidades laborales, un aumento significativo respecto al año anterior (y mucho antes de que exista evidencia concluyente sobre el tema). La oposición de base a los centros de datos está aumentando rápidamente, aunque la IA tenga poco o nada que ver con el aumento de los precios de la electricidad. Como señal de los tiempos, la casa de Sam Altman, director de OpenAI, ha sido atacada dos veces en los últimos días.
La historia sugiere que, con una tecnología tan transformadora como la IA, un “momento Mythos” (el punto en que un hecho deja de ser solo noticia y pasa a convertirse en relato con dimensión casi mítica) era inevitable. Desde John D. Rockefeller hasta Henry Ford, las grandes innovaciones industriales de Estados Unidos fueron lideradas por un pequeño número de hombres que acumularon un enorme poder. Con el tiempo, los gobiernos del siglo XX intervinieron para controlar industrias excesivamente poderosas, desde las políticas antimonopolio que dividieron a Standard Oil hasta la creación de la Reserva Federal y la desintegración de AT&T. Aquellas épocas estaban al menos tan polarizadas y tensas como la actual. Y nuevos estudios sugieren que los “dioses” de la IA aún no son más dominantes que sus predecesores históricos.

Pero la historia también indica que controlar la IA será complicado. Esto se debe en parte a que las consecuencias de un posible fracaso son extremadamente altas y también a que la IA está evolucionando a una velocidad vertiginosa.
Las disyuntivas son agudas. El crecimiento económico se beneficiará de la rápida difusión de los beneficios de la IA, pero la posible reacción adversa podría conducir fácilmente a una sobrerregulación. No hacer nada podría dejar a Estados Unidos vulnerable al caos provocado por usos malintencionados de la IA, pero un exceso regulatorio aseguraría que China gane la carrera tecnológica. Esto convierte al momento actual en especialmente peligroso.
Amenaza eléctrica: las automotrices japonesas enfrentan su mayor desafío en décadas
El tiempo es escaso. Hace apenas dos años, durante la administración Biden, los debates sobre regulación se centraban principalmente en los riesgos potenciales de la IA. Hoy, sus capacidades ya son alarmantemente poderosas y continúan creciendo con cada nueva versión. El ritmo de la innovación implica que las discusiones sobre el papel adecuado del gobierno, que en el pasado se desarrollaron durante años o incluso décadas, ahora deben resolverse en cuestión de meses.
Además, los obstáculos técnicos para un enfoque más intervencionista son considerables. Las herramientas tradicionales de control gubernamental, como la nacionalización, resultan ineficaces porque los ingenieros talentosos pueden moverse libremente entre empresas y la capacidad de cómputo es un bien relativamente accesible. Peor aún, los principales desarrolladores de modelos apenas aventajan por unos meses a sus competidores de código abierto, incluidos los de China. Tarde o temprano, las capacidades de estos modelos estarán disponibles para todos.
Aun así, el “momento Mythos” podría ser el punto de partida para la creación de un esquema viable de control de la IA. Los usuarios de confianza obtendrían acceso temprano a los modelos más potentes: OpenAI está siguiendo el ejemplo de Anthropic al implementar su última herramienta para un grupo limitado de profesionales de ciberseguridad previamente evaluados. Antes de permitir la comercialización generalizada de estos modelos, el gobierno de EE.UU. podría exigir certificaciones de organismos liderados por la industria que los hayan probado para diferentes usos.
Competencia en peligro
Esta idea presenta ventajas tanto para los grandes desarrolladores de modelos como para el gobierno norteamericano. Evita el largo proceso de creación de un nuevo organismo regulador. Al permitir el acceso solo a unos pocos usuarios premium, posibilita que los desarrolladores cobren precios más altos y limiten el uso de la escasa capacidad de cómputo. Mientras tanto, el gobierno puede restringir quiénes utilizan los modelos más potentes, reduciendo el riesgo de que China los copie y acorte distancias.
Sin embargo, también presenta graves problemas. La liberación limitada reducirá la competencia y aumentará la influencia de las empresas de IA ya establecidas. Ralentizará la difusión de los beneficios de la IA y creará un sistema de dos niveles dentro de la economía estadounidense, perjudicando a muchas empresas que quedarán excluidas del acceso temprano a los modelos más avanzados. ¿Qué ocurriría si el desarrollo de defensas contra la IA lleva mucho tiempo o resulta imposible? ¿Y qué sucede con los modelos de código abierto? ¿Cómo se puede exigir que también cumplan estas normas?
Un sistema regulatorio basado en estos principios podría resultar injusto. Los actores internos podrían protegerse frente a las amenazas de vanguardia, mientras que los externos tendrían que conformarse con esperar lo mejor. Las oportunidades para el lobby y las ganancias extraordinarias serían enormes. Esto pondría a prueba la honestidad y la competencia de la administración más abiertamente corrupta de la era política moderna de Estados Unidos. Además, una solución que concentre aún más el poder y la riqueza en manos de unos pocos “dioses” de la IA corre el riesgo de agravar la reacción política que ya comienza a preocupar a Washington.
Por otra parte, el enfoque Mythos solo puede ser una solución parcial. La seguridad de la IA no puede garantizarse únicamente a nivel nacional. Con el tiempo, requerirá cooperación internacional, comenzando por China. Asimismo, el nuevo enfoque en la ciberseguridad debe ir acompañado de una reflexión urgente sobre los efectos económicos y sociales de la IA. Abordar la disrupción del empleo y diseñar un sistema impositivo adaptado a la IA que favorezca al trabajo son desafíos enormes para los que aún no existen respuestas satisfactorias. Esto debe cambiar. El “momento Mythos” constituye una llamada de atención para la seguridad de la IA y exige una reflexión profunda en otros ámbitos.


