El logo de Anthropic
Vagones desbordados: más caro el colectivo, más lleno el tren
Colegios de la UNLP sin clases por el paro nodocente y marcha de antorchas
Amenazas en escuelas: mochilas prohibidas y revisión de útiles
La “cama de pollo”, bajo la lupa por posible contaminación de arroyos
Alegría en el Bioparque tras el nacimiento de siete flamencos
La salud de Charly: ¿Cuál es su estado tras la operación de riñón?
La Feria del Libro vuelve a refrendar el valor de la lectura
Confirman que Adorni gastó casi US$15.000 en efectivo en Aruba
El Presidente confirmó que irá por la reelección y volvió a apoyar a Adorni
La oposición busca sumar votos para frenar la eliminación de las Primarias
Afirman que la industria mejora y quebraría la tendencia negativa
El fiscal apunta a Tapia y Toviggino por lavado de activos en la AFA
No dejaron ingresar a los periodistas acreditados en la Casa Rosada
La Provincia autorizó un aumento del 1% en el servicio eléctrico
“Estaba nerviosa y enfadada”: la reacción de la joven denigrada en Brasil
“Era un globo”: el relato del médico que intentó reanimar a Maradona
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
El logo de Anthropic
La inteligencia artificial acaba de cruzar una línea que inquieta al mundo. Cuando la empresa Anthropic presentó Mythos, un modelo tan potente que decidió restringir su acceso, no lanzó simplemente una nueva tecnología: encendió una alarma global. En cuestión de días, gobiernos, bancos centrales y expertos comenzaron a reaccionar ante lo que muchos describen como un cambio de reglas en el tablero geopolítico.
Mythos no es un sistema cualquiera. Según sus creadores, tiene la capacidad de detectar y explotar fallos ocultos en infraestructuras críticas, desde redes eléctricas hasta sistemas financieros y plataformas gubernamentales. En otras palabras, podría encontrar grietas donde nadie más las ve. Ese potencial, más que una promesa tecnológica, suena a riesgo estratégico. No sorprende que algunas voces lo comparen con armamento nuclear: ya no se trata solo de innovación, sino de poder.
Las reacciones no tardaron en llegar. En Europa, las autoridades comenzaron a preguntar discretamente a los bancos por sus defensas digitales. En el Reino Unido, una evaluación independiente confirmó que el modelo puede ejecutar ciberataques complejos nunca antes vistos en sistemas de IA.
Mientras tanto, otros países observan desde afuera con preocupación, conscientes de que quedarse atrás en esta carrera puede tener consecuencias profundas.
El acceso restringido al modelo también generó tensiones. Anthropic decidió compartirlo con un grupo limitado de organizaciones, en su mayoría estadounidenses, y solo un país extranjero -Reino Unido- logró participar en las pruebas. Esto dejó en evidencia una realidad incómoda: el acceso a las tecnologías más avanzadas empieza a depender tanto de la política como de la ciencia.
En este contexto, la falta de قواعد reglas globales se vuelve un problema evidente. A diferencia de otros ámbitos críticos, no existe un acuerdo internacional claro que regule el desarrollo y uso de sistemas como Mythos. No hay inspecciones conjuntas ni marcos compartidos para gestionar sus riesgos. Cada país, cada empresa, avanza por su cuenta.
LE PUEDE INTERESAR
La economía iraní podría resistir más de lo esperado
LE PUEDE INTERESAR
Khamenei, herido de gravedad pero aún al mando
Incluso dentro de Estados Unidos surgieron tensiones. Funcionarios gubernamentales se reunieron con los responsables de la compañía para discutir el impacto potencial del modelo, especialmente en escenarios sensibles como la seguridad nacional. Al mismo tiempo, Anthropic asegura que limita su distribución por precaución, mientras colabora con socios tecnológicos para reforzar la seguridad global.
Sin embargo, hay un dato que acelera la preocupación: otros modelos con capacidades similares podrían aparecer en menos de dos años. Eso deja una ventana muy corta para preparar defensas adecuadas. Y como si fuera poco, ya se investiga la posibilidad de accesos no autorizados a Mythos, lo que refuerza la sensación de urgencia.
Más allá de los detalles técnicos, el mensaje es claro. La inteligencia artificial dejó de ser solo una herramienta útil para convertirse en un factor de poder.
Mythos no solo revela vulnerabilidades en sistemas digitales; también expone las fragilidades en la cooperación internacional. En un mundo cada vez más conectado, la pregunta ya no es quién desarrolla la mejor tecnología, sino quién controla sus riesgos… y quién queda expuesto a ellos.
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$740/mes
*LOS PRIMEROS 3 MESES, LUEGO $6990
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$570/mes
*LOS PRIMEROS 3 MESES, LUEGO $4500
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2026 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí