Anthropic tenía hasta hoy para decidir si se mantenía fiel a sus principios o cedía al Pentágono y ha elegido lo más arriesgado.
El Departamento de Defensa quiso integrar la IA sin límites, con un contrato de cientos de millones y acceso total a documentos, pero la IA está programada para evitar vigilancia masiva y uso en armas autónomas.
Dario Amodei, CEO de Anthropic, afirmó que creen en usar la IA para defender democracias, pero no pueden aceptar usos que contradigan sus principios.
Empleados de Google y OpenAI respaldaron la postura, y Anthropic ha indicado que renunció a varios cientos de millones para impedir que Claude se utilice en escenarios peligrosos.
El conflicto no es entre empresas sino entre la firma y el Gobierno; ceder podría dañar su reputación y abrir riesgos como etiquetas de ‘riesgo en la cadena de suministro’, mientras el desenlace podría depender de la necesidad nacional y de posibles forzajes legales.