Documentos oficiales de DARPA revelan que el proyecto N3 (Neurotecnología No Quirúrgica de Próxima Generación) buscó desarrollar una interfaz cerebro-computadora portátil para que soldados controlaran drones y sistemas de combate sin implantes, y que ese programa llegó a pruebas en personas en 2023.

¿Qué sabemos del proyecto N3?

Vemos que N3 fue anunciado en 2018 y estructurado en tres fases con duraciones explícitas: Fase I de 12 meses y Fase II y III de 18 meses cada una, según la descripción oficial de DARPA. En 2019 el programa recibió financiación para seis equipos de investigación —incluyendo Carnegie Mellon, Johns Hopkins y Battelle—, de acuerdo con la información difundida por la propia agencia. Un informe fechado el 20 de julio de 2023 por la Universidad Carnegie Mellon confirma que el programa había pasado a «Fase 3» y que comenzaron ensayos en humanos, y la universidad atribuye avances técnicos a una técnica llamada “SharpFocus” (Carnegie Mellon, 20/07/2023). DARPA aclara que financia investigación y no opera tecnologías; aun así, la página pública del programa indica que el contenido “ya no se mantiene”, lo que incrementa la opacidad sobre resultados y usos operativos.

¿Qué riesgos plantea y quién paga el costo?

La combinación de capacidades para leer señales cerebrales y devolver estímulos abre riesgos técnicos y éticos: errores de lectura, ataques adversarios a la transmisión, y decisiones automatizadas con impacto letal. Además de los fallos técnicos, está la captura del Estado: grupos con acceso privilegiado pueden definir estándares de seguridad y uso sin controles independientes. Las consecuencias no intencionadas incluyen efectos sanitarios a mediano plazo en voluntarios y externalidades geopolíticas si la tecnología se despliega sin marcos multilaterales. Como observó Hayek respecto a la pretensión de conocimiento, la dispersión del conocimiento hace imposible que un único planificador prevea todos los efectos; eso es especialmente cierto para una tecnología que mezcla cerebro, IA y armamento.

¿Cómo impacta esto en Argentina y en nuestra autonomía estratégica?

Argentina no está aislada de estas dinámicas. La proliferación de neurotecnologías militares redefine umbrales normativos y obliga a decidir si importamos marcos de regulación, tecnologías o simplemente consecuencias. Si desde julio de 2023 no hubo comunicados públicos sobre operaciones y en 2026 persiste el silencio —según DARPA y reportes periodísticos—, lo que ocurre en laboratorios norteamericanos terminará moldeando normas globales de facto. Para nuestras Fuerzas y centros de investigación esto significa dos opciones: adoptar soluciones tecnológicas y dependencias o exigir estándares públicos. A corto plazo pagamos en autonomía; a largo plazo, sin regulaciones internacionales claras, está en riesgo la normalización de usos militares de la neurociencia.

Qué exigimos: protocolos, datos abiertos y auditorías independientes

Frente a la opacidad hay una respuesta mínima razonable: protocolos públicos para experimentación con humanos, datos abiertos sobre seguridad y efectos adversos, y auditorías independientes externas al circuito militar-industrial. Exigimos que cualquier programa que mezcle cerebro e IA publique cronogramas, consentimientos, criterios de selección de participantes y resultados sanitarios, y que esos datos queden disponibles para la comunidad científica y organismos de control. Asimismo, proponemos que Argentina impulse, en foros multilaterales, normas de transparencia y supervisión —no para frenar la innovación per se, sino para reducir captura del Estado y minimizar consecuencias no intencionadas—. En suma, transparencia y controles son la política pública más realista frente a tecnologías que concentran conocimiento y poder.