Para gobiernos de todo el mundo se volvió inviable seguir ignorando los avances de la inteligencia artificial y su participación en el terreno bélico. Eso llevó a más de 90 países a celebrar una cumbre sobre Inteligencia Artificial Responsable en el Ámbito Militar que tuvo su primera edición en 2023. Pasado un año, se llevó a cabo una segunda edición en Seúl donde acordaron firmar un plan en conjunto. Sin embargo, China, que tiene sus propios objetivos alejados de las regulaciones, decidió no respaldarlo.
El acuerdo —no jurídicamente vinculante— plantea, entre varias cuestiones, algo importante: “Mantener el control y la participación humana en todas las acciones relacionadas con el empleo de armas nucleares”. Es decir, este tipo de armas no pueden estar en manos de la inteligencia artificial. Y aunque China envió un representante a la cumbre que se celebró este 9 y 10 de septiembre, no apoyó la iniciativa.
- Lea también: Así son los nuevos robots humanoides que se exhiben en China
- Lea también: EEUU tiene nueva “estrategia nuclear secreta” ante la amenaza china
La decisión del régimen de Xi Jinping cobra sentido si se tiene en cuenta que incluso en laboratorios de ese país crearon con inteligencia artificial un “comandante virtual” capaz de dirigir las acciones del Ejército Popular de Liberación (EPL) controlado por el Partido Comunista Chino (PCCh). Aunque se trata de un prototipo, sus creadores lo escriben prematuramente como “un estratega brillante y experimentado que posee sólidas facultades mentales, un carácter sereno y firme, capaz de analizar y juzgar situaciones con calma, desprovisto de decisiones emocionales o impulsivas”.
¿Es suficiente la regulación internacional frente a China?
La falta de acuerdo con China es algo que reconocen los organizadores de esta cumbre, la cual pone sobre la mesa el dilema que tienen los gobiernos actuales ante una tecnología capaz de controlar armas nucleares. Ruben Brekelmans, ministro de Defensa de Países Bajos, tuvo que reconocer que “nunca lograremos que todo el mundo se sume”.
“¿Cómo lidiamos con el hecho de que no todos cumplen? . Ese es un dilema complicado que también deberíamos poner sobre la mesa”, agregó. En el Instituto de las Naciones Unidas de Investigación sobre el Desarme tratan de mostrar cautela: “Si se avanza demasiado rápido y demasiado pronto, existe un riesgo muy alto de que muchos países no quieran participar”, dijo Giacomo Persi Paoli, el responsable de seguridad y tecnología.
Elon Musk, el multimillonario fundador de Tesla y dueño de X, es uno de los muchos expertos que ha pedido regulaciones a la “inevitable” inteligencia artificial. El año pasado firmó una carta abierta junto a cientos de especialistas y tal parece que varios países los escucharon excepto China. Y es que la lista de avances en el gigante asiático es larga: en junio pasado presentaron un oso panda virtual, iniciativa que combina tecnologías de inteligencia artificial (IA), modelado 3D de alta fidelidad y un metaverso. Sin embargo, no todo pasa por datos curiosos sino por lo peligrosos que pueden llegar a ser, como el modelo de IA que están preparando basado en el “pensamiento de Xi Jinping”. Es decir, en el modelo ideológico del mandatario comunista.
Estados Unidos también avanza en sus propios proyectos, como la incorporación de la tecnología de ChatGPT de OpenAI para operaciones de ciberseguridad dentro del Departamento de Defensa. Por otro lado, hace menos de un mes salió a la luz cómo el gobierno de Joe Biden aprobó una nueva “estrategia nuclear secreta” ante la amenaza china, significado de que admite los avances de Pekín en el terreno militar. Pero hasta ahora, todo se trata de pequeños pasos de la comunidad internacional, que parece quedar rezagada en comparación con las innovaciones tecnológicas.