El desarrollo de la inteligencia artificial (IA) y los riesgos asociados a ella no pueden depender de los «caprichos» del mercado, alertaron el jueves expertos de la ONU, que reclaman herramientas de cooperación internacional sin llegar a pedir una instancia reguladora global.
El secretario general de Naciones Unidas, António Guterres, estableció en octubre del año pasado este comité de unos cuarenta especialistas en los campos de la tecnología, el derecho y la protección de datos personales, procedentes del mundo académico, de los gobiernos o del sector privado, incluidas firmas como Microsoft, Google-Alphabet u OpenAI.
Su informe final, publicado a pocos días de la «Cumbre del Futuro» que se celebrará en Nueva York, constata la «falta de gobernanza mundial en materia de IA» y la exclusión de los países en desarrollo de las discusiones sobre este asunto coyuntural.
De los 193 Estados miembros de la ONU, solo siete forman parte de las grandes iniciativas relacionadas con la IA (en el marco de la OCDE, del G20 y del Consejo de Europa), y 118 están totalmente ausentes, en su mayoría países del sur.
Sin embargo, la naturaleza «transfronteriza» de estas tecnologías «exige un enfoque mundial», insisten.
«La IA debe servir a la humanidad de forma justa y segura», reiteró esta semana Guterres. «Sin control, los peligros que genera la inteligencia artificial podrían tener implicaciones graves para la democracia, la paz y la estabilidad» del planeta.
Cooperación mundial
En este contexto, el comité de expertos pide a los Estados miembros de la ONU que establezcan herramientas para mejorar la cooperación mundial en la materia, alentar los avances de la humanidad y evitar los abusos.
«Nadie puede predecir en la actualidad la evolución de estas tecnologías» y los que desarrollan y utilizan sistemas que «no comprenden» no rinden cuentas, aseguran.
En estas circunstancias, el «desarrollo, el despliegue y el uso de estas tecnologías no puede depender únicamente de los caprichos del mercado», advierten los expertos, antes de señalar el papel «crucial» que deben tener los gobiernos y las organizaciones regionales.
Entre las conclusiones, sugieren la creación de un grupo internacional de expertos científicos sobre la IA, que se inspire del modelo de especialistas de la ONU sobre el clima (IPCC), cuyos informes son referencia para la descripción del calentamiento global, su impacto y las soluciones para mitigarlo.
Estos científicos asesorarían a la comunidad internacional sobre los riesgos emergentes, los sectores donde es necesaria mayor investigación y podrían identificar la forma en que algunas tecnologías podrían ayudar a cumplir los objetivos de desarrollo sostenible (eliminación del hambre y la pobreza, la igualdad de género o el clima, entre otros).
Esta idea forma parte del proyecto de Pacto Digital Mundial, que está siendo discutido, y que se espera que sea adoptado el domingo durante la «Cumbre del Futuro» en la ONU.
Los expertos sugieren también que se instaure un diálogo político intergubernamental regular sobre el asunto y se cree un fondo para ayudar a los países rezagados.
Evitar las sorpresas
Todo ello bajo el paraguas de una estructura ligera dentro de la propia secretaría de la ONU, sugieren.
Sin embargo, no están de acuerdo con la creación de una entidad internacional de gobernanza a la imagen del Organismo Internacional para la Energía Atómica (OIEA), como ha llegado a sugerir Guterres, salvo que los riesgos se hagan «más serios y más concentrados».
En ese caso, «podría ser necesario que los Estados creen una institución internacional con poderes de vigilancia, alerta, verificación y ejecución», añaden.
En un sector que evoluciona muy rápidamente, los expertos identifican varios peligros de la IA: entre ellos, la desinformación que amenaza las democracias, los «deepfakes» (videos ultrafalsos) más personales, sobre todo sexuales, violaciones de los derechos humanos, armas autónomas y su utilización por grupos criminales o terroristas.
«Dada la rapidez, la autonomía y la opacidad de los sistemas de la IA, esperar a que surja una amenaza podría significar que ya es demasiado tarde para responder», admiten, por lo que abogan por una evaluación científica constante, y los intercambios políticos para que «el mundo no se vea tomado por sorpresa».
Fuente: AFP