La ONU creó un organismo con empresas como Google y Microsoft para conocer los riesgos de esta nueva tecnología.
La inteligencia artificial plantea distintos desafíos que la sociedad y las autoridades están empezando a entender en medio de su masificación. Temas éticos, de seguridad y regulación, son algunos que inquietan a las organizaciones de todo el mundo. Por eso la ONU creó un organismo que se encargará de entender todo este contexto.
La Organización de las Naciones Unidas (ONU) confirmó un grupo compuesto por 39 miembros de diferentes países para evaluar los riesgos asociados con la IA y formular propuestas para abordar esos desafíos.
El secretario general de la ONU, António Guterres, destacó la importancia de esta iniciativa: “el uso malicioso de la inteligencia artificial podría socavar la confianza en las instituciones, debilitar la cohesión social y amenazar la democracia misma”. Algo que se da en un contexto en el que la IA está cada vez más presente en las aplicaciones y dispositivos y, por ende, en la vida cotidiana.
Además, este organismo tendrá la labor de promover una “conversación global multidisciplinaria” que incluye a diversas partes interesadas, desde expertos de la industria hasta académicos y representantes gubernamentales.
Dentro de las personas que integrarán este ente internacional se encuentran la UNESCO, James Manyika, vicepresidente senior de Google-Alphabet, Natasha Crampton, directora responsable de inteligencia artificial en Microsoft, y Mira Murati, directora de tecnología de OpenAI. Además de gobiernos como México, Rusia, Kenia, Brasil y Alemania, e instituciones como la Universidad de Tokio y la Universidad de Stanford.
Este organismo no está pensado como una alianza para regular o controla la inteligencia artificial, que permita otorgar o quitar licencias de uso, sino lo que busca es entender y revisar los riesgos que esta tecnología genera. Algo que se haría visible a través de informes publicados periódicamente.