Las potencias debaten sobre la inteligencia artificial y sus implicancias. Los sectores financieros especulan en torno al beneficio de la misma en la economía.
Entre los días 1 y 2 de noviembre, se realizó la primera Cumbre Mundial sobre Seguridad de la Inteligencia Artificial organizada en la sede de la Escuela Gubernamental de Códigos y Cifras de la MI6. El encuentro que reunió a EE.UU. y China, entre otros 28 Estados de todos los continentes, finalizó con la firma de la Declaración de Bletchley, el primer acuerdo global en torno a la IA.
En la cumbre se reconocieron las oportunidades que la IA brinda para “transformar y mejorar el bienestar humano, la paz y la prosperidad”, pero también se plantearon los serios riesgos que estos sistemas pueden tener en la vida cotidiana. Por ello, en la declaración final se aludió a la necesidad de abordar los posibles impactos de la IA con una perspectiva de derechos humanos, equidad, rendición de cuentas, regulación, seguridad y transparencia.
Un día antes de la cumbre en Reino Unido, el G7 emitió un comunicado conjunto en el que instaba a regular los sistemas de IA bajo “la necesidad de gestionar los riesgos y proteger a los individuos, la sociedad y nuestros principios compartidos, incluido el Estado de derecho y los valores democráticos”.
Asimismo, el 30 de octubre, el gobierno norteamericano emitió una orden ejecutiva respecto al “desarrollo y uso seguro y confiable de la inteligencia artificial” en el que se expresan las mismas preocupaciones en torno al desarrollo de la IA.
Por otro lado, en paralelo a los llamados a regular estos sistemas por parte de EE.UU. y el G7, el Goldman Sachs Group difundió un informe en el cual se elevó la perspectiva de crecimiento de la economía norteamericana por la adopción de los sistemas de inteligencia artificial. “Si bien persiste una gran incertidumbre sobre el momento y la magnitud de los efectos de la IA, nuestra estimación básica es que la IA generativa afectará la productividad” afirmó un grupo de economistas a la cadena Bloomberg.