Una carta firmada por más de 1,100 académicos, ingenieros y directores ejecutivos de empresas tecnológicas, advirtieron, el 29 de marzo de 2023, respecto a la necesidad de una pausa de seis meses en la Inteligencia Artificial (IA), porque su desarrollo descontrolado representaba un “riesgo para la sociedad y la humanidad”.
Los expertos pidieron una moratoria hasta que se establecieran sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de Inteligencia Artificial, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.
“En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”, afirmaron los expertos en su misiva.
“Los sistemas de inteligencia artificial potentes deben desarrollarse sólo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables […] ¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? […] ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos”, concluyeron los cientos de firmantes de la carta.
Según la petición, los desarrolladores deberían trabajar con los legisladores para crear nuevos sistemas de Gobierno de IA y órganos de supervisión. También hicieron un llamado a los gobiernos para que intervinieran en el desarrollo de sistemas de IA, si los principales actores no aceptaban de manera inminente una pausa pública y verificable.
“La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas poderosos y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”, indicaron los expertos.
Entre las más de mil personas que firmaron la misiva -publicada en el sitio web Future of Life Institute, están el empresario sudafricano, nacionalizado canadiense y estadounidense, Elon Reeve Musk, fundador de SpaceX y Tesla, así como dueño de la red social Twitter; además del historiador israelí Yuval Noah Hariri; y, Stephen Gary Wozniak, que junto con Steve Jobs cofundó la empresa tecnológica Apple.
Además de Stuart Russell, profesor de informática de la Universidad de Berkeley California, así como miembros del laboratorio de AI DeepMind de Google; el director de Stability AI, Emad Mostaque. También expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.
El director de esta última -que diseñó el ChatGPT-, Sam Altman, reconoció tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques”, además de que dijo que su empresa “necesita tiempo para adaptarse”, según declaró a la cadena estadounidense ABC News.
El Future of Life Institute es una organización sin ánimo de lucro, que busca mitigar los riesgos asociados con tecnologías poderosas y su mayor contribuyente es la Musk Foundation.