Un comunicado firmado por decenas de especialistas, incluido el dueño de la empresa OpenAI, pide a los líderes mundiales que se dediquen a trabajar en mitigar el riesgo de la herramienta y que la traten como se tratan las pandemias y la guerra nuclear.
Los líderes mundiales deberían dedicarse a reducir «el riesgo de extinción» que supone la inteligencia artificial, advirtió en una carta un grupo de expertos del sector tecnológico entre los que se encuentra Sam Altman, uno de los creadores de ChatGPT.
«Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear», aseguró el breve texto publicado en la web safe.ai.
El comunicado fue firmado por decenas de especialistas, incluido el dueño de la empresa OpenAI que creó el robot conversacional ChatGPT, el cual a finales del año pasado generó un gran revuelo a nivel internacional por su capacidad para realizar tareas complejas como crear obras de arte, ensayos académicos o mantener un diálogo con un ser humano sobre cualquier tema.
Entre los firmantes se encuentran Martín Hellman, Profesor Emérito de Ingeniería Eléctrica de la Universidad de Stanford; Lila Ibrahim, directora de operaciones de Google DeepMind, y Marian Rogers Croak, vicepresidenta del Centro de IA Responsable y Tecnología Centrada en el Ser Humano de Google, entre otros académicos y personalidades.
Según el sitio web donde publicaron la carta, expertos, periodistas, legisladores y público «están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA» y aseguraron que la misiva «tiene como objetivo superar los obstáculos y abrir la discusión».
Esta semana, Altman advirtió sobre una posible salida de ChatGPT de Europa si la compañía no pudiera cumplir con la legislación europea sobre inteligencia artificial que se está negociando en los países de esa región.
Hace dos meses otras personalidades, como el multimillonario y dueño de Tesla, Elon Musk, firmaron otra carta pública en la que pedían «una pausa» en el desarrollo de la IA hasta poder garantizar su total seguridad.
En aquella oportunidad, Musk y cientos de expertos del mundo firmaron una petición para suspender por al menos seis meses las investigaciones en tecnologías más potentes que ChatGPT 4 por posibles “grandes riesgos para la humanidad”.
La junta de firmas tiene lugar en el sitio del instituto Future Of Life, donde se exige una “pausa a los experimentos gigantes de IA” hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la «dramática perturbación económica y política (especialmente para la democracia) que causará la IA».
El director de OpenAI, Sam Altman, reconoció en otras oportunidades tener «un poco de miedo» de que su creación se utilice para «desinformación a gran escala o ciberataques». En los últimos días se viralizaron fotos falsas ultrarealistas del supuesto arresto de Donald Trump, que habían sido creadas con esta tecnología.
Pero Altman no es el único que se mostró preocupado. Otros como Musk, dueño de Twitter y fundador de SpaceX y Tesla, o el historiador y pensador israelí Yuval Noah Hariri han expresado sus temores sobre una IA incontrolable que supere a los humanos.
La carta pública expresaba una profunda preocupación por el avance de la IA por fuera de los límites que pueden controlar incluso los propios creadores. «En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable», afirmaba el documento.
A su vez, se pregunta: «¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos».
Para los expertos firmantes, “los sistemas potentes de IA deben desarrollarse sólo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.
Además de Musk, Altman y Harari, hay otras importantes personalidades que firmaron la petición, como el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.