Musk y otros expertos piden que se detengan los avances en la inteligencia artificial
Bakú, 30 de marzo, AZERTAC
El empresario multimillonario Elon Musk y una serie de líderes tecnológicos pidieron el miércoles una pausa en el desarrollo de potentes sistemas de inteligencia artificial (IA) para dar tiempo a asegurarse de que son seguros, informa AZERTAC con referencia al canal de televisión BBC.
La carta abierta, firmada hasta ahora por más de 1.000 personas, entre ellas Musk y Steve Wozniak, cofundador de Apple, responde al reciente lanzamiento por parte de la empresa OpenAI de San Francisco de GPT-4, un sucesor más avanzado de su chatbot ChatGPT, una aplicación de inteligencia artificial muy extendida que contribuyó a desencadenar una carrera entre los gigantes tecnológicos Microsoft y Google por presentar aplicaciones similares.
La empresa afirma que su último modelo es mucho más potente que la versión anterior, que se utilizaba para impulsar ChatGPT, un bot capaz de generar fragmentos de texto a partir de brevísimas instrucciones.
"Los sistemas de IA con inteligencia humana competitiva pueden plantear profundos riesgos para la sociedad y la humanidad", afirma la carta abierta titulada "Pausa a los experimentos gigantes de IA".
"Los sistemas de IA potentes deberían desarrollarse sólo cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables", decía.
Musk fue uno de los primeros inversores en OpenAI y formó parte de su consejo durante años. Su empresa automovilística Tesla desarrolla sistemas de IA para ayudar a impulsar su tecnología de conducción autónoma, entre otras aplicaciones.
La carta, auspiciada por el Future of Life Institute, financiado por Musk, está firmada por destacados críticos y competidores de OpenAI, como el jefe de Stability AI, Emad Mostaque.
Varios gobiernos ya están trabajando para regular las herramientas de IA de alto riesgo. El Reino Unido publicó el miércoles un documento en el que esboza su planteamiento y afirma que "evitará una legislación de mano dura que podría ahogar la innovación". Los legisladores de los 27 países de la Unión Europea han estado negociando la aprobación de una amplia normativa sobre IA.
La carta citaba un blog escrito por el fundador de OpenAI, Sam Altman, quien sugería que "en algún momento, puede ser importante obtener una revisión independiente antes de empezar a entrenar futuros sistemas".
"Estamos de acuerdo. Ese momento es ahora", escriben los autores de la carta abierta.
"Por lo tanto, pedimos a todos los laboratorios de IA que suspendan inmediatamente durante al menos seis meses el entrenamiento de sistemas de IA más potentes que el GPT-4".
Pedían a los gobiernos que intervinieran e impusieran una moratoria si las empresas no accedían.
Los seis meses deberían utilizarse para desarrollar protocolos de seguridad, sistemas de gobernanza de la IA y reorientar la investigación para garantizar que los sistemas de IA sean más precisos, seguros, "fiables y leales".
La carta no detallaba los peligros revelados por la GPT-4.
Pero investigadores como Gary Marcus, de la Universidad de Nueva York, firmante de la carta, sostienen desde hace tiempo que los chatbots son grandes mentirosos y tienen el potencial de ser superdifusores de desinformación.
Sin embargo, el escritor Cory Doctorow ha comparado la industria de la IA con un sistema de "bombeo y descarga", argumentando que tanto el potencial como la amenaza de los sistemas de IA se han exagerado enormemente.
La UNESCO dirigirá un diálogo mundial sobre la ética de la neurotecnología
Gran Bretaña acogerá la primera cumbre mundial sobre seguridad de la inteligencia artificial
Dos proyectos de los equipos de la Universidad Estatal de Bakú obtuvieron éxito en TEKNOFEST-2023
Musk y otros expertos piden que se detengan los avances en la inteligencia artificial
El equipo de la Universidad Estatal de Economía de Azerbaiyán llega a la fase final de TEKNOFEST