elperiodico

La inteligencia artificial (IA) avanza a un ritmo frenético. Desde que el acceso a ChatGPT fue abierto al público el pasado noviembre, el sector tecnológico ha acelerado su apuesta por el lanzamiento de herramientas que dotan a las máquinas con una capacidad de respuesta cada vez más potente. Microsoft ha tomado la delantera en una carrera empresarial «fuera de control» que puede reportarle beneficios multimillonarios, pero cuyo impacto social, económico y cultural comporta «profundos riesgos para la humanidad».

Ese temor es el que ha llevado a más de 1.000 personalidades a firmar una carta abierta en la que se pide a los laboratorios de IA «suspender inmediatamente durante al menos 6 meses» el entrenamiento de sistemas más potentes que GPT-4. Ésta es la última generación del modelo de lenguaje de OpenAI, compañía creadora de ChatGPT, publicada el pasado 14 de marzo y que Microsoft ya está integrando en sus servicios, desde su buscador Bing a programas como Word o Excel. «Esta pausa debe ser pública y verificable (…) si no puede realizarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria», explican.

La carta está firmada por 1.125 expertos, tanto del ámbito empresarial como especialmente del académico. De forma significativa, el primer firmante es el informático canadiense Yoshua Bengio, uno de los pioneros en el avance del aprendizaje profundo, la tecnología en la que se basan sistemas como ChatGPT. Entre los firmantes destacan nombres como los de Elon Musk, director general de Tesla, Twitter y SpaceX, Steve Wozniak, cofundador de Apple, el intelectual Yuval Noah Harari o el político Andrew Yang, candidato presidencial demócrata de Estados Unidos en 2020. También les acompañan los cofundadores de plataformas como Skype, Pinterest o Ripple.

IA no confiable

Aunque estos son los nombres más mediáticos, la mayor parte de los firmantes son reputados académicos e investigadores en IA de todo el mundo. «Se trata de una tecnología cuyo objetivo es crear texto que parezca lenguaje humano, pero tiene un problema de fondo muy importante que es que no puede garantizar que lo que dice es cierto, no es confiable», explica Carles Sierra, Director del Instituto de Investigación en Inteligencia Artificial (IIIA) del Consejo Superior de Investigaciones Científicas (CSIC), a EL PERIÓDICO en una llamada telefónica.

Esa poca fiabilidad hace que, según Sierra, las consecuencias sean impredecibles, pero potencialmente tan «peligrosas» como el ‘me gusta’ de las redes sociales. Razón por la que se demanda una regulación que proteja a los ciudadanos ante la estrategia «imprudente» de gigantes tecnológicos como Microsoft.

Entre los prestigiosos expertos nacionales que firman esa misiva le acompañan Ramon López de Mántaras, director del IIA; Francesc Giralt, profesor emérito de la Universitat Rovira i Virgili; o Mateo Valero, director del Barcelona Supercomputing Center – Centro Nacional de Supercomputación.