actualidad.rt
La inteligencia artificial (IA) podría suponer para la humanidad un «riesgo de extinción» de la magnitud de una guerra nuclear o una pandemia, según sostiene una carta abierta firmada por los 350 ejecutivos más importantes de ese sector tecnológico.
Los líderes en el desarrollo de la IA, entre los cuales se encuentran el CEO de OpenAI, Sam Altman; el ganador del Premio Turing, Geoffrey Hinton; los consejeros delegados de DeepMind y Anthropic, y varios ejecutivos de Microsoft y Google, advierten que reducir el riesgo existencial generado por la inteligencia artificial debería ser una «prioridad mundial».
«Mitigar el riesgo de extinción por causa de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear», reza la carta, publicada por el Centro para la Seguridad de la IA, una organización sin ánimo de lucro.
La declaración de los expertos se produce en un momento en el que la IA se ha convertido en el centro de las conversaciones entre tecnólogos y gobiernos, que enfrentan el desafío de cómo se desarrollará esta tecnología en el futuro y la forma en que debe ser regulada.
A mediados de este mes, Altman declaró ante el Senado estadounidense que la IA podría «salir muy mal» y causar «un daño significativo al mundo» si no se regula adecuadamente. El empresario sugirió que se creara una agencia estadounidense o internacional que conceda licencias a los sistemas de IA más potentes y tenga autoridad para «retirar esa licencia y garantizar el cumplimiento de las normas de seguridad».
De igual forma, el exdirector ejecutivo de Google, Eric Schmidt, afirmó la semana pasada que la IA podría plantear riesgos existenciales y que los gobiernos deben garantizar que esa tecnología no sea usada indebidamente por «personas malvadas».
Por su parte, el magnate Elon Musk advirtió en abril pasado sobre el impacto negativo que esa tecnología podría tener en la humanidad, afirmando que tiene el «potencial» para «destruir la civilización».