Reportaje lo publica El País , 30-05-2023. La inteligencia artificial (IA) supone un “ riesgo de extinción ” para la humanidad, al igual que catástrofes como una guerra nuclear o una pandemia . Esas son las conclusiones de un grupo de 350 ejecutivos, investigadores e ingenieros especializados en esta tecnología en una carta abierta de 22 palabras publicada el martes por la organización sin fines de lucro Center for AI Security . “Mitigar el riesgo de extinción [para la humanidad] a causa de la IA debe ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear .”, cita la declaración que fue firmada, entre otros, por los ejecutivos de alto rango de tres importantes empresas de IA: Sam Altman (CEO de OpenAI ), Demis Hassabis ( Google DeepMind ) y Dario Amodei ( Anthropic ).
También entre los firmantes se encuentran los investigadores Geoffrey Hinton y Yoshua Bengio , a quienes se suele considerar los padrinos del movimiento moderno de IA . Hinton abandonó hace unas semanas Google , donde ocupaba la vicepresidencia, al creer que esta tecnología podría llevar al fin de la civilización en cuestión de años, tal y como confesó a EL PAÍS .
La declaración llega en un momento de creciente preocupación por una industria de rápido desarrollo que es difícil de controlar. El propio Sam Altman ya se había pronunciado sobre el tema durante su comparecencia en el Senado estadounidense , cuando reconoció la importancia de regular la inteligencia artificial generativa. “Mi mayor temor es que esta tecnología fracase. Y si sale mal, puede salir muy mal ”, dijo hace apenas dos semanas, durante la primera audiencia de AI celebrada en Capitol Hill .
El padre de OpenAI -la empresa que desarrolló ChatGPT , el programa de inteligencia artificial más popular y poderoso en el campo- agregó que entendía que “la gente está ansiosa por cómo [ IA ] puede cambiar la forma en que vivimos” y que, por lo tanto, Por ello, es necesario “trabajar juntos para identificar y gestionar los posibles inconvenientes para que todos podamos disfrutar de las enormes ventajas”. No era la primera vez que uno de los empresarios más implicados en esta tecnología hacía declaraciones de esta magnitud sobre el futuro de la IA .
En marzo, más de mil intelectuales, investigadores y empresarios habían firmado otra carta abierta en la que pedían la suspensión por “al menos seis meses del desarrollo de sistemas de IA más potentes que GPT4 ”, la última versión de ChatGPT . En la carta, los firmantes advierten que la herramienta OpenAI ya es capaz de competir con los humanos en un número cada vez mayor de tareas, y puede utilizarse para destruir puestos de trabajo y difundir desinformación . “Desafortunadamente, este nivel de planificación y gestión no está sucediendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera precipitada para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”, se lee en la carta, que también fue firmada por el magnate Elon Musk, fundador de Tesla y SpaceX . y propietario de Twitter , quien también es fundador de OpenAI . Otra voz de alarma en este campo fue la del británico Geoffrey Hinton , que a principios de mayo dejó su puesto en Google para poder advertir con más libertad sobre los peligros de estas nuevas tecnologías. “Por lo que sabemos hasta ahora sobre cómo funciona el cerebro humano, probablemente nuestro proceso de aprendizaje sea menos eficiente que el de los ordenadores”, confesaba a EL PAÍS hace unas semanas. Hinton aseguró en la misma entrevista que faltan “cinco a 20 años” para que la inteligencia artificial supere a la humana. “Nuestro cerebro es el resultado de la evolución y tiene una serie de objetivos integrados, como no dañar el cuerpo, de ahí la noción de daño; comer mucho, de ahí el hambre; y hacer tantas copias de nosotros mismos como sea posible, de ahí el deseo sexual. Las inteligencias sintéticas, en cambio, no evolucionaron: las construimos nosotros. Por lo tanto, no necesariamente vienen con objetivos innatos . Entonces, la gran pregunta es, ¿podemos asegurarnos de que tengan objetivos que nos beneficien?
No hay comentarios:
Publicar un comentario