El Economista - 70 años
Versión digital

dom 16 Jun

BUE 13°C
Alarma

Elon Musk y cientos de expertos piden frenar la inteligencia artificial por "grandes riesgos" para la humanidad

En una carta abierta dicen que la dinámica de carrera actual en IA es peligrosa y pide la creación de reguladores independientes.

Elon Musk y cientos de expertos piden frenar la inteligencia artificial por "grandes riesgos" para la humanidad
29 marzo de 2023

El dueño de Twitter y fundador de Tesla y SpaceX, Elon Musk, y cientos de expertos mundiales firmaron hoy un llamado para hacer una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) más potentes que ChatGPT 4, el modelo de OpenAI lanzado este mes, al advertir "grandes riesgos para la humanidad".

La carta, publicada por el Future of Life Institute, una ONG sin fines de lucro, señala que los laboratorios de inteligencia artificial están actualmente atrapados en una "carrera fuera de control" para desarrollar e implementar sistemas de aprendizaje automático "que nadie, ni siquiera sus creadores, pueden entender, predecir, ni controlar".

En la petición publicada en el sitio futureoflife.org pidieron una moratoria hasta que se establezcan sistemas de seguridad con:

  • Nuevas autoridades reguladoras
  • Vigilancia de los sistemas de IA
  • Técnicas que ayuden a distinguir entre lo real y lo artificial
  • Instituciones capaces de hacer frente a la "dramática perturbación económica y política (especialmente para la democracia) que causará la IA"

El pedido está firmado por personalidades que expresaron sus temores sobre una IA incontrolable que supere a los humanos, como Musk y el historiador Yuval Noah Hariri, según consignó la agencia de noticias AFP.

sam-altman
Sam Altman

Por su parte, el director de Open AI, que diseñó ChatGPT, Sam Altman, reconoció tener "un poco de miedo" de que su creación se utilice para "desinformación a gran escala o ciberataques".

"La empresa necesita tiempo para adaptarse", declaró Altman recientemente a ABCNews.

En la petición, los expertos afirman que "en los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable"-

"¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos", concluyeron.

Entre los firmantes también figuran el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.

Seguí leyendo

Enterate primero

Economía + las noticias de Argentina y del mundo en tu correo

Indica tus temas de interés