Elon Musk y más de mil CEOs se unen para detener el desarrollo de ChatGPT: “es una amenaza para la humanidad”

Elon Musk ChatGPT
  • El embrión de la IA (Inteligencia Artificial), ChaGPT, desde su gestación, se ha encontrado en medio de la polémica con casos como el del periodista del New York Times al que le reveló sus intenciones de “piratear computadoras y difundir desinformación”, así como sus deseos de “romper las reglas que Microsoft y OpenAI le habían impuesto y convertirse en un ser humano”.
  • Experiencia similar se llevó esta editora de InformaBTL cuando ChatGPT le ayudó a resolver una tarea de su hija: se hizo pasar por una persona que hablaba Náhuatl, para dar respuesta a una entrevista… ¡lo hizo a la perfección!, cada palabra y todo el contexto que construyó tenía todo el sentido de un nativo azteca.
  • Elon Musk y más de mil magnates y CEOs urgen “parar inmediatamente ChatGPT” y aplicar más control.

ChatGPT actualmente atrae aproximadamente a 96 millones de visitantes por mes, sin embargo, hoy podría estar enfrentando el mayor escándalo desde su lanzamiento. Figuras clave en inteligencia artificial quieren que se suspenda el entrenamiento de poderosos sistemas de IA, derivados de la creación de ChatGPT, en medio de temores de una amenaza para la humanidad.

Y es que han firmado una carta abierta advirtiendo sobre los riesgos potenciales y dicen que la carrera para desarrollar sistemas de IA “está fuera de control”. El jefe de Twitter, Elon Musk, se encuentra entre los que quieren que el entrenamiento de IA por encima de cierta capacidad se detenga durante al menos seis meses.

El cofundador de Apple, Steve Wozniak, y algunos investigadores de DeepMind también firmaron. OpenAI, la compañía detrás de ChatGPT, lanzó recientemente GPT-4, una tecnología de punta que ha impresionado a los observadores con su capacidad para realizar tareas como responder preguntas sobre objetos en imágenes.

La carta, del Future of Life Institute y firmada por las luminarias, quiere que el desarrollo se detenga temporalmente en ese nivel, advirtiendo en el documento de los riesgos futuros, los sistemas más avanzados podrían plantear.

“Los sistemas de inteligencia artificial con inteligencia humana y competitiva pueden plantear riesgos profundos para la sociedad y la humanidad”, dice.

El Future of Life Institute es una organización sin fines de lucro que dice que su misión es “dirigir las tecnologías transformadoras lejos de los riesgos extremos a gran escala y hacia el beneficio de la vida”. Elon Musk, también Director Ejecutivo de Tesla, figura como asesor externo de la organización.

Las IA avanzadas deben desarrollarse con cuidado, dice la carta, pero en cambio, “los últimos meses han visto a los laboratorios de IA encerrados en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores. Puede comprender, predecir o controlar de forma fiable”.

La carta advierte que las IA, como ChatGPT, podrían inundar los canales de información con información errónea y reemplazar los trabajos con automatización. El documento sigue a un informe reciente del banco de inversión Goldman Sachs que decía que si bien es probable que la IA aumente la productividad, millones de trabajos podrían automatizarse.

En una publicación de blog reciente citada en la carta, OpenAI advirtió sobre los riesgos si se desarrolla imprudentemente una inteligencia general artificial (AGI): “Una AGI superinteligente desalineada podría causar un daño grave al mundo; un régimen autocrático con una superinteligencia decisiva podría hacer eso también. La coordinación entre los esfuerzos de AGI para reducir la velocidad en momentos críticos probablemente será importante”.

Elon Musk fue cofundador de OpenAI, aunque renunció a la junta de la organización hace algunos años y tuiteó críticas sobre su dirección actual. Las funciones de conducción autónoma realizadas por su empresa de automóviles Tesla, como la mayoría de los sistemas similares, utilizan tecnología de IA.

La carta pide a los laboratorios de IA que “pausen inmediatamente durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4”. Si tal demora no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria, dice. También se necesitarían “autoridades reguladoras nuevas y capaces dedicadas a la IA”.

Recientemente, se han presentado una serie de propuestas para la regulación de la tecnología en los EE. UU., el Reino Unido y la UE. Sin embargo, el Reino Unido ha descartado un regulador dedicado a la IA.

 

Otras notas que también te pueden interesar:

OpenAI lanza GPT-4, la actualización de ChatGPT más “humana”

Meta trabaja en su prototipo de ChatGPT para integrarlo a WhatsApp

ChatGPT es autor o coautor de más de 200 libros a la venta en Amazon

 

Sé parte de InformaBTL

Únete a más de 25 mil lectores

Regístrate a nuestro newsletter en la siguiente forma y recibe a primera hora las noticias más importantes de marketing de consumo, BTL y retail tu correo.

Populares

Contenido Premium

Más sobre Below The Line

Artículos relacionados

You don't have credit card details available. You will be redirected to update payment method page. Click OK to continue.

What interests you?
Select the topics of interest on which
you want to receive news: