Un exempleado de OpenAI advierte del riesgo de una carrera en el sector para crear una IA que supere a los humanos

Index

Extrabajador de OpenAI alerta sobre los riesgos de la inteligencia artificial

Un ex-empleado de OpenAI, la empresa creadora del popular chatbot ChatGPT, ha firmado una carta junto a otros empleados para denunciar la opacidad sobre los posibles riesgos de la inteligencia artificial (IA). Carroll Wainwright, quien renunció a su puesto en el equipo de alineamiento práctico y superalineamiento de OpenAI, expresa su preocupación por la carrera en el sector para crear una super IA o inteligencia artificial general (IAG) que sea tan o más inteligente que el ser humano.

El riesgo de la inteligencia artificial general

El riesgo de la inteligencia artificial general

La IAG no solo sería capaz de reproducir las acciones humanas, sino que también comprendería la complejidad y el contexto de sus acciones. Aunque esta tecnología aún no existe, algunos expertos predicen que se creará en unos dos años, mientras que otros creen que llegará en una década. Wainwright cree que podría verse en unos cinco años: ¿Seguro que sucederá en cinco años? No, pero creo que es posible. También es posible que lleve mucho más tiempo. Pero si hay algo que potencialmente puede cambiar el mundo, deberíamos tomárnoslo muy, muy en serio.

Los motivos de la renuncia

Wainwright afirma que el motivo por el que renunció y luego firmó la carta no se debe a que encontró algo aterrador, ya que por ahora OpenAI solo está investigando la posibilidad de crear tecnología. El principal detonante de su renuncia fue el cambio de visión de la compañía, que comenzó como un laboratorio de investigación sin fines de lucro con la misión de que esta tecnología realmente beneficie a la humanidad, tras el enorme éxito de ChatGPT en 2022. Creo que las motivaciones que impulsan a OpenAI en sus acciones cotidianas son casi en su totalidad incentivos para obtener ganancias, asegura Wainwright.

Los riesgos de la inteligencia artificial general

Wainwright subraya tres riesgos de la IAG: que las máquinas sustituyan a los trabajadores -sobre todo de los trabajos cualificados-, el impacto social y mental, ya que la gente podría tener un amigo/asistente personal de IA y, por último, el control de la tecnología. El riesgo de alineación a largo plazo se produce si se obtiene un modelo que es más inteligente que los humanos. ¿Cómo se puede estar seguro de que ese modelo realmente está haciendo lo que el humano desea que haga o que la máquina no tenga un objetivo propio? Y si tiene un objetivo propio es preocupante, explica.

La necesidad de regulación

Wainwright piensa que las grandes empresas de la IA respetarán las regulaciones, el problema es que por el momento no se han implantado. Es por ello que los empleados de este sector piden en su carta que se cree un sistema en el que los trabajadores puedan alertar a un organismo independiente de los peligros que ven en sus empresas. La UE ya ha ratificado la ley de IA, que entrará en vigor en 2026, y los reguladores de EEUU abrirán investigaciones antimonopolio contra Microsoft, OpenAI y Nvidia para analizar su influencia en el sector.

La carrera por crear una super IA puede ser beneficiosa para la humanidad, pero es necesario tomar medidas para evitar los posibles riesgos. Es hora de que los reguladores y las empresas de la IA trabajen juntos para garantizar que esta tecnología sea utilizada de manera responsable y ética.

José Manuel Cruz

Soy José Manuel, redactor de la página web El Informacional, un periódico independiente de actualidad nacional en Español. Mi pasión es informar a nuestros lectores de manera precisa y objetiva sobre los acontecimientos más relevantes de nuestro país. Con más de 10 años de experiencia en el periodismo, me esfuerzo por brindar un enfoque imparcial en cada artículo que escribo. Mi compromiso es mantener la calidad y la veracidad de la información que compartimos, para que nuestros lectores estén bien informados en todo momento. ¡Gracias por seguirnos en El Informacional!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir