Título reescrito: La ambición de crear inteligencia artificial superadora del ser humano puede llevar a un desastre: expertos alertan sobre la prioriz

En el ámbito de la investigación en inteligencia artificial, un grupo de expertos ha lanzado una alerta sobre los posibles riesgos de crear una inteligencia artificial que supere la capacidad del ser humano. Según estos expertos, la ambición de desarrollar una inteligencia artificial cada vez más avanzada puede llevar a un desastre si no se prioriza la seguridad en la investigación. En este sentido, la empresa de inteligencia artificial OpenAI se encuentra en el centro de la polémica, ya que su objetivo de crear una inteligencia artificial que supere la capacidad humana ha generado inquietud entre los expertos. ¿Qué implicaciones tendría un sistema que supere la capacidad humana? ¿Cómo podemos garantizar que esta tecnología no se vuelva en contra nuestra?

Index

La creación de inteligencia artificial superadora del ser humano puede ser un desastre: expertos alertan sobre la priorización de la seguridad en la investigación de OpenAI

La empresa detrás de ChatGPT, OpenAI, enfrenta una crisis interna debido a un desacuerdo sobre las prioridades en la investigación de inteligencia artificial. El escándalo gira en torno a las palabras de un empleado clave de la compañía, Jan Leike, quien acaba de airear públicamente su salida de OpenAI porque no está de acuerdo con las prioridades de la empresa.

En los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes, decía Leike en un post de X (Twitter). Leike, quien era responsable del equipo de 'Superalignment' de la empresa, añadió que necesitamos urgentemente descubrir cómo dirigir y controlar sistemas de inteligencia artificial mucho más inteligentes que nosotros.

Leike no es el único que ha decidido dejar la empresa. Ilya Sutskever, cofundador y anterior jefe científico de OpenAI, también ha anunciado su partida. Después de casi una década, tomé la decisión de dejar OpenAI, informaba Sutskever en X. La trayectoria de la empresa ha sido nada menos que milagrosa, y estoy seguro de que OpenAI creará una AGI que sea segura y beneficiosa bajo el liderazgo de Sam Altman, Greg Brockman, Mira Murati y, ahora, bajo el excelente liderazgo de investigación de Jakub Pachocki.

La ambición de crear inteligencia artificial superadora del ser humano puede llevar a un desastre

La ambición de crear inteligencia artificial superadora del ser humano puede llevar a un desastre

Los expertos alertan sobre la priorización de la seguridad en la investigación de OpenAI. Leike aseguraba que construir máquinas más inteligentes que los humanos es una tarea intrínsecamente peligrosa y que OpenAI asume una enorme responsabilidad en nombre de toda la humanidad.

Sam Altman, líder de OpenAI, respondía al post de su colega señalando que se trata de una noticia muy triste para él. Ilya es fácilmente una de las mentes más brillantes de nuestra generación, una luz guía en nuestro campo y un querido amigo. OpenAI no sería lo que es sin él.

Altman confirmaba que Jakub Pachocki iba a ser el nuevo jefe científico de OpenAI, al que describe como también fácilmente una de las mentes más brillantes de nuestra generación y en quien confía para guiar a la compañía en lograr un progreso rápido y seguro hacia su misión de garantizar que la AGI beneficie a todos.

El miedo a que OpenAI se descontrole es un tema de gran preocupación. Leike desvelaba que ha estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo, hasta que finalmente han llegado a un punto de ruptura.

Greg Brockman, presidente de OpenAI, también posteaba sobre el asunto en nombre de Altman y en el suyo propio: Sabemos que no podemos imaginar todos los escenarios futuros posibles. Por lo tanto, necesitamos tener un circuito de retroalimentación muy estrecho, pruebas rigurosas [.] No existe un manual probado sobre cómo recorrer el camino hacia AGI. Creemos que la comprensión empírica puede ayudar a orientar el camino a seguir.

La noticia deja claro que la creación de inteligencia artificial superadora del ser humano puede ser un desastre si no se prioriza la seguridad en la investigación. Es fundamental que empresas como OpenAI tomen en serio su responsabilidad y trabajen para mitigar los riesgos graves que conlleva el desarrollo de la inteligencia artificial.

José Manuel Cruz

Soy José Manuel, redactor de la página web El Informacional, un periódico independiente de actualidad nacional en Español. Mi pasión es informar a nuestros lectores de manera precisa y objetiva sobre los acontecimientos más relevantes de nuestro país. Con más de 10 años de experiencia en el periodismo, me esfuerzo por brindar un enfoque imparcial en cada artículo que escribo. Mi compromiso es mantener la calidad y la veracidad de la información que compartimos, para que nuestros lectores estén bien informados en todo momento. ¡Gracias por seguirnos en El Informacional!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir