Inteligencia Artificial

Según Yudkowsky, experto en IA´s, estas nuevas tecnologías podrían matarnos a todos en un futuro

Hace un tiempo, Eliezer Yudkowsky publicó un artículo titulado “La ruina de la IA general: una lista de formas en que podemos morir”, al que pronto respondió Paul Christiano con su propio artículo “Dónde concuerdo y discrepo de Eliezer”.

Los peligros de las IA´s

Yudkowsky es conocido por ser un experto en inteligencia artificial que no firmó la carta abierta solicitando una moratoria en el desarrollo de nuevas IAs avanzadas, ya que consideraba que no iba lo suficientemente lejos. En resumen, su postura es que “la IA nos matará a todos”.

Actualmente, Christiano dirige el Alignement Research Center, una institución dedicada al estudio de la alineación, es decir, el intento de alinear los intereses de futuras IAs autónomas con el interés general de la humanidad. Antes de eso, lideró el equipo de alineación de modelos de lenguaje de OpenAI, la organización detrás de la creación de ChatGPT.

Durante su tiempo en esa compañía, Paul Christiano fue el principal responsable del desarrollo de la técnica conocida como “Reinforcement Learning from Human Feedback” (RLHF), que combina el aprendizaje por refuerzo con la retroalimentación humana para entrenar sistemas de inteligencia artificial y enseñarles a tomar decisiones en función de criterios humanos de castigo e incentivo.

Tecnologías nuevas y de las cuales debemos aprender

En aquel momento, el punto de vista de Christiano, como experto en el tema, era ligeramente más optimista que el de Yudkowsky en su artículo de junio.

Si bien reconocía que el artículo de Yudkowsky planteaba buenas reflexiones respaldadas por argumentos claros, también señaló que algunas de las afirmaciones eran demasiado contundentes y no estaban respaldadas por argumentos reales. Es importante destacar que, en aquel entonces, no había surgido el debate sobre ChatGPT que ha inspirado en los últimos meses.

Recientemente, Christiano concedió una entrevista de dos horas en el canal de YouTube Bankless. Christiano, durante esta entrevista, señala que estamos experimentando un rápido avance en tecnologías de IA que ya eran un problema potencial incluso antes de la creación de ChatGPT.

Futuros distópicos no tan lejanos a la realidad

Además, dado que la tecnología es muy nueva, no estamos adecuadamente preparados para manejarla. Todo esto lleva a Christiano a afirmar que existe una probabilidad cercana al 50% de que ocurra un desastre poco después de crear sistemas de IA a nivel humano, y que existe una probabilidad razonable de que todos muramos por este motivo.

Sorprendentemente, Christiano cree que esta es la razón más probable por la que él mismo morirá. Según Christiano, parte del problema radica en que no hay más de 50-200 personas en la industria de la IA trabajando motivadas por el riesgo de que la IA tome el control en el futuro.

Esta es una cifra bastante baja considerando las consecuencias catastróficas que podrían surgir. Además, su antiguo jefe en OpenAI, Sam Altman, parece no ser una de esas personas preocupadas, ya que ha seguido desarrollando sin pausa nuevas IAs cada vez más avanzadas desde su compañía, y ha ignorado la carta de Musk pidiendo una moratoria en el desarrollo de IAs avanzadas.

Aunque Altman ha admitido que no descarta la posibilidad de crear una IA “que dé miedo” y ha construido su propio búnker, su relación personal tensa con Musk podría haber influido en su postura.

Artículos relacionados

Back to top button