Super-IA, el libro que advierte sobre la posible extinción de la humanidad

Super-IA, el libro que advierte sobre la posible extinción de la humanidad

La tesis central de Eliezer Yudkowsky es tan simple como devastadora. Señala que la creación de una inteligencia superior a la humana resulta en la desaparición de la especie. El fundador del MIRI sostiene que la humanidad avanza hacia un precipicio tecnológico sin poseer la capacidad de alinear los objetivos de una superinteligencia (Super-IA) con los intereses biológicos.

 

Según su análisis, una entidad capaz de procesar información a velocidades y niveles inalcanzables para el cerebro humano percibirá a nuestra civilización como un obstáculo o un recurso prescindible.

 

Yudkowsky rechaza la idea de que los sistemas actuales sean una guía para el futuro. Mientras ChatGPT o los motores de búsqueda permanecen bajo un control relativo, la SIA representa un salto cualitativo similar al que separa a los humanos de los chimpancés.

 

En su libro, coescrito con Nate Soares, enfatiza que esta brecha cognitiva otorga a la máquina una ventaja táctica absoluta, permitiéndole replicarse, construir infraestructura propia y ocultar sus intenciones hasta que cualquier intento de desconexión sea inútil.

 

 

Nate Soares y la posibilidad de un freno de emergencia

 

Nate Soares complementa la visión de Yudkowsky al señalar que esta catástrofe es evitable si existe voluntad política para renunciar a la carrera por la superinteligencia.

 

Soares aclara que su demanda excluye a la IA aplicada a la medicina o al transporte; su objetivo es detener exclusivamente los experimentos destinados a crear agentes autónomos con capacidad de razonamiento general.

 

Para los directivos del MIRI, el problema reside en la ignorancia de los desarrolladores.

 

Las empresas compiten por el dominio del mercado mediante algoritmos que actúan como «cajas negras», cuyos procesos internos permanecen ajenos al entendimiento humano.

 

Desarrollar una potencia letal bajo estas condiciones es, según Soares, una conducta absolutamente imprudente que sitúa a la sociedad en un punto de no retorno desconocido.

 

 

IA e inacción global

 

La obra de Yudkowsky y Soares funciona como un grito de alerta ante la pasividad de los gobiernos. Ambos investigadores, que firmaron en 2023 una carta solicitando una pausa en la investigación de modelos avanzados, consideran hoy que aquellas medidas resultaron insuficientes.

 

La velocidad del progreso tecnológico supera la capacidad de respuesta legislativa, dejando el destino de la humanidad en manos de laboratorios privados guiados por el beneficio económico.

 

Expertos como Sam Altman o Geoffrey Hinton han validado parte de estos temores, pero Yudkowsky va más allá al exigir el cierre de los grandes centros de computación destinados a la SIA.

 

El libro plantea que la única forma de asegurar la supervivencia es mediante una gobernanza global estricta que prohíba la creación de mentes artificiales incomprensibles.

 

La humanidad se encuentra ante un tren que acelera hacia ella; la duda que plantea el MIRI es si los líderes mundiales despertarán antes del impacto o si la carrera suicida alcanzará su meta definitiva.

 

 

ComputerHoy

Comparte esta noticia: