Nick Bostrom Superinteligencia- Caminos, peligros, estrategias

Ante la publicación en castellano de la trascendental obra de Nick Bostrom, Superinteligencia, se hace necesario recordar las palabras del gran filósofo español José Ortega y Gasset: “Uno de los temas que en los próximos años se va a debatir con mayor brío es el del sentido, ventajas, daños y límites de la técnica» Estas proféticas palabras de principios del siglo XX no han hecho más que cumplirse, siendo el presente libro un verdadero hito en la reflexión sobre la técnica o tecnología. Justo después de las citadas palabras de Meditación de la técnica, Ortega expresaba que “la misión del escritor es prever con holgada anticipación lo que va a ser problema, años más tarde, para sus lectores y proporcionarles a tiempo, es decir, antes de que el debate surja, ideas claras sobre la cuestión» Eso es precisamente lo que Bostrom ha buscado con Superinteligencia: presentar de manera clara y accesible un tema complejo y decisivo como es el problema de la inteligencia artificial de nivel sobrehumano. (…)

Compartir

NICK BOSTROM
Director, Future of Humanity Institute
Profesor, Facultad de Filosofía y Oxford Martin School,
Universidad de Oxford

PREFACIO

Dentro de tu cráneo está la cosa que lee. Esa cosa, el cerebro humano, tiene algunas capacidades de las que carecen los cerebros de otros animales. Es debido a estas capacidades distintivas que nuestra especie ocupa una posición dominante sobre el planeta. Otros animales tienen músculos más fuertes o garras más afiladas, pero nosotros tenemos cerebros más inteligentes. Nuestra modesta ventaja en inteligencia general nos ha llevado a desarrollar lenguaje, tecnología y una compleja organización social. La ventaja ha ido aumentando con el paso del tiempo, ya que cada generación se ha basado en los logros de sus predecesores.

Si algún día llegáramos a construir cerebros artificiales que superaran en inteligencia general a los cerebros humanos, entonces esa nueva superinteligencia podría llegar a ser muy poderosa. Y, de igual manera que el destino de los gorilas depende ahora más de los humanos que de ellos mismos, también el destino de nuestra especie pasaría a depender de las acciones de la superinteligencia artificial.

No obstante, contamos con una ventaja: somos nosotros los que construiremos todo. En principio, podríamos construir un tipo de superinteligencia que protegiera los valores humanos. Sin duda, tendríamos poderosas razones para ello. En la práctica, el problema del control —el problema de cómo controlar qué haría esa superinteligencia— parece bastante complicado. También parece evidente que sólo tendremos una única oportunidad. Si alguna vez llegara a existir una superinteligencia poco amistosa, nos impediría sustituirla o cambiar sus preferencias. Nuestro destino estaría sellado.

En este libro, mi objetivo es entender el reto ofrecido por la perspectiva de la superinteligencia, y cuál sería nuestra mejor respuesta. Se trata, muy probablemente, del reto más importante y sobrecogedor al que la humanidad se haya enfrentado nunca. Y —tanto si tenemos éxito como si fracasamos—, probablemente sea el último reto que tengamos que afrontar. (…)

Compartir