banner

Noticias

Jun 25, 2023

Inteligencia artificial: 'Somos como niños jugando con una bomba'

Las máquinas sensibles son una amenaza mayor para la humanidad que el cambio climático, según el filósofo de Oxford Nick Bostrom

Encontrarás el Instituto del Futuro de la Humanidad en una calle secundaria medieval en el centro de Oxford. Está al lado de la iglesia de St Ebbe, que se encuentra en este sitio desde 1005, y encima de un Pure Gym, que se inauguró en abril. El instituto, una facultad de investigación de la Universidad de Oxford, se estableció hace una década para hacer las preguntas más importantes en nuestro nombre. En particular: cuáles son exactamente los "riesgos existenciales" que amenazan el futuro de nuestra especie; cómo los medimos; y ¿qué podemos hacer para prevenirlos? O dicho de otro modo: en un mundo de múltiples miedos, ¿qué es precisamente lo que más debería aterrorizarnos?

Cuando llego para reunirme con el director del instituto, el profesor Nick Bostrom, están entregando una cama en la oficina del segundo piso. El riesgo existencial es una especie de operación de veinticuatro horas; duerme irregularmente, si es que lo hace.

Bostrom, un filósofo nacido en Suecia de 43 años, ha adquirido últimamente algo así como el estatus de profeta de la fatalidad entre los que más están haciendo actualmente para dar forma a nuestra civilización: los multimillonarios tecnológicos de Silicon Valley. Su reputación se basa principalmente en su libro Superintelligence: Paths, Dangers, Strategies, que fue un éxito de ventas sorpresa del New York Times el año pasado y ahora llega en rústica, con recomendaciones de lectura obligada de Bill Gates y Elon Musk de Tesla. (En el mejor tipo de revisión literaria, Musk también le dio al instituto de Bostrom £ 1 millón para continuar con sus investigaciones).

El libro es un examen animado y especulativo de la singular amenaza que Bostrom cree, después de años de cálculos y argumentos, que es la que tiene más probabilidades de acabar con nosotros. Esta amenaza no es el cambio climático, ni la pandemia, ni el invierno nuclear; es la creación posiblemente inminente de una inteligencia de máquina general mayor que la nuestra.

La portada del libro de Bostrom está dominada por una imagen de un búho con ojos enloquecidos y con pluma y tinta. El búho es el tema de la parábola de apertura del libro. Un grupo de gorriones están construyendo sus nidos. "Todos somos tan pequeños y débiles", tuitea uno débilmente. "¡Imagina lo fácil que sería la vida si tuviéramos un búho que pudiera ayudarnos a construir nuestros nidos!" Hay un acuerdo general de gorjeo entre los gorriones en todas partes; ¡un búho podría defender a los gorriones! ¡Podría cuidar de sus viejos y sus jóvenes! ¡Podría permitirles vivir una vida de ocio y prosperidad! Con estas fantasías en mente, los gorriones a duras penas pueden contener su excitación y emprender el vuelo en busca del salvador de cabeza giratoria que transformará su existencia.

Solo hay una voz de disidencia: "Scronkfinkle, un gorrión tuerto con un temperamento inquieto, no estaba convencido de la sabiduría del esfuerzo. Dijo: 'Esto seguramente será nuestra perdición. ¿No deberíamos pensar un poco en el arte? de la domesticación del búho y la doma del búho primero, antes de que traigamos a esa criatura entre nosotros?'" Sus advertencias, inevitablemente, caen en oídos sordos de gorrión. La doma de búhos sería complicada; ¿Por qué no obtener el búho primero y resolver los detalles más tarde? El libro de Bostrom, que es una estridente llamada de alarma sobre las implicaciones más oscuras de la inteligencia artificial, está dedicado a Scronkfinkle.

Bostrom articula sus propias advertencias de una manera convenientemente irritable. Tiene fama de obsesivo y de adicto al trabajo; es delgado, pálido y semi-nocturno, a menudo se queda en la oficina hasta altas horas de la madrugada. Quizás no sea sorprendente que, para un hombre cuyos días están dominados por pizarras llenas de fórmulas que expresan los méritos relativos de 57 variedades de apocalipsis, parezca dejar lo menos posible al azar. En lugar de las comidas, prefiere un elixir de batido verde que incluya verduras, frutas, leche de avena y suero de leche en polvo. Otros entrevistadores han comentado que evita los apretones de manos para protegerse contra infecciones. Me ofrece una mano, pero tengo la sensación de que posteriormente la está aislando para desinfectarla cuando me haya ido. Hay, tal vez como resultado, una ligera impaciencia en él, que se esfuerza por resistir.

En su libro habla de la "explosión de inteligencia" que ocurrirá cuando máquinas mucho más inteligentes que nosotros comiencen a diseñar sus propias máquinas. "Ante la perspectiva de una explosión de inteligencia, los humanos somos como niños pequeños jugando con una bomba", escribe. "Tenemos poca idea de cuándo ocurrirá la detonación, aunque si acercamos el dispositivo a nuestro oído podemos escuchar un leve tictac". Hablando con Bostrom, tienes la sensación de que para él ese leve tictac nunca desaparece por completo.

Hablamos primero del éxito de su libro, de cómo ha tocado de lleno un nervio. Coincidió con la carta abierta firmada por más de 1,000 científicos eminentes, incluidos Stephen Hawking, el cofundador de Apple Steve Wozniak y Musk, y presentada en la Conferencia Internacional Conjunta sobre Inteligencia Artificial del año pasado, instando a prohibir el uso y el desarrollo de dispositivos completamente autónomos. armas (los "robots asesinos" de la ciencia ficción que se acercan mucho a la realidad). Bostrom, quien es consciente de sus propias capacidades y modesto acerca de su influencia, sugiere que fue un feliz accidente de tiempo.

"El aprendizaje automático y el aprendizaje profundo [los algoritmos informáticos 'neuronales' pioneros que imitan más de cerca la función del cerebro humano] se han movido en los últimos años mucho más rápido de lo que la gente anticipó", dice. "Esa es sin duda una de las razones por las que este se ha convertido en un tema tan importante en este momento. La gente puede ver que las cosas avanzan en el campo técnico y se preocupan por lo que sigue".

Bostrom ve esas implicaciones como potencialmente darwinianas. Si creamos una inteligencia artificial superior a la nuestra y luego le damos libertad para crecer y aprender a través del acceso a Internet, no hay razón para sugerir que no desarrollará estrategias para asegurar su dominio, al igual que en el mundo biológico. A veces usa el ejemplo de los humanos y los gorilas para describir la subsiguiente relación unilateral y, como lo destacaron los eventos del mes pasado en el zoológico de Cincinnati, eso nunca terminará bien. Una inteligencia inferior siempre dependerá de una superior para su supervivencia.

Hay momentos, mientras Bostrom desarrolla varios escenarios en Superinteligencia, cuando parece que ha estado leyendo demasiado de la ciencia ficción que dice que no le gusta. Una proyección involucra un sistema de inteligencia artificial que eventualmente construirá "nanofábricas que produzcan gas nervioso o robots similares a mosquitos que busquen objetivos [que] luego podrían brotar simultáneamente de cada metro cuadrado del globo" para destruir a la humanidad entrometida e irrelevante. Otra visión, quizás más creíble, ve a la superinteligencia "secuestrando procesos políticos, manipulando sutilmente los mercados financieros, sesgando los flujos de información o pirateando sistemas de armas creados por humanos" para provocar la extinción.

¿Se considera a sí mismo como un profeta?

El sonrie. "No tanto. No es que crea saber cómo va a suceder y tenga que decirle al mundo esa información. Es más, me siento bastante ignorante y muy confundido acerca de estas cosas, pero al trabajar durante muchos puede obtener pequeñas ideas parciales aquí y allá. Y si las suma con las ideas que muchas otras personas podrían tener, entonces tal vez se desarrolle una mejor comprensión".

Bostrom llegó a estas preguntas a través del movimiento transhumanista, que tiende a ver la era digital como una de potencial sin precedentes para optimizar nuestras capacidades físicas y mentales y trascender los límites de nuestra mortalidad. Bostrom todavía ve esas posibilidades como el mejor de los casos en el futuro superinteligente, en el que aprovecharemos la tecnología para superar enfermedades, alimentar al mundo, crear una utopía de creatividad plena y quizás eventualmente superar la muerte. Ha sido identificado en el pasado como miembro de Alcor, la iniciativa criogénica que promete congelar restos mortales con la esperanza de que, algún día, las mentes puedan revitalizarse y cargarse en forma digital para vivir a perpetuidad. Es tímido sobre esto cuando le pregunto directamente qué ha planeado.

"Tengo la política de nunca comentar sobre los arreglos de mi funeral", dice.

¿Pero él piensa que hay un valor en la investigación criogénica?

"Parece algo bastante racional que la gente haga si puede permitírselo", dice. "Cuando piensas en cómo podría ser la vida en un futuro muy cercano, tratar de almacenar la información en tu cerebro parece una opción conservadora en lugar de quemar el cerebro y tirarlo. A menos que estés realmente seguro de que la información se recuperará". nunca ser útil..."

Me pregunto en qué momento su optimismo transhumanista dio paso a sus visiones más pesadillescas de superinteligencia. Sugiere que en realidad no ha cambiado de posición, pero que tiene las dos posibilidades, el cielo y el infierno de nuestro futuro digital, en una oposición incómoda.

"Escribí mucho sobre la ética de la mejora humana a mediados de los 90, cuando los académicos la rechazaban en gran medida", dice. "Siempre decían: '¿Por qué diablos querría alguien curar el envejecimiento?' Hablaban sobre la sobrepoblación y el aburrimiento de vivir más tiempo. No se reconoció que esta es la razón por la que hacemos cualquier investigación médica: para prolongar la vida. De manera similar, con la mejora cognitiva: si miras lo que estaba escribiendo entonces, se ve más en el lado optimista, pero todo el tiempo también me preocuparon los riesgos existenciales".

Parece haber una inquietud permanente de que tales mejoras (píldoras que podrían hacerte más inteligente o retrasar el envejecimiento) van en contra del orden natural de las cosas. ¿Tiene un sentido de eso?

"No estoy seguro de que alguna vez equipare lo natural con lo bueno", dice. “El cáncer es natural, la guerra es natural, los parásitos que te comen las entrañas son naturales. Lo que es natural, por lo tanto, nunca es un concepto muy útil para determinar qué debemos hacer. Sí, hay consideraciones éticas, pero hay que juzgarlas en un caso. caso por caso. Debes recordar que soy un transhumanista. Quiero mi píldora de extensión de vida ahora. Y si hubiera una píldora que pudiera mejorar mi cognición en un 10%, estaría dispuesto a pagar mucho por eso".

¿Ha probado los que dicen mejorar la concentración?

"Tengo, pero no mucho. Tomo café, tengo chicles de nicotina, pero eso es todo. Pero la única razón por la que no hago más es que todavía no estoy convencido de que cualquier otra cosa funcione".

No tiene miedo de intentarlo. Cuando trabaja, habitualmente se sienta en la esquina de su oficina rodeado de una docena de lámparas, aparentemente cautivado por la idea de la iluminación.

Bostrom creció como hijo único en la ciudad costera sueca de Helsingborg. Como muchos niños superdotados, detestaba la escuela. Su padre trabajaba para un banco de inversión, su madre para una corporación sueca. No recuerda ninguna discusión sobre filosofía, o arte o libros, alrededor de la mesa. Preguntándome cómo se encontró obsesionado con estas grandes preguntas, le pregunto si era un niño ansioso: ¿siempre tuvo un poderoso sentido de la mortalidad?

"Creo que lo tuve bastante pronto", dice. "No porque estuviera al borde de la muerte ni nada por el estilo. Pero cuando era niño recuerdo haber pensado mucho que mis padres pueden estar sanos ahora, pero no siempre van a ser más fuertes o más grandes que yo".

¿Ese pensamiento lo mantenía despierto por las noches?

"No lo recuerdo como ansiedad, más como una sensación de melancolía".

¿Y ese deseo continuo de vivir para siempre también estaba arraigado allí?

"No necesariamente. No creo que haya ningún deseo particularmente diferente que yo tenga en ese sentido al de cualquier otra persona. No quiero contraer cáncer de colon, ¿quién lo quiere? Si viviera durante 500 años, quién sabe". ¿cómo me sentiría? No está tan obsesionado con la inmortalidad, sino que la muerte prematura parece prima facie mala".

Gran parte de su libro hace preguntas sobre cómo podemos hacer que la superinteligencia, ya sea dentro de 50 o 500 años, sea "agradable", congruente con nuestra humanidad. Bostrom ve esto como un desafío técnico más que político o filosófico. Sin embargo, me parece que gran parte de nuestro propio marco ético, nuestro sentido de la bondad, se basa en una experiencia y comprensión del sufrimiento, de nuestros cuerpos. ¿Cómo podría una inteligencia no celular "comprender" eso?

"Hay muchas cosas que las máquinas no pueden entender actualmente porque no son tan inteligentes", dice, "pero una vez que lo sean, no creo que haya ninguna dificultad especial para comprender el sufrimiento humano y la muerte. " Esa comprensión podría ser una forma en que se les podría enseñar a respetar el valor humano, dice. "Pero depende de cuál sea tu teoría ética. Podría tratarse más de respetar la autonomía de los demás o esforzarse por lograr cosas hermosas juntos". De alguna manera, y no tiene idea de cómo realmente, cree que esas cosas necesitarán estar programadas desde el principio para evitar una catástrofe. No es bueno conseguir primero tu lechuza y luego preguntarte cómo entrenarla. Y con los sistemas artificiales ya superiores a la mejor inteligencia humana en muchos campos discretos, una conversación sobre cómo se podría hacer eso ya está atrasada.

El sentido de urgencia intelectual sobre estas preguntas se deriva en parte de lo que Bostrom llama una "experiencia de epifanía", que ocurrió cuando era adolescente. Se encontró en 1989 en una biblioteca y tomó al azar una antología de la filosofía alemana del siglo XIX, que contenía obras de Nietzsche y Schopenhauer. Intrigado, leyó el libro en un bosque cercano, en un claro que solía visitar para estar solo y escribir poesía. Casi inmediatamente experimentó un sentido dramático de las posibilidades de aprender. ¿Fue como una experiencia de conversión?

"Más bien un despertar", dice. "Sentí como si hubiera caminado sonámbula por mi vida hasta ese punto y ahora era consciente de un mundo más amplio que no había imaginado".

Siguiendo primero las pistas y las notas del libro de filosofía, Bostrom se dedicó a educarse a sí mismo en avance rápido. Leía febrilmente y, en sus momentos libres, pintaba y escribía poesía, y finalmente se graduó en filosofía y lógica matemática en la Universidad de Gotemburgo, antes de completar un doctorado en la London School of Economics y enseñar en Yale.

¿Continuó pintando y escribiendo?

"Me pareció en algún momento que la búsqueda matemática era más importante", dice. "Sentí que el mundo ya contenía muchas pinturas y no estaba convencida de que necesitara algunas más. Lo mismo podría decirse de la poesía. Pero tal vez necesitaba algunas ideas más sobre cómo navegar el futuro".

Una de las áreas en las que la IA está logrando avances es en su capacidad para componer música y crear arte, e incluso para escribir. ¿Se imagina que esa esfera también será rápidamente colonizada por una superinteligencia, o será un último reducto de lo humano?

"No compro la afirmación de que los compositores artificiales actualmente pueden competir con los grandes compositores. Tal vez para ráfagas breves, pero no para toda una sinfonía. Y con el arte, aunque se puede replicar, la actividad en sí misma tiene valor. pintar por pintar".

La autenticidad, lo hecho por el hombre, se vuelve cada vez más importante?

"Sí, y no solo con el arte. Si las máquinas pueden hacer todo mejor que nosotros, seguiríamos haciendo cosas porque disfrutamos haciéndolas. Si la gente juega al golf no es porque necesite que la bola resida en agujeros sucesivos". eficientemente, es porque disfrutan haciéndolo. Cuantas más máquinas puedan hacer todo lo que nosotros podemos hacer, más atención le daremos a estas cosas que valoramos por sí mismas".

Al principio de su viaje intelectual, Bostrom hizo algunas temporadas como comediante filosófico para mejorar sus habilidades de comunicación. Hablando con él y leyendo su trabajo, un borde de conocimiento del absurdo en la gran escala de los problemas nunca está completamente ausente de sus argumentos. Los ejes de los gráficos de aspecto desalentador en sus documentos se calibrarán en una inspección más cercana en términos de "soportable", "aplastante" e "infernal". En su introducción a Superinteligencia, la observación "Muchos de los puntos tratados en este libro probablemente estén equivocados" generalmente conduce a una nota al pie que dice: "No sé cuáles". ¿A veces siente que se está transformando en Douglas Adams?

"A veces el trabajo parece extraño", dice. "Luego, desde otro punto, parece extraño que la mayor parte del mundo ignore por completo las cosas más importantes que sucederán en el siglo XXI. Incluso las personas que hablan sobre el calentamiento global nunca mencionan ninguna amenaza planteada por la IA".

¿Porque diluiría su mensaje?

"Tal vez. En cualquier momento de la historia me parece que solo puede haber una preocupación global oficial. Ahora es el cambio climático, o a veces el terrorismo. Cuando crecí fue el Armagedón nuclear. Luego fue la superpoblación. Algunos son más sensatos que otros, pero en realidad es bastante aleatorio".

La pasión de Bostrom es intentar aplicar algunas matemáticas a esa aleatoriedad. ¿Cree que las preocupaciones sobre la IA reemplazarán al calentamiento global como una amenaza más inminente en el corto plazo?

"Lo dudo", dice. "Llegará gradualmente y sin problemas sin que realmente lo abordemos".

Si vamos a buscar su surgimiento en cualquier lugar, Google, que está dedicando una gran parte de sus recursos sin precedentes a la tecnología de aprendizaje profundo (sobre todo con la compra en 2014 del pionero británico DeepMind) parecería un lugar razonable para comenzar. Aparentemente, Google tiene una junta de ética de IA para enfrentar estas preguntas, pero nadie sabe quién se sienta en ella. ¿Bostrom tiene fe en su mantra "No seas malvado"?

"Ciertamente, existe una cultura entre la gente de tecnología que quiere sentir que está haciendo algo que no es solo para ganar dinero, sino que tiene algún propósito social positivo. Existe este idealismo".

¿Puede ayudar a dar forma a la dirección de ese idealismo?

"No es tanto que la propia influencia sea importante", dice. "Cualquiera que tenga un papel en resaltar estos argumentos será valioso. Si la condición humana realmente cambiara fundamentalmente en nuestro siglo, nos encontramos en un momento clave en la historia". Y si las predicciones más nihilistas de Bostrom son correctas, solo tendremos una oportunidad para acertar con la naturaleza de la nueva inteligencia.

El año pasado, Bostrom se convirtió en padre. (Por lo general, su matrimonio se lleva a cabo en gran parte por Skype: su esposa, una doctora en medicina, vive en Vancouver). Me pregunto, antes de irme, si convertirse en padre ha cambiado su sentido de la realidad de estos temas futuristas.

"Solo en el sentido de que enfatiza esta perspectiva dual, los escenarios positivo y negativo. Este tipo de intelectualización, que nuestro mundo podría transformarse completamente de esta manera, siempre parece mucho más difícil de acreditar a nivel personal. Supongo que admito ambas perspectivas tanto espacio como pueda en mi mente".

Al mismo tiempo que entretiene esos experimentos mentales, sugiero que la mitad del mundo sigue preocupado de dónde vendrá su próxima comida. ¿Es la amenaza de la superinteligencia una ansiedad bastante elitista? ¿No pensamos la mayoría de nosotros en el futuro a más largo plazo porque hay más que suficiente de qué preocuparse en el presente?

"Si llegó al punto en que el mundo gastó cientos de miles de millones de dólares en estas cosas y nada en cosas más regulares, entonces uno podría comenzar a cuestionarlo", dice. "Si miras todas las cosas en las que el mundo está gastando dinero, lo que estamos haciendo es menos que una miseria. Vas a una ciudad al azar y viajas del aeropuerto a tu hotel. A lo largo de la carretera ves todos estos enormes edificios para empresas de las que nunca has oído hablar. Tal vez estén diseñando una nueva campaña publicitaria para una hoja de afeitar. Pasas por delante de cientos de estos edificios. Cualquiera de ellos tiene más recursos que el total que la humanidad está gastando en este campo. Tenemos la mitad un piso de un edificio en Oxford, y hay otros dos o tres grupos haciendo lo que hacemos. Así que creo que está bien".

¿Y cómo, pregunto, podríamos nosotros, como individuos y ciudadanos, pensar y enmarcar estos riesgos para la existencia de nuestra especie? Bostrom se encoge un poco de hombros. "Si estamos pensando en este período de tiempo muy largo, entonces está claro que las cosas muy pequeñas que hacemos ahora pueden marcar una diferencia significativa en ese futuro".

Un artículo reciente de Bostrom, que leí más tarde en casa, contiene una pequeña regla empírica que vale la pena tener en cuenta. Bostrom lo llama "maxipok". Se basa en la idea de que "el objetivo de reducir los riesgos existenciales debe ser una consideración dominante siempre que actuemos por una preocupación impersonal por la humanidad en su conjunto". ¿Qué implica MaxiPok? Tratando de "maximizar la probabilidad de un 'resultado correcto' donde un resultado aceptable es cualquier resultado que evite una catástrofe existencial".

Ciertamente parece que vale la pena intentarlo.

Superintelligence: Paths, Dangers, Strategies es una publicación de Oxford University Press, £ 9.99. Haga clic aquí para comprarlo por £ 7.99

Este artículo fue enmendado el 13 de junio de 2016. Una versión anterior decía que una carta abierta firmada por científicos eminentes era un resultado directo del libro de Bostrom, más que una coincidencia.

COMPARTIR