.
.
.
«El pánico no sirve de nada», repite con calma Mariano Sigman (Buenos Aires, 1972) sobre el tono apocalíptico que tiñe desde hace meses todo lo que leemos y escuchamos sobre la inteligencia artificial. Físico y doctor en neurociencia, Sigman, que nació en Argentina, aunque creció en Barcelona y ahora reside en Madrid, es un referente en la neurociencia de las decisiones, pero también en su intersección con la educación, y es uno de los directores del Human Brain Project. Junto al emprendedor y tecnólogo argentino Santiago Bilinkis acaba de escribir Artificial (Debate), que no pretende ser un oráculo sobre lo que está por venir, sino una reflexión pausada sobre la mejor manera de enfrentarnos a una tecnología llamada a cambiar el mundo. De hecho, Sigman propone «amigarse con ella».
Este libro transpira una visión un poco menos apocalíptica sobre lo que significa la irrupción de la inteligencia artificial. ¿Son demasiado alarmistas los mensajes que hemos escuchado en los últimos meses?
Creo que no se trata de optimismo tanto como de intentar ser comedido y razonable. Es normal que frente a lo desconocido nuestra respuesta sea tan emocional, pero ese tipo de juicios rápidos suelen ser prematuros. No podemos caer en el morbo apocalíptico, que se parece a cuando vas conduciendo por la carretera y miras al carril donde ha habido un accidente. Eso no sirve de nada. No hay que cerrar los ojos a los posibles riesgos, que ciertamente existen, pero no es bueno entrar en pánico. Por otro lado, hay una especie de presunción de que la inteligencia artificial es algo mucho más poderoso de lo que en realidad es. Pero esto ya nos ha pasado antes…
¿Cuándo?
Con las máquinas de coser, por ejemplo. Las primeras fueron brutalmente incendiadas. Todo el mundo pensó que sería el fin del mundo. Hoy nadie se enfada con una máquina de coser. Claro que la inteligencia artificial nos interpela, pero hay que recordar que empezó con una idea romántica sobre cómo funciona la inteligencia, la toma de decisiones o las emociones. Mientras tratábamos de responder esas preguntas, se empezó a esbozar la idea de si seríamos capaces de construir una máquina que hiciera todas esas cosas.
Carissa Véliz, experta en ética de la IA, opina que poner en circulación este tipo de tecnología sin regulación es como comercializar medicamentos sin pasar por un ensayo clínico. ¿Qué le parece el símil?
Muy acertado. Yo suelo decir que si los coches circularan a 400 kilómetros por hora ningún padre dejaría que sus hijos salieran a la calle. El mundo digital está plagado de coches circulando 400 kilómetros por hora y nuestros hijos están caminando por ahí. Una regulación es urgente, es un disparate que no exista.
La IA se desarrolla desde hace más de medio siglo. ¿Por qué surge la alarma social ahora?
Cuando los libros estaban escritos en latín sólo concernían a una pequeña élite. Todo cambia el día que la inteligencia artificial empieza a hablar el lenguaje coloquial y se hace accesible y masivamente popular. Pero la realidad es que ChatGPT, que es lo que la ha puesto de moda, es una de las herramientas más inofensivas. Son mucho más tóxicos los algoritmos de IA que condicionan lo que consumimos, con quién nos relacionamos o cómo niños y adolescentes se autoperciben. Si lo piensas, cada red social está asociada a un pecado capital: Twitter es la ira; Instagram, la vanidad, Youporn es la lujuria… Son cosas en las que la autorregulación funciona muy mal. Ya lo decía Oscar Wilde: «Puedo resistirme a todo menos a la tentación». Y la IA es muy buena encontrando esas debilidades. Por eso hay que regularla.
Viendo lo que está pasando en Open IA (la empresa responsable de ChatGPT lleva semanas inmersa en una crisis interna por graves diferencias de criterio entre sus ejecutivos), ¿cree que seremos capaces de tomar decisiones ajustadas sobre el rumbo de la IA?
No hemos sido buenos advirtiendo este tipo de peligros, por eso deberíamos ser razonablemente escépticos. Hoy eso es muy evidente con el cambio climático, que tiene muchos paralelismos con la IA porque hay mucha gente que tiene grandes incentivos económicos para que nada cambie. En esa eclosión de OpenAI parece que hay algo de eso. Al principio, era una organización sin ánimo de lucro que quería crear una IA responsable y ahora, se encuentra en el epicentro de ese debate.
Hace tiempo que sus impulsores piden ayuda para regular su propia innovación…
Es evidente que hay que regular, pero ¿quién regula y qué se regula? Hay todo tipo de intereses y conflictos cruzados. Un ejercicio hipotético: ¿qué harías si tuvieras el poder de apagar la IA? Yo creo que la apagaría porque aunque pienso que puede estar llena de cosas esplendorosas, podría ocurrir igual que con la energía nuclear…
Que inevitablemente se nos vaya de las manos.
Bohr, Einstein y Schrodinger eran unos soñadores que se dedicaban a hacer teorías ridículas sobre cómo funcionaba la materia en lo más ínfimo. Y, de pronto, la Segunda Guerra Mundial se decide en esa carrera por entender el núcleo y esas teorías están en el epicentro de la geopolítica durante los siguientes 50 años. Con la inteligencia artificial va a pasar algo parecido. Puedes regularlo en España o en Europa, pero ¿podrás hacerlo en Afganistán o Corea? Ahí es cuando empiezas a aceptar la idea de amigarte inevitablemente con algo…
Llevarse razonablemente bien con una realidad que, de todos modos, es inevitable.
Hay una especie de deseo ingenuo, infantil, de que todo esté bien. Luego, uno aprende que en la vida hay de todo: sabores más dulces y más amargos; amores y desamores. A veces uno lo pasa mal y eso no es el fin del mundo. Una emoción dura un tiempo y se apaga. No se puede entrar en pánico. La lucidez se construye mirando, observando, entendiendo dónde está lo más bonito de cada cosa y dónde está lo más nocivo.
¿Y dónde detecta usted los mayores peligros?
La IA es una especie de espejo, una manera de entendernos a nosotros mismos. Existe una idea errónea de que la IA es algo casi alienígena, pero lo hemos creado nosotros y lo consumimos nosotros. Sus sesgos, por ejemplo, los han aprendido de nosotros. Me parece más interesante decir: para cambiar esos sesgos, somos nosotros los que tenemos que cambiar. Además, no necesitamos la inteligencia artificial para hacernos un daño bestial. Hoy mismo hay 15 lugares en el planeta donde la estupidez, la avaricia, la irracionalidad o la maldad humana enfrentan a las personas. Psicológicamente, conviene generar un demonio que agrupe todos los males y es cierto que la IA tiene la capacidad de amplificarlo todo. Pero al final pasa igual que con la energía nuclear: el riesgo más grande es que un loco decida apretar el botón. La realidad es que el enemigo somos nosotros.
En el libro tocan otro tema sensible: la intersección entre la IA y la muerte. ¿Cómo cree que gestionaremos la posibilidad de resucitar virtualmente a quienes ya no están?
Esto también está vinculado con lo más esencial del ser humano. Y no es nuevo. El arte o la escritura son una forma de legado. Tú puedes conectarte con las emociones de Proust o Klimt a partir de la obra que dejaron. Cada tecnología ha renovado ese ejercicio. Todo al principio causa escozor: de las fotos se decía que te robaban el alma. La inteligencia artificial, por supuesto, no va a resucitar a nadie, de lo que se trata es de si le resultara interesante a la persona que se queda, como combustible para alimentar su memoria. Pero este es un asunto muy personal.
¿Cómo lo vive usted?
A mí no me gustaría ver un vídeo deepfake de una persona a la que quiero y ya no está, creo que sentiría demasiado la impostura, pero sí me gustaría escuchar la voz de mi abuelo contándome un cuento. Y como ejercicio experimental me interesaría poder hablar con un programa que simulase ser Napoleón o Picasso para tratar de hacerles preguntas actuales y ver si sus respuestas me sorprenden o son un montón de lugares comunes.
Para terminar, la pregunta del millón: ¿alcanzará la IA la consciencia en algún momento?
Cuando te preguntas si una máquina puede ser consciente es el mismo ejercicio de pensar si lo es un perro, un gato, un delfín, un mosquito o un girasol. O, exagerando un poco, mi hermano o yo mismo. La consciencia es exactamente el lugar al que nadie puede entrar ni conocer, aunque podamos advertirlo. Hay un visión dualista cartesiana que dice que la consciencia tiene que ver con otro tipo de sustrato: el alma, el espíritu, lo humano… Y que ese sustrato no puede replicarse en la materia. Durante mucho tiempo se pensaba así de la vida, como si hubiera una partícula de la vitalidad. Hoy sabemos que no es así y que se puede sintetizar vida a partir de materia inorgánica. Por eso, puede que en algún momento creemos un programa que empiece a pensar sobre sí mismo, a tener sus propias ideas, a reflexionar, a tener un cuerpo y tener miedo de perderlo. Eso es un gran misterio. Lo que sí creo que sucederá es que nos harán creer que son conscientes, como hemos visto en tantas películas de ciencia ficción. Sobre esto existe un ejercicio interesante…
Dígame.
Imagina esta situación: estás en un bar, te pones a hablar con una persona, la conversación es apasionante, tenéis la misma sensibilidad, todo fluye. Es un momento mágico. Cuando te estás despidiendo, te dice: «Soy un robot». De nuevo, la pregunta que se plantea no es sobre él, sino sobre ti. ¿Ha dejado de tener sentido todo lo que acabas de vivir? En el pasado, esto nos ocurría con personas de otras religiones y puede que en el futuro deje de ser importante. El otro día conté esta anécdota en una conferencia y alguien del público dijo: «¡Nadie es perfecto!». Y me pareció muy bonito. La aceptación de lo extraño. Puede ser que en algo que nos parece tan de principios, en realidad nos estemos equivocando.
.
.
.
.
.
.
.