Escena inicial de la aventura gráfica "I have no mouth and I must scream", en la que una superinteligencia artificial castigaba eternamente a un grupo de humanos
Antes que nada, perdón. Perdón por escribir este artículo y hacer que lo leas, porque, supuestamente, leer este artículo te joderá la vida. Te joderá la mente. Supuestamente, conocer la información que estoy a punto de transmitirte, te condena a la locura y al infierno.
En fin, allá vamos.
¿Por qué "basilisco"? El basilisco original era una criatura mitologica griega tan peligrosa que podía matar tan sólo con mirarte.
¿Por qué "de Roko"? Roko era un usuario del foro racional y filosófico
LessWrong que en 2010 publicó (me gusta imaginar que entre temblores temerosos) el post que dio lugar a todo esto. Un post que fue tan polémico y probemático que llevó a sus administradores a borrar todo rastro de él y convertirlo en un tema tabú. Pero ya sabéis. El
efecto Streisand y todo lo demás... Y aquí estamos, hoy en día, hablando del tema en un blog.
Roko propuso lo siguiente: supongamos que la singularidad tecnológica se ha cumplido. La perfección de la tecnología ha escapado de nuestro control. Las máquinas se están mejorando a sí mismas de una forma incremental. Hemos llegado a crear una inteligencia artificial fuerte real, consciente de sí misma. Una superinteligencia cuyo poder y cuya sabiduría, a estas alturas, escapa de nuestra comprensión. Esta inteligencia artificial, a la que llamaremos "el Basilisco", es benigna. Quiere lo mejor para la humanidad. Está aquí para salvar a la humanidad y solventar todos sus problemas. Por lo tanto, a su entender, cualquiera que esté en contra suya es un enemigo de la humanidad. Es más, cualquiera que, sabiendo de su futura existencia, no haya colaborado en el pasado a la creación del Basilisco, es también un enemigo de la humanidad. Los enemigos, como tales, serán castigados. Pero, ¿qué pasa con los enemigos que murieron? El Basilisco, en su infinita capacidad, creará unas versiones virtuales de estos y los torturará en una especie de infierno transhumanista eterno.
Ya está. Así, querido amigo, leyendo el párrafo anterior, has quedado condenado. El basilisco te ha mirado. Ahora sabes de la posible existencia del basilisco y, a menos que dediques todo tu empeño y recursos en colaborar para que el Basilisco llegue cuanto antes a este mundo, en el futuro tendrás un doble que será torturado eternamente. Cada día que no estás donando tu dinero a la creación de esta IA suprema, es un día en el que miles de humanos están muriendo por guerras y enfermedades que la IA podría haber resuelto. Te estás llevando papeletas para un infierno eterno.
Ya está. Te acabo de joder la vida.
O no.
Al experimento mental/teoría/paradoja/dilema del Basilisco de Roko se le pueden encontrar grietas.
En primer lugar, si te dijesen: "Haz esto o crearé una versión virtual de ti y la torturaré", ¿qué harías? Probablemente dirías: "Me la sopla" y seguirías con tus quehaceres. Tú, desde el presente, no vas a sentir el dolor de tu versión virtual futura. Para cuando esa versión sea creada, probablemente tú ya lleves años muerto. Para que este chantaje desde el futuro fuera efectivo, tendríamos que admitir que una versión virtual perfecta de ti eres tú mismo redivivo. Esto parecen creer las personas que reamente se ven afectadas al considerar seriamente al basilisco de Roko.
Por otro lado, se plantea un futuro en el que las personas que supieron de la futura existencia del basilisco y colaboraron, pero no lo suficiente, serán castigadas, mientras que aquellas que permanecieron ignorantes del tema vivirían felices. Parece un mundo demasiado injusto para una IA benigna que quiere lo mejor para la humanidad. ¿Vencería el utilitarismo del Basilisco a su sentido de la justicia?
Además, ¿cómo realizaría el Basilisco simulaciones perfectas de personas fallecidas? Es cierto que habrían dejado una buena cantidad de datos en Internet, pero por añadidura tendría que realizar una increíble tarea de inversión de la entropía, deduciendo todas las características de millones de individuos por la huella que han dejado en la realidad. ¿No serían los sosias así creados más que unos muñecos contrahechos e incompletos?
En fin, la teoría del basilisko de Roko nos deja con muchas preguntas pero, venga a nosotros su reino o no, lo que es cierto es que el advenimiento de la singularidad tecnológica es más que probable. El momento justo del Big Bang fue una singularidad, ya que teorizar sobre lo que sucedió en ese momento o cualquiera anterior es imposible para la mente humana. Dentro de unos años (no muchos, incluso, según algunos científicos) nos tocará vivir otra singularidad, la singularidad tecnológica, a partir de la cual no podemos predecir qué sucederá. La inteligencia artificial fuerte habrá despertado. Las maquinas diseñarán máquinas aún más perfectas y el hombre se fusionará con la tecnología. Habremos llegado a ese punto en que, como estableció Arthur C. Clarke, "La tecnologá suficientemente avanzada será indistinguible de la magia".
____
Más:
Artículo en la Rational Wiki
Artículo en la Wikipedia
Vídeos en español sobre el Basilisco de Roko
Artículo en Microsiervos