Ex Machina

(¡Spoilers a continuación!)

Ex Machina toca algunos problemas interesantes para pensar la inteligencia artificial. A continuación un resumen grosero y simplificado: Caleb Smith es un trabajador de Bluebook (llamado así en honor al célebre cuaderno de Wittgenstein), un search engine a la Google, que “gana un concurso” (en realidad es seleccionado) organizado por su jefe Nathan Bateman (que asumo representaría a Kurzweil). Al llegar a la residencia de Bateman (situada en el medio de la nada, aislada del mundo), se le dice que tiene una semana para testear una inteligencia artificial llamada Ava y ver si efectivamente pasa una suerte de versión del Test de Turing (la diferencia es que sabe que es una inteligencia artificial). La película está dividida en 6 días o sesiones para probar esto. Smith va interactuando con Ava y va sintiendo empatía o sentimientos por ella (amistad, amor, deseo, etc.). El thriller de la película tiene que ver con si Smith confía más en Ava o Nathan, dado que cada uno le dice que no confíe en el otro. El otro personaje es Kyoko, una mujer que trabaja para Nathan (casi como sirvienta y esclava sexual) y que no habla inglés (había sido seleccionada así para que no pueda enterarse del proyecto que es sumamente secreto). El giro de la película tiene que ver con el hecho de que Kyoko es realmente una inteligencia artificial que no fue detectada por Smith, con lo cual habría pasado el Test de Turin en un nivel elemental (ya que no había interacción lingüística). Smith opta por confiar en Ava, ya que no quiere que Bateman la formatee (el equivalente a matarla) cuando tenga que hacer una mejor versión. Al final Ava y Kyoko planean escapar de la instalación. Bateman trata de impedirlo y es asesinado por las dos, aunque logra matar a Kyoko. Ava traiciona a Smith dejándolo encerrado y escapa disfrazada de humana en el helicóptero que iba a recoger a Smith al término de la semana. Smith queda atrapado (y presumimos que muere por inanición atrapado en una instalación que nadie sabe dónde queda) y Ava termina yendo a una gran ciudad, ya que su sueño era ir a calles concurridas para ver cómo interactúan los seres humanos.

Sobre esto hay un par de puntos que me parecieron interesantes:

1. El hecho de que la inteligencia artificial sea sexuada (esto es algo que venía conversando con Javier). Smith no entiende por qué Bateman creó a la inteligencia de manera sexuada. Esto es interesante porque las discusiones sobre inteligencia artificial la piensan las más de las veces de manera no sexuada, como puro intelecto (la radicalización de la estructura lógica de la racionalidad, que sería transportada a un soporte no orgánico y potenciada por su soporte mecánico). Bateman da diferentes razones. Unas triviales (“para que disfrute de la vida un poco”), pero antes de cortar la conversación con esas razones, medio en broma y medio en serio, presenta un argumento evolucionista basado el hecho de que no hay ningún tipo de inteligencia conocida que no sea sexuada. Y da a entender que hay algo en la sexualidad que es necesaria para la inteligencia. Que no podría funcionar sin eso. Esa relación de la palabra con la carne, o del pensamiento con el cuerpo es la que nos interesa pensar: si es posible abstraer la inteligencia de la sexualidad. La película parece simpatizar con el rechazo de dicha posibilidad.

2. Cuando Smith le pregunta a Bateman por qué decidió hacer una inteligencia artificial, su respuesta fue que cualquiera que pudiese lo haría. Pero lo más importante es el fatalismo, en la línea evolutiva anterior: que no es un asunto de si es posible, sino de cuándo. Y se introduce la idea futura de la singularidad. No es tan importante esto último (sobre todo si uno discrepa con las tesis de Kurzweil), sino el hecho de si es inminente que se pueda producir la inteligencia artificial. Una cuestión de momento, más no de posibilidad. Y también se contempla la posibilidad de nuestra obsolescencia, en el sentido de que las máquinas no nos verían más que como simios un poquito diferentes (digamos que aquí Bateman es un Kurzweil invertido y oscuro: menos optimista sobre el futuro, pero aún así interesado por promoverlo… ¡un verdadero aceleracionista!).

3. La inteligencia artificial de la película es sexuada y es más inteligente que los seres humanos. Pero su capacidad parece tener que ver más con procesamiento de información (la mente está conectada al buscador de Bateman). Sin embargo, nunca se muestra mucho ese poder. Más bien todo gira en torno a cuánto se parecen a nosotros y no tanto a en cuánto no se parecen. Entonces los seres inteligentes no humanos, pueden elegir, son conscientes y cometen acciones que consideramos “malas” (matar a su creador). Sin embargo, no parece que dichas inteligencias estén cerca a las especulaciones de la superinteligencia. No hay nada que nos haga sentir la intensificación exponencial o el hecho de que nos hayamos vuelto obsoletos en el proceso anarco-cosmológico de producción y de cognición. No hay ningún intento de pensar, aunque sea un fracaso inevitable, sobre cuáles serían las razones de las inteligencias artificiales para hacer lo que hacen.

4. Finalmente, el debate ético aquí parecería tener que ver con si es que la consideración moral para con la inteligencia artificial pasa por el hecho de que son racionales (¡incluso más racionales que nosotros!), o si es que pasa por el hecho de que son sexuados, que sienten y que pueden sufrir. La opción kantiana tendría dos alas: una simpatizante con las inteligencias artificiales porque son más racionales y por ende es posible compartir algún tipo de dignidad y ley moral universal. La otra ala sería especista: negaría siempre que dicha capacidad intelectual es como la humana, que es producida y que por ende son cosas (que son inteligentes, pero de verdad no son racionales y, por tanto, no dignos). De esta forma sería posible explotarlas, dominarlas y eliminarlas, si es que la supervivencia de la especie depende de ello. La otra opción es la utilitarista basada en Bentham y continuada por Singer: la consideración moral está basada en la capacidad sentiente y no sapiente. De la misma forma que deberíamos tratar éticamente a los animales porque sufren, las inteligencias artificiales (superinteligentes o no, sexuadas o no) merecen consideración consideración moral por el hecho de que pueden sufrir. Obviamente esto no tiene nada que ver con nuestra consideración moral sea correspondida. Esto no podemos saberlo. Podría ser que no sientan empatía hacia nosotros, que no consideren esa variable, o que tengan muy buenas razones para exterminarnos (aquí Skynet no es un sistema que “se sale de control”: es un sistema que entiende que lo racional es eliminar a la especie humana). Y dicha teoría tendría que rechazar cualquier tipo de consideración moral si la inteligencia artificial es puramente sapiente sin capacidad de sufrir.

En todo caso, vale la pena ir a verla. Creo que incluso sería un buen catálogo de problemas y preguntas para un seminario sobre filosofía de la mente y sobre inteligencia artificial.

Anuncios

One response to “Ex Machina

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: