miércoles, 23 de julio de 2008

SOY UN CYBORG


País: Corea. Dirección: Park Chan-wook. Intérpretes: Lim Su-Jeong, Rain, Choi Hie-jin, Lee Yong-nyeo, Oh Dal-Su. Guión: Jeong Seo-Gyeong, Park Chan-wook. Música: Jo Yeong-wook. Fotografía: Jeong Jeong-hun. Distribuye en Cine: Versus. Duración: 105 min. Público apropiado: Jóvenes. Género: Comedia, Romántico. Estreno: 18-07-2008.

Una muchacha ingresada en un psiquiátrico guarda un secreto: ¡Ella es un cyborg! Por eso regaña a las luces fluorescentes y habla con los expendedores automáticos de bebida porque se cree un ser mecánico como ellos. Otro joven interno del hospital, que cree poder robar los dones de los demás, no quitará ojo a la nueva paciente y usará su habilidad especial para conseguir que la joven pruebe bocado, pues cada vez está más y más delgada debido a su dieta a base de baterías. Esta extraña relación dará lugar a un singular amor entre los dos.

Soy un cyborg es una extravagante y surrealista película coreana que a ratos recuerda a Amelie, y a ratos a una comedia disparatada de los años 30. Pero además suscita una curiosa reflexión sobre el terrible drama de la anorexia. Un tema que no abordaremos por haberlo hecho en un artículo anterior (Ver en este blog la reseña sobre Hancock y el culto a la imagen).

Sí, en cambio, nos parece sugerente el título de este filme coreano por su alusión a un subgénero clásico en la ciencia ficción: la inteligencia artificial.


¿Puede pensar un ordenador?

Algunos científicos afirman que en el futuro se podrá construir un robot que a semejanza del hombre, tras un proceso de aprendizaje del lenguaje y de captación del mundo exterior por medio de órganos periféricos, se adentraría posteriormente en el ámbito del pensamiento. Es decir, ciertos científicos relacionados con la cibernética tienden a equiparar inteligencia humana e inteligencia artificial, en las que sólo ven una diferencia cuantitativa.

Pero ¿la inteligencia humana y la artificial son semejantes, o la inteligencia artificial simplemente copia algunos mecanismos operacionales de la humana? A primera vista parece haber semejanzas operacionales entre el cerebro y el ordenador. Tanto el uno como el otro: reciben información del exterior o del interior de ellos mismos, procesan esa información, la almacenan, y responden en relación con los datos e información de su memoria.

En cambio, es obvio que en la actualidad las diferencias entre los ordenadores y el pensamiento humano son grandes, pero ¿se salvarán en el futuro? Partiendo de esta idea algunos autores llegan a afirmar que en ese caso el ordenador sería de suyo inteligente. Pero parece poco probable que una máquina captara el humor, las frases de doble sentido o las metáforas: en definitiva, lo no literal o lo que se mueve en varios planos o niveles semánticos. Y aunque lograra hacerlo, después de todo lo dicho habría que concluir más bien que ese ordenador simula procesos lógicos, es decir, no es consciente de ellos y por tanto no es en realidad inteligente. Y es que la mente no es un elemento físico más dentro de un sistema artificial.

El pensamiento no se reduce al procesamiento de información y a la manipulación de símbolos. Cualquier novela o enciclopedia, o un avión espía contienen información procesada y símbolos (letras, palabras, gráficos, instrumentos) y no por ello les atribuimos inteligencia. Más bien son la plasmación de procesos inteligentes elaborados por el hombre. Una máquina –repetimos– es un artefacto diseñado para simular procesos inteligentes, pero no es en realidad inteligente.

Una habitación china (o coreana)

El ordenador, por tanto, no es consciente de sus procesos. Lo ejemplifica John Searle con el caso de la habitación china:

“Tomemos un idioma que no comprendamos; en mi caso tal idioma puede ser el chino (...). Supongamos ahora que me instalan en una habitación que contiene cestas repletas de símbolos chinos. Supongamos también que me proporcionan un libro de instrucciones en español, con reglas que estipulan cómo han de emparejarse unos símbolos chinos con otros. Las reglas permiten reconocer los símbolos puramente por su forma y no requieren que yo comprenda ninguno de ellos (...).

“Imaginemos que personas situadas fuera de la habitación y que sí comprenden el chino me van entregando pequeños grupos de símbolos, y que, en respuesta, yo manipulo los símbolos de acuerdo con las reglas del libro y les entrego pequeños grupos de símbolos. Ahora, el libro es el ‘programa informático’; las personas que lo escribieron son ‘los programadores’ y yo soy ‘el ordenador’. Los cestos llenos de símbolos constituyen la ‘base de datos’, los pequeños grupos que me son entregados son ‘preguntas’ y los grupos que yo entrego, las ‘respuestas’.

“Supongamos ahora que el libro de instrucciones esté escrito de modo tal que mis ‘respuestas’ a las ‘preguntas’ resulten indistinguibles de las de un chino nativo. Por ejemplo, la gente del exterior podría entregarme ciertos símbolos, desconocidos por mí, que significan: ‘¿Cuál es tu color favorito?’, y que tras consultar las instrucciones del libro yo devuelvo símbolos, desconocidos por mí, que significan: ‘Mi favorito es el azul, pero también me gusta mucho el verde’. (...)

“Lo dicho para el chino vale igual para otras formas de cognición. La mera manipulación de símbolos no basta, por sí misma, para garantizar cognición, percepción, comprensión, pensamiento, y así sucesivamente.” (SEARLE, J. R.: ¿Es la mente un programa informático?, en Investigación y Ciencia, Marzo 1990, pp. 10-11.)

Así funciona un ordenador. Realiza operaciones que desde fuera simulan inteligencia, pero él no es consciente, ni por tanto comprende dichos procesos. No puede hablarse de conciencia sólo por el hecho de que un sistema informático tenga datos acerca de sí mismo. “Una video‑cámara no es consciente de las escenas que está registrando; y tampoco una video‑cámara que esté dirigida hacia un espejo posee autoconsciencia” (PENROSE, R.: La nueva mente del emperador, Mondadori, Madrid, 1991, p. 508 ss.).


Una cámara de vídeo o un ordenador pueden tener una imagen de sí mismos mejor de la que tiene una persona. Un sistema informático –con sensores internos y procedimientos de autodiagnóstico– puede tener una imagen general de sí mismo y de su estado actual mucho mejor del que nos proporciona nuestro sistema nervioso. Puedo desconocer cómo está mi estómago, pero un ordenador puede llegar a realizar un chequeo preciso sobre el estado de sus ‘piezas’. Algo que ni un buen médico puede realizar sin un instrumental preciso. En definitiva, un ordenador puede tener muchos más datos sobre él mismo de los que una persona tiene sobre su cuerpo, pero no por ello tiene conciencia.

Tener conciencia no es lo mismo que disponer de datos sobre uno mismo. La conciencia presupone una unidad subjetiva, una mismidad e identidad o un yo. Por eso se puede tener conciencia con muy poca información sobre uno mismo, o incluso con información errónea.


Mismidad, circuitos y amor

La protagonista de Soy un cyborg debe tomar una postura respecto de sí misma. Advierte que su existencia consiste en elegir, pero elegir es, en el fondo, elegirse. De ahí la angustia que brota ante las decisiones fundamentales: el propio yo está en juego. Se trata de un problema totalmente ajeno a la seguridad y estabilidad de un androide.


Uno de los aciertos de Soy un cyborg (el mismo tema, y de un modo magistral, se plantea en el filme Inteligencia artificial) consiste en decir que el amor es lo que realmente nos humaniza. Un amor irreductible al mero sentimiento o a la sensualidad. Se trata más bien de la autodonación de una persona a otra.

No hay comentarios: