¿Podría una computadora ser inteligente?
Resumen comparativo de enfoques y
propuestas
Rodolfo Arias Formoso
Ensayo preparado para el curso de
Informática y Sociedad
ECCI-UCR, Segundo semestre de 2009.
Planteo
del problema.
Una persona de inteligencia y cultura
normales no tendrá dificultad alguna para responder una pregunta como la
siguiente: “En un campeonato de fútbol, un equipo ha perdido todos sus
partidos, y otro no ha ganado ninguno, ¿cómo quedaron entre ellos?”. La persona
contestará al instante: “¡No han jugado todavía!”.
Ahora bien, si la pregunta se plantea
así: “En un campeonato de fútbol un equipo perdió todos sus partidos, y otro no
ganó ninguno, ¿cómo quedaron entre ellos?”, la persona dirá sin titubeos: “¡Eso
no es posible!”.
Luego, si a la misma persona –suponiendo
que su paciencia aún no se haya agotado – se le pide: “explíqueme el algoritmo
que siguió su mente para contestar esas dos preguntas”, es muy probable que
se quede pensando, e incluso que no pueda al cabo dar una respuesta del todo
convincente.
Intentará aclarar que en la primera
pregunta el tiempo verbal es el participio pasivo – si recuerda esos términos
gramaticales, cosa infrecuente –, que denota en este caso un resultado parcial,
propio de una acción en curso, según la usanza del castellano en nuestro país[i].
Y agregará que en la segunda pregunta el tiempo verbal es el pasado simple, lo
cual estaría indicando que el campeonato de fútbol ya terminó.
Pero, y aparte de estas consideraciones
verbales, ¿en qué más se apoyó para deducir sus respuestas? Es plausible que la
persona empiece exclamando “Eh… ¡por lógica!”.
Y que después agregue: “si un equipo perdió todos sus encuentros, eso
significa que cualquiera que jugó contra él deberá tener al menos un triunfo,
pero el otro equipo de la pregunta no ha ganado todavía, entonces por fuerza no
se han enfrentado aún”. ¿Obvio, verdad? Sí, obvio. Y, pese a ello, muy arduo de
plantear formalmente como una secuencia de pasos que un computador pueda
entender. Es decir, como un algoritmo.
He ahí. Esa es justamente la clase de
problemas al que se han enfrentado, ya desde su buen medio siglo, quienes
intentaron y siguen intentando programar una computadora para que sea, o
parezca ser, inteligente de la misma forma en como nosotros lo somos. Tan
asombrosa es la capacidad que tiene nuestro cerebro de integrar situaciones
como la planteada en el ejemplo, que salta la duda de si a fin de cuentas lo
que sucedió en su interior (representado por los estados mentales que
correspondieron con esos sucesos, sea como sea que se hubieran dado) difiere,
categóricamente, de lo que se conoce como un “proceso computacional[ii]”.
De una vez, la persona dedujo en el
primer caso que “el campeonato aún se está jugando” y en el segundo que “el
campeonato ya terminó”, luego concluyó que un encuentro no habría podido ser
posible y escogió instantáneamente las palabras correctas, incluyendo en un
santiamén los adverbios “no” y “todavía”, el participio pasivo “han jugado”, y
así sucesivamente.
A lo anterior debe agregarse la
circunstancia, también de amplísimas connotaciones, de que ese proceso mental
–o cualquier otro que hubiéramos utilizado de ejemplo- habría sucedido en un
contexto sociohistórico, cultural, semiótico (amén de otras posibles categorías)
sin el cual la interlocución que hemos imaginado carecería de sentido. Es decir
que de previo existe, en un caso así, una red de significados que permite a los
dialogantes un grado de certeza suficiente respecto a los conceptos empleados,
tales como “fútbol”, “campeonato”, e incluso con respecto a la gestualidad
involucrada. Por ejemplo, si en la segunda pregunta, al decir “un equipo perdió
todos sus encuentros”, quien la formula mueve sus manos horizontalmente, como
si simulara con ellas un corte o un límite, le estará con ello dando a entender
a la otra persona que el campeonato en efecto terminó.
La acotación del párrafo precedente
permite ver que el problema de la Inteligencia Artificial no sería, entonces,
únicamente el de formular el algoritmo seguido por la persona para resolver
preguntas como esas, sino que, para poder ejecutar dicho algoritmo sería
indispensable modelar el contexto particular donde sucede el diálogo. Salta a
la vista que, si ya la tarea lógica era empinada, la de recopilación,
almacenamiento y manipulación de todos los conceptos involucrados, a fin de
poseer la destreza necesaria para actuar con éxito en el plano semántico (el
del significado de las cosas) lo es aún más, a tal extremo que no hay en
absoluto consenso, entre los pensadores que abordan el tema, sobre cuán ardua
es en realidad, y si en algún momento futuro la tecnología computacional/informática
logrará resolverla.
Relación
con el curso de Informática y Sociedad
Antes de continuar con un breve recorrido
por el estudio del problema ya planteado, y con el variadísimo paisaje de
respuestas y propuestas, objeciones y especulaciones que se ha ido conformando
con los años, cabe preguntarse qué ligamen existe entre esto y los alcances de
un curso en Informática y Sociedad.
Conviene, en este sentido, dar un paso
atrás y retornar brevemente al primer módulo del curso: La Teoría de la
Singularidad, según la plantea Ray Kurzweil en particular y el movimiento
Transhumanista en general. Se afirma ahí que la convergencia entre biología
(con sus avances específicos en ingeniería genética, propulsados por la
bioinformática) y tecnología computacional (con el avance en la capacidad de
las computadoras, que seguirá la “ley de los retornos acelerantes”[iii])
dará como resultado el surgimiento – en algún punto que oscila alrededor de la
mitad del presente siglo – de una nueva especie, el “homo sapiens plus”, así
llamado en el ensayo dedicado a ese módulo[iv].
Si bien la visión de Kurzweil no se
detiene en este punto, y se atreve incluso a vaticinar que esos homo sapiens
plus se integrarán luego en una “suprainteligencia” de alcance universal, ya el
hecho mismo del surgimiento de esta nueva especie (o como sea que al cabo quepa
denominarla) supondría un reto de enormes consecuencias para la estructura
básica de la civilización. Es por ello que uno de los críticos principales de
“La singularidad”, el profesor Bill Hibbard, de la Universidad de Madison,
Wisconsin, observa que sería necesario redefinir el “chasis” fundamental de
nuestra sociedad, a saber el Contrato Social[v].
O sea, habría que reemplazar todos los
supuestos esenciales sobre los que se ha hecho factible (en alguna medida que
evidentemente no es óptima) la convivencia de más de seis mil millones de
personas en un solo planeta, por cierto muy pequeño a escala cósmica. Es decir,
que ideas primarias, por ejemplo que “todos somos iguales ante la ley”, que “la
ley es plena”, es decir, que debe resolver todos los diferendos, que “todos
somos iguales por naturaleza”, y otras de ese mismo rango, deberían revisarse y
reemplazarse por unas que en primer término admitan la existencia de seres
superiores al homo sapiens “tradicional”, y que en segundo término promuevan la
protección de éste último por parte de los nuevos seres superiores.
Esto, como es claro, sería únicamente el
primer elemento (o mejor dicho, la “capa externa”, general) de una profunda
serie de cambios. A efectos de señalar otro más concreto, puntualicemos que la
idea de “trabajo”, y en asocio a ésta la de “ingreso” quedaría en entredicho,
ya que muy posiblemente el sapiens “tradicional” no tendría que trabajar, al
ser en este aspecto radicalmente inferior que las nuevas versiones de
criaturas, ya sea el propio homo sapiens plus, ya sean dispositivos
especializados en la realización de cada tipo de tarea relevante desde el punto
de vista económico.
De lo dicho en los dos párrafos
anteriores se colige que es de la máxima prioridad, para una reflexión acertada
y anticipatoria de posibles desastres, considerar en todos sus extremos el
impacto social que tendría el desarrollo de la Inteligencia Artificial,
partiendo del impacto que ya está teniendo en la actualidad.
Inteligencia
Artificial: las escuelas de pensamiento.
El debate sobre cuán inteligentes podrían
llegar a ser las computadoras ha abierto, como era de esperarse, un amplio
espectro de opiniones, que van desde las muy escépticas (las máquinas nunca
serán inteligentes en el sentido auténtico del término, serán sofisticadas y
rápidas, pero en esencia tan inteligentes como una licuadora, por decir algo)
hasta las muy optimistas (como la de Kurzweil, que ya hemos revisado en detalle
en el ensayo anterior, donde se afirma que las máquinas no sólo serán
inteligentes como nosotros, sino que nos superarán gradualmente, hasta lograr
un grado de desarrollo “computacional” – término que Kurzweil parece equiparar
al de inteligencia como tal – de un orden radicalmente superior al nuestro)
Una clasificación exitosa de los
argumentos y posiciones existentes ha sido propuesta por Roger Penrose, el
célebre científico y divulgador inglés, profesor emérito de la Universidad de Oxford,
en su libro “Sombras de la mente”[vi].
La solidez y profundidad del esquema de
Penrose se debe a que está articulado sobre el concepto de Consciencia. Por ello es conveniente, antes de continuar con su
exposición, dedicar un párrafo a este término. Según el Diccionario de la RAE,
“Consciencia” es el “conocimiento inmediato que el sujeto tiene de sí mismo”,
idea que se complementa con la de “capacidad de los seres humanos de verse y
reconocerse a sí mismos y de juzgar sobre esa visión y reconocimiento”, e
incluso “conocimiento reflexivo de las cosas”. Cabe aclarar que si se suprime
la “s” y se deja la palabra en “conciencia”, las acepciones que admite son,
además de las ya dadas, otras con las que se emplea habitualmente, como
“conocimiento interior del bien y del mal”, o bien “con empeño y rigor”, cuando
se usa la expresión “a conciencia”. A fin de focalizar el análisis donde
realmente interesa, en el resto de estas notas se empleará, visto lo anterior,
la forma “consciencia”, en vez de “conciencia”.
¿Y qué “pitos toca” la idea de
“consciencia” en este asunto, por qué empezar por ahí? Bien, el punto es
esencial y se puede aclarar rápido. Penrose también lo explicita con particular
lucidez: si se quiere que algo sea inteligente, ese algo debe ser capaz de
aprender, y si se quiere que algo sea capaz de aprender, debe ser consciente.
Gráficamente:
Imagen 1
Lo anterior no deja por supuesto de tener
mucha “hondura filosófica”, por decirlo de algún modo. En cualquier caso – y sin
ánimo de extender este preámbulo al esquema de Penrose más de lo necesario –
resulta muy difícil rebatirlo. ¿Cómo podría algo que no es consciente, “aprender
realmente” un nuevo concepto o idea, es decir adquirir conocimiento? No podría.
Si no es consciente, no sabe de sí mismo, y si no sabe de sí mismo, no sabe de
lo que sabe. Y si no tiene forma de saber qué sabe, pues no puede aprender,
porque podría caer (entre otros problemas) en una repetición absurda y eterna
de estar aprendiendo lo que ya sabía. La otra relación de dependencia es aún
más directa. Si algo no es capaz de aprender cosas nuevas, o bien de modificar
(ampliando, renovando, corrigiendo) conocimiento previo, no puede ser
inteligente. Esto, claro está, bajo la hipótesis de que la inteligencia
representa un proceso (cabría decir también “un continuo”), que entre otros
atributos tiene el de dotar al individuo de una permanente capacidad de adaptación
al medio. En otros términos, la hipótesis sería que una inteligencia
“pre-establecida”, tan inmutable como completa (algo así como la omnisciencia
del Dios típico de los monoteísmos), no solo no es posible sino que no tiene
validez como “idea plataforma”, sobre la cual construir un marco de análisis
sobre este tema.
Aclarado el punto de por qué la idea de
consciencia es central en este debate, surgen con claridad los cuatro puntos de
vista (sustento de las cuatro corrientes básicas del pensamiento contemporáneo),
según el esquema propuesto por Penrose:
· A : Todo
pensamiento es computación, en particular los sentimientos de consciencia son
evocados meramente con la ejecución de los cómputos apropiados.
· B : La
consciencia es una característica de la acción física del cerebro, y si bien
cualquier acción física puede ser simulada computacionalmente, la simulación
computacional por sí misma no puede evocar la consciencia.
· C : La
consciencia es evocada por medio de la acción física adecuada en el cerebro,
pero esta acción física no puede ser simulada de forma apropiada con procesos
computacionales.
· D : La
consciencia no puede ser explicada con términos científicos, sean éstos
físicos, computacionales o de alguna otra índole.
En las
siguientes secciones se elaborará una breve visión de cada punto de vista, y se
hará mención de los autores de referencia, cuyos artículos son estudiados en el
curso de Informática y Sociedad.
Es
interesante, antes de abocarse a ello, observar que las cuatro posiciones
concuerdan en un único aspecto: la mente (y dentro de esta la consciencia como
una de sus manifestaciones características y esenciales) emerge del cerebro. El
concepto de “emergencia” es muy importante. Hace referencia a fenómenos que son
cualitativamente distintos de los fenómenos – más simples o elementales – de
los que están constituidos. En un televisor, por ejemplo, la imagen móvil
emerge como resultado de la sucesión rápida de imágenes estáticas, y éstas a su
vez emergen como resultado del barrido, muchas veces por segundo, de un único
rayo de luz. En un potrero, por el contrario, el césped está formado de
hojitas, pero que a su vez son hojas del mismo césped. Es decir, el fenómeno
“potrero” no es emergente de su sustrato “hierba” en la misma forma en que el
fenómeno “televisión” es emergente de su sustrato “rayo de luz”. Así, el
fenómeno “mente” es emergente de su sustrato “cerebro”, y más aún del sustrato
de éste “red neuronal”, o “neurona” propiamente dicha.
Respuestas
A : Inteligencia Artificial fuerte.
El
punto de vista A es el que se conoce
habitualmente como de “Inteligencia Artificial fuerte”, y representa la escuela
de pensamiento según la cual las computadoras no sólo podrían alcanzarnos en
cuanto a inteligencia, sino que pronto nos superarán. La razón para ello es en
el fondo muy simple: “todo” se puede reducir a procesos computacionales, y con
ello la implicación es directa: más capacidad computacional significa más inteligencia.
Un
autor, tan radical como pionero en el campo, es Marvin Minsky, del Instituto Tecnológico
de Massachussets. Hay un conocido artículo suyo, “¿Por qué la gente piensa que
los computadores no pueden?”[vii], reseñado
por el Dr. Claudio Gutiérrez en la antología “Informática y Sociedad”. En él,
Minsky expone puntos de vista típicos de la corriente A.
Resalta,
en primer término, su afán sistemático – y con frecuencia algo confuso – de quitar
obstáculos o limitaciones a lo que podría ser hecho con – o por – una
computadora, mediante una reducción de la correspondiente habilidad en el ser
humano. Aclaramos esta idea: por ejemplo, dado que la creatividad es característica
del ser humano (más en unos que en otros, pero presente en todos al fin y al
cabo), cabe preguntarse si una computadora podría serlo también. Minsky se
apura entonces a decir que en esencia la creatividad no existe, y que lo único
que hay en la persona “creativa” es una mayor capacidad de aprender y de usar
el conocimiento adquirido para la realización de determinada actividad. O bien,
dado que la consciencia (Minsky se refiere al concepto equivalente de
“autoconciencia”) sería, tal y como se razonó en la sección anterior, no solo
una característica distintiva nuestra sino también un requisito para la inteligencia,
Minsky se aboca a desmitificarla, por no decir que a negar su existencia misma.
De
hecho, cabría decir que el extremo de la
argumentación “minskyana” es cuando afirma que nosotros en realidad no tenemos
autoconciencia, sólo una “sensación”, por demás incompleta e ilusoria, de
tenerla. Y dado que no sabemos cómo somos conscientes, qué sucede dentro de
nuestro cerebro para generar en la mente la sensación del “yo”, no cabría exigirle
a una computadora que adquiriera esa misma capacidad, dado que ni nosotros
sabemos cómo se produce. La frase clave, copiada textualmente del artículo, es
así: “Si somos tan imperfectos para explicarnos a nosotros mismos, entonces no
vemos ninguna razón (por lo menos en principio) por qué no podríamos hacer
máquinas mucho mejores de lo que somos nosotros para entenderse a sí mismas”
En lo anterior Minsky paga un precio muy
alto: deja de reconocer que la asombrosa complejidad del fenómeno excede por el
momento las capacidades de comprensión de la ciencia. Pone de lado, incluso, el
extenso debate contemporáneo que, con el concurso de pensadores de muy diversas
disciplinas, suscita el tema.
Hay
mucha “travesura” en Minsky (el término lo emplea Theodore Roszak en su libro
“The cult of information”[viii],
que será utilizado como referencia en el ensayo
dedicado al impacto de la tecnología de información sobre el proceso
educativo), pero también hay muchos conceptos valiosos en su artículo. Uno, que
destaca sobre los demás, es del de Red
de significado, que él mismo ampliará en uno de sus libros más conocidos,
“La sociedad de la mente”. Es a través de un complejo entramado de
significaciones, multidimensional, jerarquizado, fractal, con referencias
circulares, que adquirimos la capacidad de manipular conceptos, en infinidad de
situaciones y contextos. Minsky ilustra su visión con reflexiones interesantes
sobre lo que, por ejemplo, significa la palabra-concepto-idea “tres”. Además,
señala que la significación “emerge” como fenómeno de dicha red de significados
más y más concretos. Una metáfora llamativa es cuando argumenta que el atorarse
en definiciones simplistas bloquea la comprensión real de las cosas, diciendo
que sería como querer saber para qué sirven las casas sabiendo cómo funcionan los ladrillos. Aún
así, se reitera aquí que Minsky expresamente evade la definición de términos
como “significación” y “comprensión”, cuando se siente acorralado por su propia
línea argumental.
En
síntesis, el artículo de Minsky es una referencia obligatoria a la así llamada “teoría computacional de la mente”, que encaja plenamente en el
punto de vista A. Y, si bien muchos de los cuestionamientos a ésta provienen de
las limitaciones teóricas de la computabilidad, ya sea con la imposibilidad de
obtener un algoritmo para cualquier problema formalmente planteado (problema de
la parada, cuya formulación se debe a Turing), ya sea con el teorema de la incompletitud de Göedel, Minsky
hace caso omiso a estas observaciones y se dedica a repartir denuestos contra
quienes no piensan como él, aunque sin referir nombres y apellidos.
Respuestas
B : Inteligencia Artificial débil.
El punto de vista B se caracteriza por una observación tan simple
como profunda: no importa cuán sofisticada sea la capacidad computacional de un
dispositivo (sea éste una computadora, un robot, o cualquier cosa capaz de
exhibir comportamiento externo similar en algún sentido al comportamiento
inteligente nuestro), éste nunca será capaz de poseer consciencia.
La formulación más conocida de esta
observación se debe al filósofo norteamericano John Searle, de la Universidad
de California en Berkeley. Es el así llamado “argumento del cuarto chino”,
expuesto en un artículo de 1980, “Mentes, cerebros y programas”[ix].
La tesis de Searle, que fundamenta en el “cuarto chino” (cuya explicación se
dará a continuación) es muy concreta:
- La consciencia[x], en los seres humanos (y en los animales), es causada por las características del cerebro (Mario Bunge prefiere decir SNC, Sistema Nervioso Central[xi], que sería más preciso, dado que por ejemplo el cerebelo también participa en la actividad mental), y esto es un hecho empírico, a saber, que hay una relación de causalidad directa entre los estados/procesos mentales y los estados/procesos/actividades cerebrales. Dicho en pocas palabras: ciertos procesos cerebrales son suficientes para producir consciencia/intencionalidad.
- La instanciación de un programa de computadora nunca será condición suficiente para la consciencia/intencionalidad. El eje central del artículo de Searle es fundamentar esta petición, y lo hace por medio del experimento del “cuarto chino”.
- Las dos proposiciones anteriores tienen dos consecuencias directas:
- La explicación de cómo hace el cerebro para producir consciencia no puede ser que es por medio de un programa computacional.
- Cualquier mecanismo capaz de producir consciencia debe tener capacidades causales equivalentes a las del cerebro.
- Y, por último: cualquier intento de crear consciencia artificial (IA fuerte) no puede tener éxito sólo con diseñar programas computacionales, para ello debería ser capaz de replicar las capacidades causales del cerebro humano.
Ahora sí, el “experimento mental[xii]”
llamado del “cuarto chino”: suponga que a una persona la encierran en un cuarto
que no tiene ventanas, ni ningún sitio por el cual asomarse. Sólo una hendija
por donde puede pasar una hoja de papel. En el cuarto la persona tiene una mesa
de trabajo, donde hay un libro muy grande con instrucciones. Las instrucciones
le permiten cotejar (relacionar) hileras de caracteres en chino con otras hileras
de caracteres en chino. Son instrucciones en el idioma nativo de la persona,
que ella puede entender. Entonces, por la ranura le pasan una hilera de caracteres
en chino (que ella no entiende) y la coteja con otra, buscándola en el libro
grande. Luego la copia en otra hoja y la entrega al mundo exterior por la
ranura.
En tal situación, y bajo el supuesto de
que no importa cuánto tiempo tarde la persona en cotejar, copiar y entregar la
hoja (por eso es un experimento mental), se podría crear la impresión de que la
persona entiende chino. La hipótesis, en este sentido, es que el libro con
instrucciones sea lo suficientemente grande como para que al cotejar hileras en
chino parezca en todo momento que la persona está entendiendo chino. Así parecería
para alguien que está fuera del cuarto, pero para el que está adentro no: él
seguiría para siempre sin entender chino, ni una jota.
En el fondo lo que Searle está
argumentando es que no bastaría que una máquina pase la prueba de Turing, para poder afirmar que es inteligente en el mismo
modo en que lo somos nosotros. Recuérdese Alan Turing propuso, en su histórico
artículo “Máquinas de calcular e inteligencia”[xiii],
de 1950, que si una máquina podía ganar en el “juego de la imitación”, entonces
podríamos afirmar que “es inteligente” como nosotros. El test de Turing (como
ha llegado a conocerse lo que él llamó “juego de imitación”) consiste en que
una persona dialoga con un computador, y que éste trate de aparentar que es un
ser humano. Turing lo que propone es que haya dos interlocutores (ambos
invisibles para la persona que hace el experimento), y que uno sea humano y el
otro una máquina. Si la persona no logra diferenciar cuál es humano y cuál es
máquina, ésta ha pasado la prueba[xiv].
Un detalle curioso: Turing se atrevió a
vaticinar (jugando a lo Kurzweil) que “dentro de 50 años” (es decir, en 2000,
recuérdese que su artículo es de 1950), habría máquinas con 109 de
capacidad de memoria. No explica si sería memoria principal o secundaria (o
caché o cualquiera de las cosas que aún no había…), y si la unidad referida eran
bits o bytes, pero cabe suponer que fuera lo primero. En tal caso, habría
estado hablando de aproximadamente 125 megas de memoria, para el año 2000. ¡No
andaba tan lejos, esa era más o menos la memoria disponible en una PC de hace
10 años! En lo que sí pifió es que, para él, tal tamaño de memoria sería más
que suficiente para poder programar una
máquina que pasara el célebre test.
La publicación del artículo de Searle
encendió la polémica, y como era de esperarse suscitó una serie de objeciones
de los proponentes de A, es decir, de la IA fuerte. La mayoría son reseñadas por el mismo
Searle en la parte final de su artículo, y en realidad no cuestionan la esencia
de su argumento (como todo buen expositor, él se cuidó de no mencionar las
tesis de real peso en su contra), pero la objeción planteada por Daniel Dennett[xv],
sí representa un reto difícil de apañar, aunque se quede en el terreno de la especulación.
Dennett lo que afirma es que la
consciencia (o intencionalidad o cualquier otro atributo de esta índole,
típicamente mental) sería un fenómeno emergente, es decir, que se presentaría
como el resultado de la agregación de una enormísima serie de capacidades
computacionales (ver el ejemplo del televisor como fenómeno emergente, en la
sección previa, donde se sintetizan las cuatro escuelas de pensamiento), y no
como resultado de un “set-up” tan trivial como el de Searle. Es decir, que el
programa – para cotejar hileras en chino - debería ser supremamente complejo, y
la máquina extraordinariamente rápida, y la memoria – conocimiento previo
adquirido sobre chino y los chinos y la cultura china, etc. – vastísima, en
todo sentido.
Lo único que se puede concluir por ahora
es que “no se sabe”, a menos que uno se atreva a adoptar el punto C , defendido por Roger Penrose, y el cual se presentará en la
próxima sección. Pudiera ser que en efecto la consciencia emerja cuando se
tenga una capacidad computacional producto de un “retorno acelerante” como el
que ansía Kurzweil (ver notas del módulo primero), o pudiera ser que Searle
tenga razón, y que la computadora no pase jamás de ser esencialmente un zombie,
como bien establece Louis Cutrona en su artículo “Zombies in Searle´s Chinese
Room”[xvi], [11].
Para cerrar, estaría la cuestión del “¿y
qué?”, que en inglés se diría “so what?”. Supongamos que una computadora pase
el Test de Turing, y que su capacidad computacional sea tan enorme que no haya
posibilidad práctica alguna de simular su comportamiento, vale decir, de
observar paso a paso el algoritmo (meta-algoritmo) que está ejecutando. La
máquina no sólo pasa la prueba de Turing, sino que, cuando se le pregunta que
si ella es consciente, se ríe, levanta los brazos (podemos suponer que tiene
todos los “periféricos” necesarios), y exclama ¡por supuesto!
Lo haría porque tendría la capacidad
computacional para hacerlo (caso contrario no estaría pasando la prueba de
Turing) y no podríamos saber si es cierto o no lo que está diciendo. Aclaremos:
no sabríamos si es cierto o no desde nuestro particular punto de vista “mente-consciente-humana”.
Ahí cabría exclamar, a nuestro turno: “bueno… ¿y qué?”, para después dejar a la
máquina tranquila, porque no se podría hacer nada más que aceptarle su supuesta,
o real, consciencia.
Respuestas
C : Inteligencia Artificial cuántica.
El punto de vista C, promovido por Penrose (en
primer término en ENM, “Emperor New Mind”, su gran libro de 1989[xvii],
[12], y en segundo término en “Shadows of the mind”, [4], donde amplía y
refuerza la visión de ENM), se puede resumir en pocas líneas: las computadoras
no podrán nunca ser inteligentes porque la mente humana es más que algorítmica.
Luego de estudiar con detenimiento a
Turing y a Göedel, con sus respectivos teoremas y demostraciones de la
incompletitud de los sistemas formales, Penrose desarrolla (con más concisión y
claridad en [4]) la interesante tesis de que el ser humano logra construir
cuerpos de conocimiento (de referencia usa el de la matemática) consistentes,
en expansión y evolución constante, pero que no podrían haber sido el resultado
de la ejecución de un algoritmo (un meta-algoritmo, representado en este caso
por una máquina universal de Turing), sino que “de algo más”. Ese “algo más”,
aventura Penrose, debe radicar en el hecho de que nuestras neuronas están
hechas de materia que en el fondo (es decir, en su primera capa, tomando
prestada la idea de los layers de ISO-OSI) responde u obedece a las leyes de la
mecánica cuántica.
Si así fuera, se cumpliría el siguiente
postulado, copiado directamente de [4]:
“Los
matemáticos humanos no utilizan ningún algoritmo conocible y consistente, a
efectos de establecer la verdad matemática”.
Es una afirmación que se podría extender
a:
“La inteligencia humana depende de la
aplicación de algo que va más allá de cualquier algoritmo consistente y conocible”.
Otro aspecto en el cual los adherentes de
A suelen entrar en conflicto con los de C (e incluso los de B, si bien Searle no aborda el tema) es con respecto a si la
máquina podría llegar a hacer más de lo que se le ha programado/ordenado. Se
conoce como “régimen Lovelace”[xviii]
a la negación de tal posibilidad. Esta denominación surge de que a mediados del
siglo XIX, cuando Charles Babagge trataba de armar su máquina analítica, su
compañera y gran matemática Ada Lovelace (hija de Lord Byron) anotó: “La máquina
analítica no pretende originar nada.
Puede hacer únicamente aquello que
nosotros sepamos ordenarle que haga[xix]”
Pues bien, en tanto que Minsky separa los
paradigmas de programación en dos grupos, los de “haga ahora” (que sería la
programación imperativa) y los de “haga siempre que” (que corresponderían a la
programación declarativa, o por ejemplo a los algorimos genéticos) y concluye,
de manera harto simplista, que los del segundo grupo superan el “régimen”,
Penrose utiliza otra clasificación, más sofisticada. De una parte están las estructuras
algorítmicas de tipo más tradicional, imperativas, que él denomina “top down”,
y de otro los de tipo “generativo” (como los de sistemas expertos o de programación
genética), que él denomina “bottom-up”. Y es enfático al decir que en ambas lo
que se tiene, ni más ni menos, es un algoritmo que puede representarse con una
máquina de Turing, vale decir, un conjunto de órdenes estructurado de alguna
forma, pensado para que una máquina los ejecute. Y no hay nada nuevo bajo el
sol en uno u otro paradigma: la máquina siempre estará ejecutando lo que se le
haya programado y nada más.
En el debate existe un aporte del gran
escritor Isaac Asimov, de suyo original, elegante y ameno. Es un ensayo
incluido en la colección “El secreto del universo”, editada por Salvat en 1993,
llamado “Más pensamientos sobre el
pensamiento”[xx].
Asimov comienza reflexionando sobre si
está demostrado que la inteligencia humana sea superior a la de las demás
especies, y encuentra que el cerebro del delfín es más grande y con más
circunvoluciones en el córtex, y que ese animal emite más sonidos y más rápido
que los de nuestro lenguaje hablado. La conclusión es fuerte y llamativa: lo
que sucede es que hay diversos tipos de inteligencia, y el nuestro no por
fuerza es el más “avanzado”, solo es distinto. Habría entonces que inventar un
término que englobe (una clase abstracta, general) todos los tipos de
inteligencia animal. Propone inventar el verbo “zornar”. Todos los animales
“zornan”, y en particular el hombre “piensa”, que sería nuestra manera de “zornar”.
Ahora bien: ¿van las máquinas a pensar
alguna vez como nosotros, o a zornar como algún animal? Ni lo uno ni lo otro.
Así como los seres del mundo animal tienen diversas formas para desplazarse (el
término genérico sería “locomoción”, y los específicos serían “volar, “reptar”,
“caminar”, “trotar”, etc.), los seres del mundo tecnológico tienen formas
nuevas de hacerlo, en particular “rodar”. No hay animales que rueden, pero los
trenes, carros y bicicletas sí lo hacen.
Entonces, falta ese verbo, el equivalente
al “rodar”, pero referente a la “inteligencia”, en su sentido más general.
Asimov propone “tendar”. Así como los animales zornan y en particular el hombre
“piensa”, así las máquinas “tendan”. Con este ingenioso y lúcido esquema,
Asimov está de hecho (quizá sin proponérselo, porque Penrose aún había
formulado sus tesis) coincidiendo con el matemático inglés en la posición C. En esencia, lo que él está diciendo es que mediante algoritmos,
y estructuras de procesamiento estrictamente computacionales, las máquinas
desarrollarán una capacidad nueva, “tendar”, equivalente por analogía al
“rodar” de los carros o trenes, pero distinta, categóricamente, del pensar
humano, y de cualquier otra forma de zornar. Y Asimov, cabe aclarar, no prevé
límites para el “tendamiento”, con lo cual de alguna forma se matricula dentro
de la IA fuerte, pero eso sí señalando que ese tendamiento nunca será como el
pensamiento, que es precisamente lo que Penrose quiere encontrar con su
hipótesis de que algo de naturaleza cuántica es lo que permite (en la base
microfísica de todo el proceso neuronal) a nuestro cerebro tener los estados
mentales y las funciones que precisamente tiene.
Respuestas
D : Inteligencia Artificial imposible.
Esta última posición es la de menor
relevancia, justamente porque carece de carácter científico, o al menos de
“pretensión” científica. Se debe a que los proponentes de D no sólo niegan la
posibilidad de que mediante algoritmos puedan construirse máquinas inteligentes
en el sentido humano, sino que niegan la posibilidad de que la conciencia, la
voluntad, la creatividad, el olvido, y tantas y tantas manifestaciones más que
son propias de nuestra mente y nuestro cerebro, puedan algún día ser objeto de
un esclarecimiento total, aplicando métodos científicos[xxi].
En otras palabras, todo esto constituye
un ámbito fuera del alcance de la ciencia, y nos deberemos conformar con una
visión llena de misterio y magia sobre el particular. Las razones que sustentan
este tipo de posiciones no son triviales, y no nos estamos refiriendo a
consideraciones de tipo místico-religioso, o a dualismos como el de Descartes,
quien consideraba que existían dos ámbitos disjuntos: el cerebro y el sistema
nervioso por un lado, de carácter material, y la mente-espíritu por el otro, de
carácter inmaterial, creada por gracia de Dios o algo así. Nos estamos
refiriendo a consideraciones de otra índole, especie de extensiones del teorema
de incompletitud, según las cuales la explicitación de la mente humana no es
posible que sea hecha por la misma mente humana, porque implicaría una especie
de recursividad que en rigor es imposible.
Un texto de referencia, importante y
lleno de acotaciones útiles sobre la disquisición mente-cerebro se debe a Mario
Bunge, cuyo libro se llama justamente así: “El problema mente-cerebro” [8]. Si
bien este autor adopta una posición claramente científica en su análisis, y
recusa toda forma de dualismo mente-cerebro (de hecho adopta la misma posición
“emergentista” que parecen compartir todos los autores aquí mencionados, en el
sentido de que lo que hay es una sola cosa (de ahí “monismo”) y de que la mente
“emerge” de su sustrato biológico, e decir el sistema nervioso central,
especialmente el cerebro), el punto es que no se pronuncia claramente sobre si
la ciencia / tecnología logrará alguna vez desentrañar el misterio, a efectos
entre otras cosas de construir un cerebro artificial, con inteligencia
artificial, consciencia artificial, etc.
Los señalamientos que hace Bunge sobre
por qué motivos no es válida una teoría computacional de la mente como la de
Minsky (que equipara el SNC, sistema nervioso central a una computadora) se
presentan en la próxima lista:
- Las funciones que efectúan las máquinas no son funciones biológicas aunque, eso sí, podemos diseñar máquinas que imiten alguna función biológica.
- Mientras que todas las neuronas se activan espontáneamente, ningún componente de ninguna máquina tiene actividad espontánea –excepto si está estropeado. En concreto, la memoria humana es activa (quizá mejor: distorsionadora, a través de las funciones de abstracción/olvido/síntesis, que se cuentan entre las más sofisticadas y asombrosas de nuestra mente) en tanto que las memorias de las computadoras son pasivas (fieles)
- Las máquinas no están sometidas a mutación espontánea y a selección natural; no evolucionan espontáneamente, sino que evolucionan como resultado de la evolución humana (cultural)
- Todas las máquinas han sido diseñadas por algún hombre, mientras que todavía no hay ningún hombre que haya sido diseñado por nada ni nadie, en particular por una máquina. (Cabe señalar que ya estaríamos a las puertas de tal posibilidad, vistos los avances en ingeniería genética, y los cuales serán analizados en el tercer módulo del curso. Al escribir su libro, Bunge no tenía conocimiento de esto, y él no juega al futurismo, ni de lejos, tal y como lo hacen Moravec o Kurzweil).
- Todas las acciones de los animales tienen algún propósito y están orientadas a algún objetivo; sin embargo, cuando las acciones de las máquinas son de este tipo (es decir, persiguen un objetivo) lo hacen por poder, es decir, se comportan como lo han decidido sus diseñadores o sus usuarios.
- Como las máquinas no son seres vivos no pueden poseer propiedades psíquicas; como mucho pueden imitar los resultados de algunas de ellas (del mismo modo que los coches imitan el andar (Nótese aquí la coincidencia (tal vez fruto de que Bunge debe haber leído su ensayo) con la analogía elaborada por Asimov.)
- La dicotomía hardware-software no tiene sentido cuando la aplicamos a los cerebros; otra manera de decir lo mismo es que los cerebros se auto-programan en gran medida.
- Los computadores son industriosos, eficientes y hasta podríamos decir que listos, pero es muy difícil que podamos decir que son imaginativos, creativos u originales; pueden resolver problemas de ciertos tipos, aplicar teorías y valorar sistemas, pero lo que no pueden hacer es inventar alguno de éstos[xxii].
- Mientras los robots y los computadores son propiedad de alguien (de un individuo, organismo o Estado), la gente no es propiedad de nadie (excepto, por supuesto, que sean esclavos); resulta difícil imaginar que alguien pueda diseñar y fabricar un robot que suspirara por la libertad, sintiera compasión de sí mismo e indignación moral, etc.
- Los modelos computacionales del cerebro son modelos de caja negra que olvidan la especificidad biológica de los componentes cerebrales, su desarrollo y su historia evolutiva; por tanto, no nos dicen qué es lo que los hace especiales.
Algunas
conclusiones
Nadie puede negar los maravillosos
avances de la IA, y el impacto profundísimo que sus productos han tenido y
seguirán teniendo sobre la sociedad contemporánea. Bástenos señalar que el
procesamiento de textos – hoy día la utilización más abundante de la TI –
empezó siendo un nicho de investigación en IA. En otros campos más concretos o
especializados, también ha habido éxitos resonantes. Uno que sin duda adquirió
connotaciones de gran noticia mundial, fue cuando a fines de los noventa el
programa Deep Blue derrotó al campeón mundial de ajedrez Garry Kasparov en un
match de seis partidas.
Sin embargo, de ahí a que las máquinas
hayan logrado “verdadera” inteligencia artificial, sigue habiendo el mismo
abismo insondable que había al principio del cuento, allá por 1956 cuando se
acuña el término IA, y un grupo de investigadores (promovido por John McCarthy)
se reúne y funda la disciplina. Tan es así, que hoy día ya nadie se fija en los
resultados del concurso anual que se realiza para ver si una máquina es capaz
de superar el test de Turing. Este concurso, el premio Loebner[xxiii],
tuvo este año un pequeño “boom”: se logró que un programa confundiera a un 25%
del auditorio, durante varios minutos, pero sobre la base de una interlocución
hecha con SMS, es decir, mensajes de texto cortos como los de los celulares. De
ahí a poder simular una conversación real, ágil, matizada, con énfasis tonales
y gestuales, está el mismo abismo de siempre. Y si con SMS sólo se logró
confundir a la cuarta parte de los interlocutores, pues el panorama es severo:
¡no se puede!
Tal vez, lo que pasa es que la disciplina
debió desde un principio haberse llamado “IS”, inteligencia simulada, en vez de
inteligencia artificial. Habría habido una expresión de sinceridad, una
confesión directa, en el término.
Las sorpresas, por supuesto, no faltarán.
Siempre es lo mismo: giros inesperados, laberintos que se abren donde creíamos
que estaba y estaría para siempre un muro sólido, o bien paredes impenetrables
que se erigen donde veíamos un terreno abierto, fértil para el progreso de las
ideas. No deja de tener gran sentido la ley de los retornos acelerantes de
Kurzweil, ni de existir grandes posibilidades con el advenimiento de IC,
inteligencia colectiva (tema del módulo 4 del curso), y nadie puede con
sensatez excluir la posibilidad de cambios violentos de paradigma a lo largo
del presente siglo. Pero con lo que hasta ahora se ha visto y logrado, la
respuesta a la pregunta ¿Puede una computadora ser inteligente? Debería ser ¡todavía
no!, agregando ¡y quizá nunca!
Notas:
[i] Distinta
interpretación se le daría en España, cabe aclarar, donde el uso del pasado
compuesto equivale al del pasado simple según se emplea en Latinoamérica (salvo
en Perú, he notado), y en una amplia gama de circunstancias.
[ii] Es decir, algo
que puede ser ejecutado por una máquina de Turing, según se aclarará más
adelante en estas mismas notas.
[iii] Véase “La
singularidad está cerca”; (The singularity is near) de Raymond Kurzweil, disponible
en PDF en el Web
[iv] Véase el ensayo
“Trascendencia y evolución de la tecnología”, preparado para el primer módulo
de este curso.
[v] Technology of mind and a new social contract, Bill Hibbard. Visible en http://www.iheu.org/node/2601
[vii] Claudio
Gutiérrez, Antología Informática y Sociedad, visible en: http://www.claudiogutierrez.com/bid-fod-uned/MarvinMinsky.html
[ix] John Searle, Minds, brains and programs, PDF visible
en http://mcv.planc.ee/misc/doc/filosoofia/artiklid/John%20Searle%20-%20Minds,%20Brains,%20and%20Programs.pdf
[x] Searle usa el
término “intencionalidad”, que si bien hace referencia a otro rasgo de la
inteligencia, puede asimilarse al de “consciencia”, dado que ésta sería, en
última instancia, el prerrequisito para que hubiera intencionalidad.
[xi] Mario
Bunge, El problema mente-cerebro, Editorial Tecnos, 1986.
[xii] En alemán
“gedankenexperiment”, concepto que hace referencia a algo que no puede suceder
en la realidad, sólo en la mente, pero que sí es atinente como escenario, o
ejemplo, de una idea que se está debatiendo.
[xiii] Publicado en “Mind”, Revista de Psicología y
Filosofía, en 1950. El texto completo en inglés puede verse en http://www.abelard.org/turpap/turpap.php
[xiv] [xiv]
Recientemente mi hija Carmen debió sufrir una dolorosa operación para
corregirle su tabique nasal. Se necesitaba anestesia total, y una vez que le
fue inyectada, la trasladaron en silla de ruedas al quirófano. Para mi sorpresa,
iba con los ojos abiertos, y dialogaba conmigo. “¿Cómo te sentís, hija”. “Bien,
papi”. “Todo va a salir bien, mi amor…” “Sí, todo va a salir bien”. Etc. Le
pregunté al anestesiólogo: “¿por qué puede conversar si usted ya la durmió?”.
“Es que la anestesia es algo más complicado de lo que normalmente se piensa”,
me contestó. “Tiene varias partes, la primera sólo suprime la conciencia. Luego
actúa, minutos más tarde, la que produce el sueño total”. “O sea, ¿mi hija no
era consciente de este diálogo que acabamos de tener?”, pregunté. “No, no se va
a acordar”, fue la respuesta tajante del médico. De golpe se me aclaró por qué
el tono de mi hija era raro, distinto en algún modo misterioso. Su mente se
manifestaba, durante la breve conversación, de modo plano, cuasi-automático. O
sea, mi hija iba para el quirófano en estado “zombi”. Aquí, aclaro el por qué
de esta nota al pie, se demuestra que Turing al cabo no tenía razón. Ella,
Carmen, no tenía conciencia (en el sentido de Searle), ¡aunque sí era capaz de
pasar la prueba de Turing! (Véase más adelante la referencia a un artículo de L.
Cutrona, que va en la misma línea expresada en esta nota.
[xv] Visible en http://www.claudiogutierrez.com/bid-fod-uned/Searle.html,
es decir, en la Antología de Informática y Sociedad de Claudio Gutiérrez,
disponible en línea.
[xvi] [11] Zombies in Searle’s Chinese Room: Putting the
Turing Test to Bed, Louis J. Cutrona, Jr., visible en http://cogprints.org/4636/1/TR-05-002.pdf.
[xviii] La expresión viene de un pequeño libro de un
autor francés, Adrián Berry, “La máquina superinteligente”, que cometí el error
(reiterado en mi experiencia) de prestar hace muchos años sin anotar a quién.
[xix] Las cursivas,
según anota Turing en su ensayo de 1950, las puso la propia Ada Lovelace.
[xx] Isaac
Asimov, El secreto del universo, compilación de ensayos, Editorial Salvat,
1989.
[xxi] Mi queridísimo
amigo Francisco Quesada Chaverri recientemente afirmó, en una entrevista publicada
en You Tube, http://www.youtube.com/watch?v=Jt7FadhWjUI
(donde debía leer un poema favorito suyo, actividad a la que a mí también me
invitaron), que no leía -de preferencia- literatura porque prefería leer de
ciencia y filosofía, donde encontrará conocimiento “real” y no las meras
especulaciones o devaneos de los narradores y poetas. Él, sin embargo, defiende
esta tesis “D”, según la clasificación de Penrose. No deja de llamarme la
atención la infinita ductilidad del pensamiento humano. Alguien que es, de formación,
físico y matemático, y quien prefiere el conocimiento de “la realidad” (se
puede corroborar esto en su entrevista), respondió sin embargo enfático y sin
ningún titubeo cuando le expuse el esquema de Penrose: “¡La conciencia es algo
espiritual, más allá de toda posible comprensión de la ciencia!”.
[xxii] En este punto en
particular, la oposición Minsky-Bunge es rotunda.
[xxiii] [14]Véase la página del premio Loebner en: http://www.loebner.net/Prizef/loebner-prize.html
buena informacion
ResponderEliminar