martes, 6 de mayo de 2014

Inteligencia artificial fuerte

Autor:
PhD. Guillermo Choque Aspiazu
http://www.eldiario.net/
Publicado en:
Febrero 8 de 2010

En sus inicios la inteligencia artificial se fundamento en las denominadas búsquedas heurísticas. Se creía que el hombre resolvía todos los problemas a través de métodos heurísticos y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos computacionales. Se creía que todos los problemas se podían resolver recorriendo un árbol de objetivos y que la solución del problema consistía en encontrar el camino correcto, desechando todas aquellas vías poco factibles. La dificultad estaba en cómo desechar esas ramas o caminos improductivos, quién podría garantizar que ese camino después no fuese el más adecuado, hasta qué profundidad había que recorrer el árbol para estar seguro de que esa vía era errónea, cómo evitar, qué producto de la ramificación creciente del árbol, un exceso de combinaciones incalculables.


La inteligencia artificial se divide en dos grupos: (1) Inteligencia artificial fuerte. Cuyo objetivo es construir programas que emulen el comportamiento inteligente de los humanos como el pensamiento, el aprendizaje, la visión, la resolución de problemas, la creatividad, etc. Ya que estos modos de comportamiento se pueden explicar algorítmicamente en términos de estados mentales. (2) Inteligencia artificial débil. Cuyo objetivo consiste en la construcción de máquinas capaces de resolver problemas que requieran de inteligencia. Para ello se construyen programas que tengan un comportamiento inteligente sin importar si emula o no a la inteligencia humana.

Dos de los grandes gurus de la inteligencia artificial: Allen Newell y Herbert Simon, escribieron que "ahora hay máquinas que leen, aprenden y pueden crear", con lo que trataban de dar a entender que se había dado una solución al problema mente-cuerpo. Más adelante el investigador Jhon Searle en su texto titulado "Mentes, Cerebros, Ciencia" ataca este pensamiento, y con el experimento de la “habitación china” muestra cómo una máquina puede realizar una acción sin siquiera entender lo que hace y el por qué lo hace. Por lo tanto según Searle la lógica usada por las computadoras es nada más una que no busca el contenido en la acción como la que es utilizada por los seres humanos.

La idea de una inteligencia artificial fuerte ha sido el sueño de casi todos los investigadores de ese campo, pero uno de sus puntos débiles es que aun aceptando que la mente puede ser reproducida en otro medio, ese medio que hace de receptor debe tener un mínimo de equivalencia, no sólo funcional, con el donador. Equivalencia que no parece existir entre la estructura del cerebro y la arquitectura de la computadora, llamada de Von Neumann, que ha sido tildada de ineficiente por muchos, debido a su procesamiento secuencial y a su manipulación de símbolos numéricos. Lo cual obligó a los programadores a elaborar meta sistemas que se soporten sobre otros sistemas más cercanos a la maquina con el fin de resolver los problemas de la arquitectura de la computadora. Otros han propuesto la creación de nuevas arquitecturas que sean capaces de manipular inferencias por segundos en lugar de operaciones, como las computadoras convencionales. Y ya son muchos los investigadores que aceptan que la arquitectura de Von Neumann, en su época considerada equivalente al funcionamiento del cerebro, no permite una representación adecuada de los procesos mentales y no sólo los representantes de la inteligencia artificial, también los creadores de lenguajes de computación se quejan y hablan de nuevas estructuras de programación con diferentes arquitecturas: lógicas, funcionales, recurrentes, orientadas a objetos, difusas, etc.

La tesis central de la inteligencia artificial fuerte es que los procesos realizados por una computadora son idénticos a los que realiza el cerebro, y por lo tanto se puede deducir que, si el cerebro genera conciencia, también las computadoras deben ser conscientes. Para refutar esta posición, Searle desarrolla el siguiente experimento mental conocido como “habitación china”: “Imagine que un individuo es colocado en una habitación cerrada al exterior en China. Por una rendija le son entregados papeles con símbolos chinos que desconoce absolutamente pues el individuo no conoce el idioma chino. Con unas instrucciones en inglés, o cualquiera que fuera su lengua madre, se le indica que debe sacar por la misma rendija una respuesta de acuerdo a un manual que se le ha entregado. En dicho manual sólo aparecen símbolos chinos de entrada y los correspondientes símbolos de salida. Así, el individuo puede localizar los símbolos que le son entregados y puede sacar papeles con símbolos diferentes. Los chinos que estén fuera de la habitación pensarán que el de la habitación conoce el chino pues han recibido respuestas satisfactorias. Searle considera que lo mismo ocurre con una computadora. Ésta manipula diferentes códigos sintácticos que nada tienen que ver con la comprensión semántica de los contenidos procesados. Evidentemente, el concepto de intencionalidad está en el fondo del argumento de la habitación china de Searle en contra de la inteligencia artificial.

La inteligencia artificial acepta la dualidad cuerpo-mente, y también parte de la suposición de un soporte físico, el cerebro, el cual "funcionalmente" es igual a una máquina y el objetivo es reproducir la mente sobre la computadora. Por otra parte se afirma que la inteligencia artificial se fundamenta sobre el materialismo: La inteligencia humana se hace realidad sobre la materia. Si se parte de la base de que los pensamientos se generan en un alma inmaterial y que su relación con el cerebro es incidental, entonces se está negando la posibilidad de lograr alguna forma de inteligencia artificial. Dicho de otra forma el dualismo en filosofía supone que el alma es independiente del cuerpo, cuando muere el cuerpo el alma sigue viva. En el caso de la computadora se puede romper la computadora pero los programas se pueden usar en otra computadora. Lo cual lleva a la necesidad de considerar que la mente es independiente del cerebro y que la misma puede ser traspasada para otro cerebro.

La dificultad radica en que si se acepta el dualismo filosófico se debe también aceptar el idealismo. La pregunta sería: ¿si se acepta el dualismo mente-cuerpo se tendría entonces una mente que existe independiente del cerebro o sea el alma? Pero, entonces, los pensamientos se generarían sobre un alma inmaterial, por lo que, no necesitarían de ningún soporte físico, llámese cerebro o llámese computadora. De ahí que la inteligencia artificial tenga que hacer una adaptación y proponer un “dualismo-materialista”, afirmando categóricamente que la inteligencia humana se hace realidad sobre la materia.

El reduccionismo afirma que se pueden explicar los fenómenos reduciéndolos a un nivel más elemental. Por ejemplo: la conducta humana puede reducirse a estudios neurofisiológicos, el estudio del cerebro puede reducirse a la biología celular, etc. La inteligencia artificial es reduccionista, ya que trata de reducir los procesos complejos de la mente a sencillos procesamientos de la información. La mente es un sistema de procesamiento de la información que cumple con las leyes de la manipulación de símbolos y de estructuras complejas. Para algunos los humanos y las computadoras son dos especies de un mismo género: los sistemas de procesamiento de la información. Aceptar a la mente humana como una forma de procesamiento de la información trae como consecuencia que se produzcan dos fenómenos inversos: (1) La generalización de los sistemas procesadores de información. (2) La simplificación de la mente humana o el reduccionismo. El problema radica en la generalización que se le quiere dar a los sistemas de procesamiento de la información. Hay palabras que para los creadores de teorías, toman un significado trascendental y se convierten en un "símbolo" cargado de significados adicionales, en muchos casos abiertos a nuevas manipulaciones, que se adaptan a la interpretación del contexto de la teoría, como es el caso del término "procesamiento de la información".

Si la mente es parte del cerebro y es este quien la genera y si se acepta que la mente es propiedad exclusiva del cerebro. Entonces, el gran sueño de la inteligencia artificial de lograr reproducir la mente humana en una computadora no sería posible. Ya que es en el cerebro donde se codifican los procesos mentales, lo cual hace que no se pueda separar la mente del cerebro, no solo por el hecho de que la mente necesita de un soporte físico como ya se dijo al analizar el dualismo mente-cuerpo, sino porque los procesos mentales tienen que ser producidos por alguien que tenga existencia material: el cerebro, que es la causa de los pensamientos. Esto lleva a la conclusión, de que si se quiere lograr algún tipo de intelecto artificial se debe tratar de reproducir al cerebro y no a la mente, por ser esta última, tan solo, una manifestación abstracta del complejo funcionamiento del cerebro. Por lo que, actualmente, muchos investigadores de la inteligencia artificial han abandonado el paradigma simbolista, el de la mente, para dedicarse al conexionista, el del cerebro, y a través de los sistemas de redes neuronales, intentan comprender como trabaja el cerebro.

Para conocer más acerca del Doctor Choque y sus publicaciones, haz clic en el siguiente vínculo: