Crear conclusiones útiles a partir de información incompleta o incierta no es una tarea imposible, los seres humanos realizan este proceso en casi todos los aspectos cotidianos. Los médicos realizan diagnósticos correctos y recomiendan tratamiento a partir de síntomas ambiguos, los informáticos analizan los problemas del manejo de información a partir de observaciones, y la mayor parte de los seres humanos comprenden el lenguaje hablado, el corporal o el lenguaje escrito a pesar de contar con frases incompletas, y también es posible reconocer a otras personas a través de sus voces o gestos. De este modo para realizar el proceso de toma de decisiones se utiliza la lógica; con la lógica algunas piezas de conocimiento son utilizadas en el razonamiento y pueden ser parte de las explicaciones o conclusiones.
Por su parte, en términos netamente académicos, el ser humano está familiarizado con investigaciones empíricas, tales como exploraciones científicas e investigaciones criminales, en las cuales los científicos deben examinar eventos físicos y objetos para resolver problemas o ganar conocimiento acerca de algún fenómeno. Por ejemplo, en muchos casos criminales, los científicos forenses examinan rastros de sangre para descubrir la identificación única del ácido desoxirribonucléico de la muestra. Este tipo de investigaciones requieren de gran precisión, particularmente porque las muestras son frecuentemente muy pequeñas, y particularmente por pequeñas desviaciones en la precisión de la medición de elementos microscópicos pueden resultar en una mala identificación. De este modo, los científicos que trabajan en estas áreas en particular, tienen que ser consistentes en mantener un alto grado de precisión.
Otro fenómeno que impone límites por encima del evidente deseo de precisión es que se utiliza el lenguaje natural para describir y comunicar información y conocimiento. Se ha tenido la experiencia de malinterpretar un resultado por haber utilizado palabras en una forma diferente al patrón de una determinada conversación. El entendimiento del significado de una palabra trae consigo la cultura y las asociaciones personales, así que aunque se tenga una parte de la esencia del significado y además sea posible comunicarlo con un grado aceptable, la mayoría de las veces no se puede estar de acuerdo en el simple significado de una palabra. En pocas palabras, el lenguaje natural tiene la característica distintiva de incertidumbre. La incertidumbre puede también ser el resultado de varios usuarios del lenguaje natural, los cuales aceptan ligeramente significados diferentes de un término. Por ejemplo una persona acostumbrada a vivir en La Paz puede tener un significado para el término “calor” que es diferente del significado aceptado por un residente de la región amazónica de Pando.
El término incertidumbre significa razonamiento aproximado o inexacto de la información. De manera general, sólo se conoce con certeza una pequeña parte de un determinado dominio del mundo, la información restante puede ser incierta por diversas causas, tales como: imprecisión, incapacidad para tomar medidas adecuadas, falta de conocimiento, vaguedad, etc. Existe un cambio dramático en los paradigmas de la incertidumbre durante los últimos años: hasta la década de los sesenta, la incertidumbre se relacionó con significados negativos. Ningún científico quería tomar decisiones vagas, pues temía que su trabajo no fuera tomado con la debida seriedad, por lo que la incertidumbre fue considerada como algún disturbio que debería ser evitado en modelos, teorías y enunciados. La única teoría que trataba con incertidumbre fue la teoría de probabilidad y estaba restringida a situaciones en las cuales la incertidumbre podría ser atribuida a aspectos relacionados con la aleatoriedad o el azar. A partir de la década de los años 1960 esto cambió, se aceptó el hecho de que la incertidumbre es una parte de la realidad, la cual no se puede cambiar. Por lo tanto fue necesario incluirla en los modelos de desarrollo. Esto ha conducido a un incremento en el número de teorías de incertidumbre durante las últimas décadas y a numerosos intentos por modificar los métodos formales existentes de modo que se acerquen más a la realidad y al comportamiento humano.
Sin embargo, al enfrentarse a problemas tales como los de diagnóstico, era inevitable tener que tratar la incertidumbre, y en aquellos años la única técnica disponible, aún con todas sus limitaciones, era el método probabilista clásico, a veces llamado Bayes ingenuo, con el que se construyeron los primeros sistemas de diagnostico, los cuales obtuvieron un éxito razonable en problemas que hoy parecen pequeños en tamaño, pero que en aquella época eran imposibles de abordar de ninguna otra forma. No obstante, el método probabilista clásico presentaba dos inconvenientes principales: el primero de ellos era la dificultad de obtener las probabilidades condicionales necesarias para construir el modelo. La aplicación del teorema de Bayes “en bruto” requería un número exponencial de parámetros, por lo que se hacía necesario introducir hipótesis simplificadoras, que eran básicamente dos: la exclusividad de los diagnósticos y la independencia condicional de los hallazgos. Aún así, el número de parámetros seguía siendo relativamente elevado, sobre todo teniendo en cuenta que raramente había bases de datos a partir de las cuales se pudieran obtener las probabilidades objetivas, por lo que en la mayor parte de los casos se hacía necesario recurrir a estimaciones subjetivas, poco fiables. Además las hipótesis eran poco verosímiles, sobre todo la de independencia condicional, sobre la que se escribieron páginas y páginas en los año 1970. Por estos motivos, la mayor parte de los investigadores estaban de acuerdo en que la probabilidad no era un método adecuado para la inteligencia artificial.
En paralelo con esta evolución histórica de crisis y resurgimiento de la probabilidad, se desarrolló la teoría de los conjuntos difusos, frecuentemente llamada lógica difusa. La motivación inicial no fue el estudio de la incertidumbre, sino el estudio de la vaguedad, que es algo diferente. Por ejemplo, si se sabe que Andrés mide 1.78 m., no se puede decir rotundamente que es alto, pero tampoco se puede decir que no lo es: se trata de una cuestión de grado; en este caso hay vaguedad intrínseca, pero no hay incertidumbre, con lo que se demuestra que son dos conceptos en principio independientes, aunque existe una cierta relación en el sentido de que si se recibe una información imprecisa, por ejemplo, si se dice que Juan es alto, pero no se dice su estatura exacta, se tiene un cierto grado de incertidumbre. En realidad, la necesidad de tratar la vaguedad surge de una antigua paradoja, que se podría expresar de la siguiente manera: una persona que sólo tiene 10 centavos de boliviano es sumamente pobre en términos cuantitativos, ahora bien, si a esa persona que es sumamente pobre se le da otros 10 centavos de boliviano, sigue siendo sumamente pobre; aplicando esta regla repetidamente se llega a la conclusión de que una persona que tiene 1 millón de bolivianos es sumamente pobre. La solución a esta paradoja es que el concepto de “pobre” o “sumamente pobre” no tiene un límite completamente definido, sino que a medida que se le da 10 centavos tras otro, hasta llegar al millón de bolivianos, en el supuesto de que se tuviera esa cantidad de dinero, el grado de pobreza va disminuyendo paulatinamente: no hay un único centavo que haga pasar a la persona de ser pobre a ser rico.
Por eso, la brillante idea de Lofti Zadeh, considerado como el “padre” de la lógica difusa, no solo por haber tenido la idea original, sino también por la gran cantidad de líneas que ha abierto en el campo desde entonces, consiste en permitir que el grado de pertenencia a algunos conjuntos sea un número entre 0 y 1, de modo que, por ejemplo, para quien no tiene más que 2 bolivianos, su grado de pertenencia al conjunto de personas pobres es casi 1, mientras que para quien tiene 100 millones de bolivianos es casi 0; en cambio, para una persona que tiene 500.000 bolivianos ahorrados el grado de pertenencia podría ser 0.4 o 0.5. Lamentablemente, el punto más débil de la lógica difusa es la carencia de una definición operativa que permita determinar objetivamente el grado de pertenencia, con lo que toda la teoría queda un tanto coja desde su nacimiento; esto no ha impedido el extraordinario desarrollo de la lógica difusa, con miles de artículos, libros, revistas y congresos dedicados al tema.
Para muchos casos prácticos, las soluciones de los problemas se conducen en presencia de incertidumbre en los datos o el conocimiento Para este tipo de problemas es posible utilizar técnicas numéricas, o también, la incertidumbre puede ser manejada con una aproximación lógica en forma de rastro. El razonamiento en la presencia de incertidumbre sucede en ejemplos típicos de diagnostico y análisis de datos. Los sistemas expertos, cuya función consiste en el diagnóstico en sus juicios de razonamiento emplean reglas de condición-conclusión que van acompañadas de una estimación de certidumbre, en donde se tiene un procedimiento numérico y la necesaria revisión de la credibilidad.
Por su parte, en términos netamente académicos, el ser humano está familiarizado con investigaciones empíricas, tales como exploraciones científicas e investigaciones criminales, en las cuales los científicos deben examinar eventos físicos y objetos para resolver problemas o ganar conocimiento acerca de algún fenómeno. Por ejemplo, en muchos casos criminales, los científicos forenses examinan rastros de sangre para descubrir la identificación única del ácido desoxirribonucléico de la muestra. Este tipo de investigaciones requieren de gran precisión, particularmente porque las muestras son frecuentemente muy pequeñas, y particularmente por pequeñas desviaciones en la precisión de la medición de elementos microscópicos pueden resultar en una mala identificación. De este modo, los científicos que trabajan en estas áreas en particular, tienen que ser consistentes en mantener un alto grado de precisión.
Otro fenómeno que impone límites por encima del evidente deseo de precisión es que se utiliza el lenguaje natural para describir y comunicar información y conocimiento. Se ha tenido la experiencia de malinterpretar un resultado por haber utilizado palabras en una forma diferente al patrón de una determinada conversación. El entendimiento del significado de una palabra trae consigo la cultura y las asociaciones personales, así que aunque se tenga una parte de la esencia del significado y además sea posible comunicarlo con un grado aceptable, la mayoría de las veces no se puede estar de acuerdo en el simple significado de una palabra. En pocas palabras, el lenguaje natural tiene la característica distintiva de incertidumbre. La incertidumbre puede también ser el resultado de varios usuarios del lenguaje natural, los cuales aceptan ligeramente significados diferentes de un término. Por ejemplo una persona acostumbrada a vivir en La Paz puede tener un significado para el término “calor” que es diferente del significado aceptado por un residente de la región amazónica de Pando.
El término incertidumbre significa razonamiento aproximado o inexacto de la información. De manera general, sólo se conoce con certeza una pequeña parte de un determinado dominio del mundo, la información restante puede ser incierta por diversas causas, tales como: imprecisión, incapacidad para tomar medidas adecuadas, falta de conocimiento, vaguedad, etc. Existe un cambio dramático en los paradigmas de la incertidumbre durante los últimos años: hasta la década de los sesenta, la incertidumbre se relacionó con significados negativos. Ningún científico quería tomar decisiones vagas, pues temía que su trabajo no fuera tomado con la debida seriedad, por lo que la incertidumbre fue considerada como algún disturbio que debería ser evitado en modelos, teorías y enunciados. La única teoría que trataba con incertidumbre fue la teoría de probabilidad y estaba restringida a situaciones en las cuales la incertidumbre podría ser atribuida a aspectos relacionados con la aleatoriedad o el azar. A partir de la década de los años 1960 esto cambió, se aceptó el hecho de que la incertidumbre es una parte de la realidad, la cual no se puede cambiar. Por lo tanto fue necesario incluirla en los modelos de desarrollo. Esto ha conducido a un incremento en el número de teorías de incertidumbre durante las últimas décadas y a numerosos intentos por modificar los métodos formales existentes de modo que se acerquen más a la realidad y al comportamiento humano.
Sin embargo, al enfrentarse a problemas tales como los de diagnóstico, era inevitable tener que tratar la incertidumbre, y en aquellos años la única técnica disponible, aún con todas sus limitaciones, era el método probabilista clásico, a veces llamado Bayes ingenuo, con el que se construyeron los primeros sistemas de diagnostico, los cuales obtuvieron un éxito razonable en problemas que hoy parecen pequeños en tamaño, pero que en aquella época eran imposibles de abordar de ninguna otra forma. No obstante, el método probabilista clásico presentaba dos inconvenientes principales: el primero de ellos era la dificultad de obtener las probabilidades condicionales necesarias para construir el modelo. La aplicación del teorema de Bayes “en bruto” requería un número exponencial de parámetros, por lo que se hacía necesario introducir hipótesis simplificadoras, que eran básicamente dos: la exclusividad de los diagnósticos y la independencia condicional de los hallazgos. Aún así, el número de parámetros seguía siendo relativamente elevado, sobre todo teniendo en cuenta que raramente había bases de datos a partir de las cuales se pudieran obtener las probabilidades objetivas, por lo que en la mayor parte de los casos se hacía necesario recurrir a estimaciones subjetivas, poco fiables. Además las hipótesis eran poco verosímiles, sobre todo la de independencia condicional, sobre la que se escribieron páginas y páginas en los año 1970. Por estos motivos, la mayor parte de los investigadores estaban de acuerdo en que la probabilidad no era un método adecuado para la inteligencia artificial.
En paralelo con esta evolución histórica de crisis y resurgimiento de la probabilidad, se desarrolló la teoría de los conjuntos difusos, frecuentemente llamada lógica difusa. La motivación inicial no fue el estudio de la incertidumbre, sino el estudio de la vaguedad, que es algo diferente. Por ejemplo, si se sabe que Andrés mide 1.78 m., no se puede decir rotundamente que es alto, pero tampoco se puede decir que no lo es: se trata de una cuestión de grado; en este caso hay vaguedad intrínseca, pero no hay incertidumbre, con lo que se demuestra que son dos conceptos en principio independientes, aunque existe una cierta relación en el sentido de que si se recibe una información imprecisa, por ejemplo, si se dice que Juan es alto, pero no se dice su estatura exacta, se tiene un cierto grado de incertidumbre. En realidad, la necesidad de tratar la vaguedad surge de una antigua paradoja, que se podría expresar de la siguiente manera: una persona que sólo tiene 10 centavos de boliviano es sumamente pobre en términos cuantitativos, ahora bien, si a esa persona que es sumamente pobre se le da otros 10 centavos de boliviano, sigue siendo sumamente pobre; aplicando esta regla repetidamente se llega a la conclusión de que una persona que tiene 1 millón de bolivianos es sumamente pobre. La solución a esta paradoja es que el concepto de “pobre” o “sumamente pobre” no tiene un límite completamente definido, sino que a medida que se le da 10 centavos tras otro, hasta llegar al millón de bolivianos, en el supuesto de que se tuviera esa cantidad de dinero, el grado de pobreza va disminuyendo paulatinamente: no hay un único centavo que haga pasar a la persona de ser pobre a ser rico.
Por eso, la brillante idea de Lofti Zadeh, considerado como el “padre” de la lógica difusa, no solo por haber tenido la idea original, sino también por la gran cantidad de líneas que ha abierto en el campo desde entonces, consiste en permitir que el grado de pertenencia a algunos conjuntos sea un número entre 0 y 1, de modo que, por ejemplo, para quien no tiene más que 2 bolivianos, su grado de pertenencia al conjunto de personas pobres es casi 1, mientras que para quien tiene 100 millones de bolivianos es casi 0; en cambio, para una persona que tiene 500.000 bolivianos ahorrados el grado de pertenencia podría ser 0.4 o 0.5. Lamentablemente, el punto más débil de la lógica difusa es la carencia de una definición operativa que permita determinar objetivamente el grado de pertenencia, con lo que toda la teoría queda un tanto coja desde su nacimiento; esto no ha impedido el extraordinario desarrollo de la lógica difusa, con miles de artículos, libros, revistas y congresos dedicados al tema.
Para muchos casos prácticos, las soluciones de los problemas se conducen en presencia de incertidumbre en los datos o el conocimiento Para este tipo de problemas es posible utilizar técnicas numéricas, o también, la incertidumbre puede ser manejada con una aproximación lógica en forma de rastro. El razonamiento en la presencia de incertidumbre sucede en ejemplos típicos de diagnostico y análisis de datos. Los sistemas expertos, cuya función consiste en el diagnóstico en sus juicios de razonamiento emplean reglas de condición-conclusión que van acompañadas de una estimación de certidumbre, en donde se tiene un procedimiento numérico y la necesaria revisión de la credibilidad.
Para conocer más acerca del Doctor Choque y sus publicaciones, haz clic en el siguiente vínculo:
No hay comentarios:
Publicar un comentario