El fin de la lógica clásica y el principio de la IA

“La tarea no es ver lo que nunca antes se había visto, sino pensar lo que nunca antes se había pensado sobre lo que se ve todos los días”.

Erwin Schrödinger.

Existen modos de razonar distintos. Unos más estancos (hacen juicios absolutos) y otros con mayor grado de fineza (hacen juicios valorando la calidad de la información). La lógica clásica se preocupaba de un razonamiento causal y exacto, mientras que las lógicas no clásicas se preocupan más de un razonamiento aproximado (no motivado y no probabilístico). Ahora bien, la lógica no clásica se apoya en la primera, es decir, no rompe en sí la lógica (como quería Dogdson, el hombre detrás de Lewis Carroll), sino que es una desviación y una extensión de ella.

En el siglo XX, surgieron lógicas multivalentes (3, 4, 5 o más valores, expandiendo los valores de verdad o falsedad que anteriormente habían estado sujetos a dos posiciones o bivalencia: V, F. Es decir, todo era totalmente verdadero o falso. O negro o blanco. No hay gris, verde amarillo o azul) La aparición de lógicas multivalentes o polivaluadas (trivalentes, modales, intuicionistas, paraconsistentes, difusas, etc.) atacaron la bivalencia y aquello que se creía firme, y que una vez se consideraron como “los principios básicos del razonamiento humano”:

-El principio de identidad:  Para todo valor de X, X es igual a X.
-El principio de no contradicción:  No es cierto A y no A. Siendo A una fórmula bien formada.
-El principio de tercio excluso:  Aristóteles decía que no se podia dar que A y la negación de A se dieran a la vez y en el mismo sentido. Siendo A una fórmula bien formada.

Motivaciones

El cambio de paradigma que se dio en el puente entre el siglo XIX y el siglo XX, en el que entraron en juego transformaciones en el campo de la Matemática y la Física, afectaron irremediablemente a la lógica y esas reglas que parecían estar acampadas en el sentido común. Surgieron anomalías que ya estaban, pero que hasta entonces no se habían pensado capturar con una base lógica como, por ejemplo: Los futuros contingentes, las paradojas semánticas, las anomalías causales o la indecibilidad de las oraciones. Todos estos cambios se filtraron en la filosofía y la psicología popular instaurando la idea de que la verdad es relativa hasta desmantelar los “principios éticos”.

El valor I: lo indeterminado

Los futuros contingentes ya era una cuestión que se había planteado Aristóteles: el problema de aceptar enunciados futuribles como verdaderos, cuando en realidad pueden acabar siendo falsos. “Mañana desembarcaremos en Normandía” es algo que sólo se podrá saber mañana, porque podría abortarse la misión. “Mañana hará tiempo soleado en Madrid” es una predicción que podría fallar dependiendo de si el anticiclón que se asoma en las Azores se mantiene el tiempo que está previsto se mantenga en el área portuguesa. Por lo tanto, sólo podremos verificarlo mañana, cuando se haga efectivo. Aquí habría un grado de verdad de nuestra aserción en tanto se utilizan métodos científicos para predecir eventos. Fue Lukasiewicz (1920) quien otorgó el valor (I) indeterminado a esta clase de proposiciones. Emil Post hizo algo similar a la lógica trivalente (V, I, F) desde un enfoque algebraico, lo cual consiguió dotar de más fuerza a esta nueva perspectiva lógica.

Bochvar quiso resolver el problema de las paradojas semánticas que se daban habitualmente en el lenguaje. Tales como la paradoja del Mentiroso, en la que si asigno un valor falso a “La frase que escribo es verdadera” entonces entramos en el ámbito de los retruécanos irresolubles que tanto le hacían disfrutar a Lewis Carroll. Bochvar otorgará el valor I a lo paradójico o carente de significado, ya que se dio cuenta de que lo asignificativo siempre sería asignificativo, y contaminaba toda la oración. Es decir, la proposición nunca podría ser verdadera o falsa, mientras exista un valor I.

Reichenbach, por su parte, se ocupó de un tema más controvertido y más interesante, como eran las anomalías causales planteadas por la Mecánica Cuántica. La indeterminación (I), en este caso, tenía que ver con el principio de incertidumbre de Heisenberg (1925), que ponía de manifiesto la incapacidad de medir el momento y la velocidad de un sistema, simultáneamente. En el mismo año, el principio de exclusión de Pauli postulaba que dos fermiones idénticos no podían compartir el mismo sistema cuántico, lo que llevó a la idea del espín que relacionaba el momento angular con la estadística. Tanto Heisenberg como el mismísimo Niels Bohr, rechazaron todo aquel enunciado que fuera capaz de posicionarse en un estado, tal y como ocurre en el experimento del gato de Schrödinger (1935). Simplemente, una aserción de la lógica clásica carecía de sentido. Reichenbach introdujo dos valores nuevos para la negación: cíclica y completa; y para la implicación: alternativa y cuasi-implicación. Aquí vemos que comprendió que en las variables asignadas también hay cantidad de movimiento.

El experimento del gato de Schrödinger o paradoja de Schrödinger, que ya forma parte de la cultura pop, es un experimento teórico concebido en 1935 por el físico austríaco Erwin Schrödinger para exponer una de las interpretaciones más contraintuitivas de la mecánica cuántica.

Por otro lado, Kleene se ocupó de las oraciones indecibles. Estableció que la indecibilidad (I) no trataba de si se podía afirmar la verdad o la falsedad de una oración, sino de que no podemos refutar lo indecible, sin tener una prueba de la verdad o falsedad de lo que se predica. Esto es una definición de “rigor científico”. Este modo de entender la indeterminación se asemeja al intuicionismo de Brouwer y Heating, quienes no entendían el concepto clásico de verdad, sino como lo afirmable y demostrado. Para Brouwer, un matemático que creía en la ontología platónica, la Matemática era “sintética a priori” y la Lógica “sintética a posteriori”. ¿Qué quiere decir esto? Que Brouwer consideraba que había una jerarquía tanto física como mental, en las que las entidades matemáticas son construidas por la mente y, en rigor, la lógica sólo es un modo de razonar sobre estas entidades.

La lógica difusa y la ingeniería computacional

Fue en 1965, en la Universidad de Berkeley (California), donde un ingeniero de Azerbaiyán, llamado Zadeh, introdujo los grados de pertenencia a un conjunto borroso (Fuzzy Sets) con lo que admitía que la indeterminación (I) era una verdad o falsedad aproximada. Propuso el siguiente ejemplo: “Los hombres altos” como conjunto borroso, y asignó distintos valores a las medidas de altura, de tal manera que la función matemática representada en una gráfica simulaba una curva sin cambios abruptos.

Representación de los hombres altos.

De hecho, la lógica borrosa o difusa es una lógica multivaluada que admite infinitos grados de verdad (esto nos recuerda al “Hotel de Cantor”) y hace especial hincapié en las “etiquetas o variables lingüísticas” y no tanto en los números. Es decir, en variables cualitativas y no cuantitativas (esto es un fenómeno correlativo a la Matemática Contemporánea). En rigor, el pensamiento humano se caracteriza, fundamentalmente, por utilizar expresiones vagas o imprecisas, es decir, mal definidas. Para Zadeh, cuanto más aumenta la complejidad de un sistema, mas perdemos capacidad de precisión y de significación. Por lo que en un dominio {0,1} existirán personas más altas o menos altas, dependiendo del contexto y el factor subjetivo, es decir, de los grados de pertenencia del conjunto borroso.

Zadeh en la Universidad de Columbia, donde se doctoró en ingeniería eléctrica y fue luego profesor durante una década.

Los conceptos empleados en Lógica Difusa y Probabilidad están relacionados en cierto modo, pero son totalmente diferentes. De forma resumida, la probabilidad representa información sobre frecuencia de ocurrencias relativas de un evento bien definido sobre el total de eventos posibles. Por su parte, el grado de pertenencia difuso representa las similitudes de un evento con respecto a otro evento, donde las propiedades de esos eventos no están definidas de forma precisa. Zadeh representó con condicionales (Si…entonces…) las entradas (Input) y salidas (Output) de las instrucciones de los sistemas complejos, debido a que no podía justificar ninguna inferencia de implicación porque toda la información que podemos captar es imprecisa y relativa al propio sistema. Luego, combinó este modo de procesar la información imprecisa para obtener juicios. Zadeh se dio cuenta de que requería del lenguaje humano y no de símbolos y conectores propios de la lógica booleana.

El método más ampliamente utilizado de inferencia difusa es el propuesto por Mamdani en 1975 (el mismo año de la fundación de Microsoft). El proceso se realiza en cinco pasos:

  1. Fuzificación o conversión de las variables de entrada numéricas en variables difusas lingüísticas.
  2. Procesamiento de las variables para obtener la pertenencia a un conjunto o subconjunto difuso.
  3. Evaluación de la regla más adecuada (las reglas son inferencias condicionales de todo el conocimiento que registra el sistema) en combinación con el grado de pertenencia.
  4. Proceso de agregación de las salidas de las reglas mediante el método MAX.
  5. Defuzificación.

En los años noventa, se implantaron los algoritmos genéticos, las redes neuronales y la lógica difusa a sistemas de control de plantas industriales. Dicha herramienta ha resultado sorpresivamente eficiente, neutralizando todas las discusiones y controversias suscitadas por los homólogos de Zadeh. El boom japonés fue fundamental para impulsar definitivamente la aplicación de la lógica difusa a la tecnología dentro y fuera de la industria manufacturera. Según Terano:

“Cuanto más humano sea un sistema, más lógica difusa contendrá” .

Es una frase meteórica que ejemplifica perfectamente la necesidad de subjetividad humana para la toma de decisiones de los sistemas de control y para que la inteligencia artificial (IA) gane autonomía. Una propuesta para el proyecto de investigación de verano de Dartmouth sobre inteligencia artificial (31 de agosto de 1955), enviada a la Fundación Rockefeller, fue formulada por McCarthy en Dartmouth y Minsky, luego en Harvard. El punto 7 de la propuesta intuía dicho proceso de fuzificación (aleatoriedad) y defuzificación (orden) que parece generar la ilusión de autonomía.

7. Aleatoriedad y creatividad
Una conjetura bastante atractiva y, sin embargo, claramente incompleta es que la diferencia entre el pensamiento creativo y el pensamiento competente sin imaginación radica en la inyección de algo de aleatoriedad. La aleatoriedad debe ser guiada por la intuición para ser eficiente. En otras palabras, la suposición educada o la corazonada incluyen aleatoriedad controlada en el pensamiento ordenado.

APRENDIZAJE PROFUNDO

El diseño de sistemas expertos en tiempo real se basa en la integración de una serie de instrucciones elaboradas por el conocimiento de un experto (ingeniero, médico, etc.) haciendo del sistema autónomo, hasta el punto de no necesitar la presencia del experto. El paso siguiente es la capacidad de aprendizaje de dicho sistema hasta consolidar autonomía que puede ser trazable por un ser humano.

La atención es el mecanismo por el cual una persona (o algoritmo) se enfoca en un solo elemento o en algunos elementos a la vez. Es fundamental tanto para las arquitecturas de modelos de aprendizaje automático como para el Reformer de Google o para la teoría neurocientífica de la conciencia de cuello de botella, que sugiere que las personas tienen recursos de atención limitados, por lo que la información se destila en el cerebro a sus partes más destacadas. Los modelos con atención ya han logrado resultados de vanguardia en dominios como el procesamiento del lenguaje natural, y podrían formar la base de la inteligencia artificial empresarial que ayuda a los empleados en una variedad de tareas cognitivamente exigentes. Bengio describió los sistemas cognitivos propuestos por el psicólogo y economista israelí-estadounidense Daniel Kahneman en su libro seminal Thinking, Fast and Slow, básicos en el aprendizaje profundo:

El primer tipo es inconsciente: Sistema intuitivo y rápido, no lingüístico y habitual. Sólo trata con tipos implícitos de conocimiento.

El segundo es consciente: Sistema lingüístico y algorítmico, que incorpora razonamiento y planificación, así como formas explícitas de conocimiento. Una propiedad interesante del sistema consciente es que permite la manipulación de conceptos semánticos que pueden recombinarse en situaciones novedosas, lo que Bengio señaló es una propiedad deseable en IA y algoritmos de aprendizaje automático. Y esto es tan sólo la punta del iceberg.

***

Referencias:

  • HAACK, Susan. Filosofía de las lógicas. Cátedra. Madrid (1991).
  • KANSAL,Vandna; KAUR, Amrit. Comparison of Mamdani-type and Sugenotype FIS for Water Flow Rate Control in a Rawmill. International Journal of Scientific & Engineering Research, Volume 4, Issue 6 (June-2013).
  • ZADEH, L. A. Fuzzy Algorithms. Comunication of Department of Electrical Engineering and Project MAC, MIT, Cambridge, Massachusetts (1968).
  • KAHNEMAN, Daniel. Pensar rápido, pensar despacio. Debolsillo. Madrid (2013).
  • BENGIO, Yoshua. Deep Learning (Adaptive Computation and Machine Learning series) MIT Press (2017).

© 2017 Safe Creative

Todos los derechos reservados.

10 comentarios sobre “El fin de la lógica clásica y el principio de la IA

  1. Inevitable plantearse después de leer este post la cuestión de si en algún momento de su evolución los sistemas de IA llegarán, si no a desarrollar alguna forma de autoconsciencia, sí a poner el peligro la supremacía de los seres humanos en su dominio del entorno.

    Las opiniones de investigadores y expertos son contradictorias a este respecto. Mientras que ingenieros e informáticos afirman que se trata de una pura fantasía, de especulaciones más propias de la ciencia ficción más ilusoria, hay pensadores y científicos de la talla de Stephen Hawking que alertan sobre la amenaza que el desarrollo de la IA podría llegar a suponer.

    Se trata de un asunto que suscita conjeturas tan sugerentes como inquietantes.

    Gracias por la entrada,

    Le gusta a 1 persona

    1. Gracias por la reflexión.

      Considero que una de las claves es que la inteligencia artificial transformará nuestro concepto de “inteligencia” (natural). Por ejemplo, a nivel lingüístico, el significado, en sí mismo, es una condición estrictamente local que sólo puede ocurrir entre un “más malo” y algún aspecto del Universo sobre el que un ser puede tener la capacidad de preocuparse (Una posición valorada o motivada)

      Para que el significado signifique, tiene que significar para un malvado / cuidador / empatizador. No existen “significados” que cuelguen libremente por sí mismos, y sin embargo, para la inteligencia artificial sí.

      Saludos.

      Me gusta

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s