Inteligencia Artificial: al principio fue la Filosofía

  • Imagen
    Inteligencia Artificial
    Dossier APU: Inteligencia Artificial
DOSSIER

Inteligencia Artificial: al principio fue la Filosofía

01 Marzo 2023

Para comenzar, y que no sea un hablar en el vacío, vale indicarse qué es o qué se entiende por “Inteligencia Artificial” (IA). Si bien esta definición no está exenta de mutaciones, será la que primero se esgrime porque es considerada quizá la más sintética y contundente de las definiciones expresadas. La misma corresponde a Marvin Minsky, creador, en 1957, del Laboratorio de Inteligencia Artificial del Instituto de Tecnología de Massachusetts (Massachusetts Institute of Technology, MIT). Para él “la inteligencia artificial es la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia si las hicieran los humanos”.

El camino de todo concepto es largo, no necesariamente recto o uniforme, y no puede ser fechada su aparición –en la mayoría de los casos– de manera precisa. Se trata de construcciones sociales, que implican muchos debates, propuestas y refutaciones, e incluso no están libres de contiendas o controversias que, en algunas oportunidades, suelen resolverse por un poder que está por fuera del terreno del debate.

No sin polémicas se suele decir que en el campo de las ciencias y de las tecnologías los conceptos son previos a las filosofías asociadas a ellos. Un ejemplo, se ha demostrado que la filosofía kantiana es propia y derivada de las teorías newtonianas de tiempo y espacio. Es decir, las filosofías le siguen a las ciencias y las tecnologías, o tratan de captar y profundizar las conceptualizaciones que quedan abiertas al crearse nuevos conocimientos tecnocientíficos. En cuanto a la IA, inversamente, se sostiene que “al principio fue la filosofía” y que luego se dio el gran paso tecnocientífico. En lo que sigue hay un breve esbozo, el que, en fidelidad cronológica, irá desde las conceptualizaciones filosóficas a las conceptualizaciones tecnocientíficas y sus productos derivados.

Hay quienes ubican ya las ideas de IA en escuelas de pensamiento griego como la de Aristóteles (400 AC), dado que este pensador desarrolló un método que permite obtener, “mecánicamente”, conclusiones válidas a partir de un conjunto reglas y de premisas iniciales. Mil setecientos años después de Aristóteles el mallorquín Ramón Llull se dedicó a diseñar una “máquina lógica” para mostrar que el razonamiento racional puede obtenerse por medios artificiales, esta máquina está minuciosamente descripta en su famosa obra Ars magna et ultima (Arte magna y última) y conjuga el más elevado conocimiento filosófico, técnico y científico-matemático de esas épocas. En muchos casos en la literatura asociada a la IA fechan en 1315 el surgimiento de lo que hoy se denomina IA, dado que Llull trabajó en el diseño de máquinas capaces de razonar como las personas. Esta máquina de Llull tiene cierto parentesco con las máquinas autómatas diseñadas por Leonardo Da Vinci, aunque más sofisticada menos famosa que las del florentino a quien también ubican dentro de la larga lista de contribuyentes al desarrollo de la IA. Como sabemos, estas máquinas han sido cuanto mucho boceto, ideas, y no fueron construcciones que puedan mostrar resultados correlacionales con la idea.

La “máquina aritmética produce efectos que parecen más similares a los pensamientos que a las acciones animales”, dijo Blaise Pascal de lo que hoy se conoce como la pascalina, y se data en 1642 la fecha de nacimiento de la primera máquina de cálculo. Este invento, realizado por el francés a los 19 años, le dio fama continental, y generó toda una serie de indagaciones posteriores. Por ejemplo, Gottfried W. Leibniz, siguiendo la pascalina y tratando de perfeccionarla, ideó un dispositivo mecánico que le permitiera llevar en extremo estas ideas, por lo que propuso un sistema de cálculos mediante símbolos y lenguaje desarrollados por una máquina que permita obtener conclusiones. Tan potente fue su idea que se lo considera un precursor en el campo de la computación, al menos así da cuenta el libro La computadora universal: de Leibniz a Turing escrito por el prestigioso matemático neoyorquino Martin Davis. Vale decir que por 1623 el matemático alemán Wilhelm Schickard informó mediante carta a Johannes Kepler haber inventado una máquina que permitía hacer cálculos, que sólo se conoce por el descubrimiento en 1935 de una serie de cartas entre Schickard y Kepler. Con cierto forzamiento, puede argumentarse que estas máquinas cumplen con la definición de M. Minsky en lo relativo a IA.

En este enfoque, enteramente relacionado con lo que entendemos como “máquina”, se da un salto en el tiempo y llegamos a 1840, donde Charles Babbage presentó su diseño de máquina analítica. Este matemático británico, siguiendo los conocimientos de los trabajos de Pascal y Leibniz, intentó crear un método eficaz de cálculo, para reducir tanto trabajo como errores cometidos por calculistas. La máquina de Babbage es, en concepto, lo que hoy conocemos como computadora. La matemática Ada Byron, condesa de Lovelace, interiorizada de los trabajos de Babbage lo asistió en crear nuevos programas, y hoy comparte el sitial de ser la primera dupla de programadores de la historia, siendo que el matemático ya había creado los suyos propios algunos años antes que los de Ada [1]. Además, Lovelace promovió activamente la máquina analítica entre su círculo social, entre los que se encontraban prestigiosos científicos e influyentes personalidades, con el objetivo de obtener recursos para poder construirla. La máquina analítica nunca fue montada, se le fueron negando las posibilidades de financiamiento, y el proyecto no prosperó.

Quien quiera ampliar, al menos en nombres y en disciplinas este camino, puede ver el voluminoso libro Inteligencia Artificial: Un Enfoque Moderno, de Stuart J. Russell y Peter Norvig, un texto universitario entre la divulgación y disciplina en sí, de amplia influencia, dentro de las corrientes de lo que se denomina tecno-optimismo.

A diferencia de estos dos autores, Jack Copeland, en su libro Inteligencia artificial: una introducción filosófica, indica que debemos situar el inicio del concepto de IA con el comienzo fáctico de la era computacional.

La primera computadora de propósito general fue desarrollada en Alemania en 1941 (Zuse Z3), en tanto que en 1943 y en Gran Bretaña apareció Colossus una máquina de propósito específico diseñada para “romper códigos encriptados” durante la Segunda Guerra, y hacia 1948 recién obtuvieron una máquina de propósito general (Mark I). En Estados Unidos recién se obtuvo un prototipo de estas características en 1949 (BINAC), aunque desde 1945 lidiaban con la ENIAC –que era de escasísimos recursos para la programación-. Además, la Mark I fue la primera computadora en comercializarse y hacia fines de 1951 se habían vendido 9 (nueve) unidades en el mundo todo.

Si bien tanto en Alemania, Gran Bretaña como en Estados Unidos ya se venía trabajando, en diferente grado y con diferentes avances sobre todo en lo conceptual, no fue sino hasta el inicio de la Segunda Guerra que el concepto pasó a ser artefacto material modelable, y así situamos a las computadoras en su origen fáctico propiamente dentro del campo de la guerra, para, luego de finalizada la contienda bélica, pasar a integrar las contiendas económico-legales por más de dos décadas, y finalmente la “colonización” del mercado sin excepciones.

Los principios “filosóficos” de la Inteligencia Artificial

Siguiendo a Copeland, es exagerado considerar a Alan M. Turing como el padre de la IA, pero no es exagerado pensarlo como el padre de la filosofía sobre la IA.

Es sabido que Turing fue uno de los matemáticos y lógicos más excepcionales del siglo XX, y que se adelantó en muchos aspectos a lo que tecnológicamente en el tiempo que vivió se podía construir. Cuando escribió en la revista de filosofía Mind su célebre artículo de 1950 Computing Machinery and Intelligence (“Máquinas Informáticas e Inteligencia” o también conocido como “Puede pensar una máquina”), mientras tenía bajo su dirección la programación de Mark I, en el mundo había sólo cuatro computadoras (Mark I y EDSAC en Gran Bretaña, y ENIAC y BINAC en Estados Unidos) y estaban lejos del rendimiento computacional que hoy conocemos.

La idea de “cerebros electrónicos” estaba socialmente instalada, literatura mediante, y desbordaba de ficción antes que de aportes sustentables para dar cauce material al concepto. El artículo, si bien académico, les dio estatus a las ideas establecidas desde las opiniones literarias o de prensa e introdujo un debate hacia el interior del mundo académico el que ya no pudo ser ocultado.

Turing comenzaba su artículo proponiendo que “consideremos la siguiente pregunta: «¿pueden pensar las máquinas?» […] Si hemos de llegar al significado de las palabras «máquina» y «pensar» a través de su utilización corriente, difícilmente escaparíamos a la conclusión de que hay que buscar el significado y la respuesta de la pregunta «¿pueden pensar las máquinas?» …”. Y terminaba ese artículo con sentencias como las que siguen, propia del tecno-optimismo. Decía “esperemos que las máquinas lleguen a competir con el hombre en todos los campos puramente intelectuales. ¿Pero cuáles son los mejores para empezar? También es una ardua decisión. Muchos piensan que lo mejor es una actividad de naturaleza tan abstracta como jugar al ajedrez. También puede sostenerse que lo óptimo sería dotar a la máquina de los mejores órganos sensoriales posibles y luego enseñarla a entender y a hablar inglés. Es un proceso que podría hacerse con arreglo al aprendizaje normal de un niño: se señalan los objetos, se los nombra, etc. Vuelvo a insistir en que ignoro la respuesta adecuada; creo que hay que experimentar los dos enfoques”.

El filósofo tecno-escéptico Éric Sadin, en La Humanidad aumentada. La administración digital del mundo, insinúa que Turing fue derrotado, no porque no se haya avanzado computacionalmente, sino que se lo hizo en una dirección que no es la que Turing auguraba, ideas que se abandonaron “a mitad de camino, por la fuerza de las cosas o de lo real, en beneficio de una propiedad concedida no ya a la «humanización de las máquinas», sino al perfeccionamiento continuo del tratamiento informacional automatizado […] Es una potencia fragmentada al infinito de «agentes incorporales»[2] capaces de husmear en las redes, de recolectar y analizar todos los datos pertinentes, de cartografiar una infinidad de situaciones globales o locales, y de proponer o de proyectar en «tiempo real» soluciones tranquilizadoras o ventajosas”. Antes que “inteligencia” se trataría de “conciencias sobreinformadas” y “altamente racionalizadas” desde lo operacional. Esto, obviamente, subsidiario a una ideología económica propiciada por el mercado.

La importancia cada vez mayor que adquirió la técnica en nuestras sociedades originó dos categorías en las antípodas una de otra: los tecnofílicos y los tecnofóbicos”, dice É. Sadin en el apartado “por un conflicto de racionalidades” de su libro La inteligencia artificial o el desafío del siglo. Anatomía de un antihumanismo radical. Y a este predominio hegemónico tanto en lo tecnocientífico como en lo filosófico en el campo de la IA, este autor propone, entre otras cosas, que sería tiempo de que “los sindicatos ya no se preocupen por los salarios o ciertas condiciones de trabajo, sino de estos dispositivos que ultrajan la dignidad humana y a los que tenemos que combatir”, de acuerdo a lo que en Capitalismo de plataformas ha expuesto el economista y teórico político Nick Srnicek.

Es decir, la mutación filosófica de la IA va de la idea de Turing en tanto «¿pueden pensar las máquinas?», como complemento-suplemento humano a un aleph inconmensurable de recopilación de datos e información para, mediante procesamientos altamente veloces y eficaces, establecer flujos decisorios unidireccionados. O como expone Tarcízio Silva en su excelente libro Racismo Algorítmico. Inteligencia Artificial y discriminación en las redes digitales, conviene distinguir entre “IA general” e “IA estrecha” y sus filosofías asociadas. La IA general significa “tratar de emular las capacidades de la mente humana en las diversas esferas de la experiencia, producir de manera autónoma, independiente y proactiva, y aprender sobre este comportamiento de una manera creativa”. En tanto que la IA estrecha está anclada en el concepto de “algoritmo” para “describir los impactos sobre el surgimiento de las tecnologías digitales que automatizan procesos, rankings, moderación, visibilidad e invisibilidad de contenidos y personas”. Esto proviene de la clasificación en dos perspectivas diferentes, la primera que tuvo marcada incidencia desde 1950 hasta mediados de los ‘80s, y es la relacionada con el enfoque simbólico-deductivo, y la segunda perspectiva, dominante desde la década de los ‘90s hasta la actualidad, que tiene que ver con el enfoque conexionista-inductivo. Según T. Silva, en “el enfoque simbólico-deductivo el ambiente de cálculo recibe los datos para el análisis y una serie de instrucciones, un «programa» de procedimientos, cálculos y puntajes, para resultar en salidas, productos, clasificados u operacionalizados de acuerdo con los objetivos declarados. En el enfoque conexionista-inductivo, en cambio, los algoritmos reciben datos de entrenamiento que representan un conjunto de instancias (entrada) y también ejemplos de resultados (salida) para correlacionar entradas y salidas de forma compleja, al punto de generar resultados predictivos y decisiones sobre nuevos datos”. En este esquema conexionista-inductivo, la búsqueda está situada en la correlación, y la correlación o bien tomada como verdad o bien tomada como causalidad.

Dicho de otra manera, Silva sostiene que “en el modelo conexionista, el objetivo del cálculo se desplaza hacia el mundo exterior al modelo, que proporciona ejemplos «etiquetados» o «clasificados» de pequeños rastros o señales a favor del objetivo del sistema algorítmico. A medida que el sistema aprende y se adapta a la relación entre las señales y los objetivos, el propio programa de decisión de datos «evoluciona» continuamente»”.

Expresado de manera sencilla y no tan exhaustiva, este desplazamiento hace que las tecnologías digitales actuales necesiten más capacidad de alojamiento/almacenamiento que capacidad de procesamiento (porque lo importante pasa a ser la información recolectada y almacenada antes que todo lo demás). En el modelo de Turing, podríamos decir, que se suponía que la máquina podía tomar decisiones a un nivel mínimo de datos extras, al nivel de modelos actuales las decisiones de máquina contienen un soporte infinito de información para generar correlación de datos y devolver nuevos datos (predictivos).

Vemos que en los setenta años que lleva de desarrollo el concepto de IA, desde lo filosófico, han operado mudanzas que corresponden a los fines prácticos que la disciplina ha desarrollado en conexión con las particularidades a las que se adapta, muy particularmente con las tecnologías asociadas a seguridad y a la algoritmización generalizada de la vida.

Notas

[1] Hoy el lenguaje de programación ADA es llamado así en su honor. Este lenguaje, orientado a objetos, fue diseñado por encargo del Departamento de Defensa de los Estados Unidos, para estrategias de seguridad.

[2] El vocablo agente es muy extendido en las ciencias informáticas asociadas a la IA. “El principal tema unificador es la idea del agente inteligente”, según S. J. Russell y P. Norvig. Estos autores sostienen que un “agente es algo que razona (agente viene del latín agere, hacer)”, y toda su obra está sustentada sobre esta categoría. Siguiendo a É. Sadin, nos permitimos un espacio de interpretación que podemos ejemplificar de la siguiente manera: en Turing estaba presente lo que podemos llamar “inteligencia” de tipo académica, en el devenir tecnocientífico está presente la idea de “servicios de inteligencia”, en la categoría de “agentes inteligentes”, con todas las connotaciones que de ello derivan.