Gabriel Bilmes: "La Inteligencia Artificial no es ni tan artificial ni tan inteligente"

  • Imagen
    Gabriel Bilmes
APU ENTREVISTAS 2023

Gabriel Bilmes: "La Inteligencia Artificial no es ni tan artificial ni tan inteligente"

27 Marzo 2023

Agencia Paco Urondo conversó con el docente e investigador Gabriel Bilmes, director de la revista Ciencia, Tecnología y Política sobre los desafíos que propone la IA.

Agencia Paco Urondo: Se habla mucho de Inteligencia Artificial, apareció un chat con el cual uno puede interactuar, pero ¿Qué es la IA? ¿En qué momento de su desarrollo está? ¿A partir de ella, la Humanidad, puede dar un salto cualitativo?

Gabriel Bilmes: Voy a darte una definición de un autor que me gusta, Marvin Minsky. Él dice que la Inteligencia Artificial es la ciencia que hace que las máquinas hagan cosas que requerirían inteligencia si la hicieran los humanos. Acá aparecen varias características. La primera, como dice una filósofa argentina Karina Pedace en un artículo que salió en estos días, la Inteligencia Artificial no es ni tan artificial ni tan inteligente. Para que una máquina pueda realizar alguna tarea de este tipo, requiere poder acceder a una gran cantidad de datos con los que trabaja y procesa y que tienen que ser subidos, cargados previamente por alguien. La segunda cuestión es que la mayor parte de los procesos que hace una máquina requieren de intervención humana en alguna etapa. Vos le podés pedir a una máquina que investigue y que haga un artículo por vos. Eso lo va a hacer sin problemas. El problema reside en que la máquina va a hacerlo con una lógica que no es la de pensar. Si estás preparando un artículo para una aplicación médica, puede ser mucho más fácil. Si estás preparando uno con otros aspectos como el literario, por ejemplo, hay elementos de subjetividad, de experiencia, de análisis fino que la máquina no puede hacer. Porque una máquina, todavía, no puede pensar. Esto define el estado actual de la IA. Es un producto que contribuye a resolver algunas cuestiones con más agilidad y rapidez. Algo que no está dicho con toda claridad es que la Inteligencia Artificial, al igual que otras tecnologías, es un elemento esencial del capitalismo actual, que es el capitalismo informacional. Estas tecnologías son esenciales para su desarrollo. Hoy es más apropiado hablar de tecnociencia en el sentido de que las tecnologías y las ciencias actuales, más que nunca, no son neutrales. ¿Por qué se desarrollan en la dirección que lo están haciendo? ¿Podría haber otras direcciones, otros objetivos? Por supuesto, pero los objetivos están determinados por el sistema y hoy, el sistema, es el capitalismo que tiene, centralmente, un objetivo: la concentración de riqueza, el lucro, la ganancia, la acumulación de poder. No es sólo la IA, sino que hay muchas otras. Ahora voy a referirme a 2 o 3 sin las cuales, tampoco la Inteligencia Artificial podría funcionar.

URL de Video remoto

APU: En la primera parte remarcaste que la IA no es tan inteligente ni tan artificial porque no pueden pensar por sí solas, hoy. ¿Podríamos creer que se va hacia ese lugar?

G.B.: Tenemos una primera limitación: cuando hablamos de inteligencia lo estamos haciendo en la capacidad de pensar y para pensar tenés que tener imaginación. Para emular ciertas capacidades humanas necesitás saber exactamente cómo funcionan y todavía no sabemos cómo funcionan muchas cuestiones del cerebro y la mente. Ese es un aspecto bastante discutible a futuro. La pregunta es cuál es el sentido de reproducir lo que hacemos los humanos ¿Para qué lo haríamos? En el marco del desarrollo del capitalismo es, obviamente, para aumentar los beneficios, las ganancias, la eficiencia de las empresas. Esto no significa que necesariamente vaya a mejorar la calidad de vida de todos los seres humanos. Sí, de una parte, que son los que tienen el acceso a ese tipo de cuestiones. Acá hay una discusión, si querés, más ideológica o política: si el capitalismo se consolida en esta dirección, probablemente se refuerzen los aspectos más negativos y preocupantes que hoy aparecen en discusión sobre las consecuencias que podrían tener tecnologías como la IA en el comportamiento de las sociedades. Van a ir en la dirección de mayor control, de menos libertad de acción, de más manipulación, de obtención de información para aumentar las ganancias. Cuando decía que tampoco es tan artificial, hay que tener en cuenta otro elemento: la idea de nube que todo el mundo tiene ¿dónde está la información? Da la sensación de una cosa etérea, que no existe y eso no es correcto. El otro elemento central para que funcionen este tipo de cosas es que necesitás grandes bases de datos que están físicamente en un lugar: en los sistemas y computadoras de las grandes empresas. Además necesitás cables y comunicación. Ahí no hay artificialidad, hay material concreto. Ahí aparecen otras tecnologías, como la fotónica, sin la cual hoy no existiría Internet. Hoy, sin la combinación de fibras ópticas y láseres que te permiten poder desarrollar la transmisión de información a velocidades muy grandes y en grandes cantidades, no podrías tener el acceso o el desarrollo que tiene la Inteligencia Artificial u otros aspectos. El capitalismo actual tiene en la tecnociencia una base fundamental para su desarrollo y, por lo tanto, las impulsa con un sesgo, con un sentido que es su propio crecimiento. Además, con una poderosa impronta del uso para la guerra o con fines militares. Las consecuencias  pueden ser las mismas que tiene el hecho de poseer un sistema mundial que no está funcionando para todos. Es un aspecto particularmente a tener en cuenta. Esto no quiere decir que, como en cualquier otra tecnología, no haya subproductos que puedan ser útiles.

“Para emular ciertas capacidades humanas necesitás saber exactamente cómo funcionan y todavía no sabemos cómo funcionan muchas cuestiones del cerebro y la mente”.

APU: ¿Cómo cuáles?

G.B.: Hay gente que está muy preocupada por el uso que se le pueda dar a sistemas de IA en el ámbito educativo. El más burdo de todo, es que ahora le podrías pedir a un chatbot te escriba un informe. Esto es una tontería, como bien lo señala Carlos Scolari que se puede encontrar por Internet. Eso ya ocurre, ha ocurrido a lo largo de toda la historia: del alumno que tiene que hacer un informe y le pide ayuda a sus padres o hermanos mayores al uso de Wikipedia. Si vas a aprobar a un alumno por un informe escrito que trae de su casa, analizado acríticamente y sin discutirlo con el alumno o alumna puede ocurrir, pero no es un problema de la tecnología, es un error pedagógico. Podés armar un buen informe de determinado tema y te sirve para que, en una clase, se discuta críticamente, se utiliza para eso, está bárbaro. Te permite optimizar la información con que el docente puede trabajar. Lo que implica, en todo caso, es dejar de lado ciertas prácticas pedagógicas que ya están en crisis sin necesidad de que tengas este tipo de cuestión. Otros se quejan de que los periodistas puedan usar esto para hacer ristras de información rápida y emplearlo como una forma de manipulación ¡Seguro que se va utilizar de esa forma! Pero ya lo tenemos hoy sin necesidad de tener un chatbot que lo escriba. Al contrario, probablemente el chatbot escriba mejor que muchos periodistas. Y si le quieren dar un sesgo político, alguna orientación, se lo van a dar igual que lo están haciendo ahora. El problema no está en la tecnología, está en la orientación que tiene. Como bien lo señala Leandro Andrini en el dossier que hizo la Paco Urondo sobre este tema, la historia de la Inteligencia Artificial es de muy larga data. Ahora la conocemos con esta capacidad o potencialidad tan global, pero desde hace 300 años que se está pensando máquinas que puedan hacer este tipo de cosas. La calculadora es una forma de utilizar un producto de IA, alguien que nos haga las cuentas.

APU: La ciencia ficción nos ha dado miles de narraciones donde la máquina termina independizándose del hombre, desarrollando su propia forma de pensar, de razonar, terminando en un escenario de conflicto con la humanidad. ¿Es razonable, posible?

G.B.: Predecir es algo muy difícil, especialmente el futuro, decía Niels Bohr. Las predicciones del futuro que ha hecho la ciencia ficción, muchas veces, han fracasado totalmente. Nadie pudo imaginar Internet, por ejemplo. Hay aspectos que están ligados al modelo de mundo. Por ejemplo, a mí siempre me llamó la atención en la cultura imperialista, en la cultura de dominación del capitalismo, especialmente la mirada de Hollywood, prácticamente en todas las películas que hay intercambio con posibles seres extraterrestres, son todos violentos, a la larga. Eso es porque existe la cultura de la dominación. Una cultura imperial siempre va a tener un intercambio con otra sociedad en términos no de cooperación sino en términos de dominación. Muchas de las miradas de la ciencia ficción (hay geniales excepciones que han previsto posibles caminos alternativos) sobre mundos apocalípticos y de alternativas apocalípticas están, para mí, fuertemente asociadas al futuro del capitalismo. En este contexto, si se sigue en esta dirección, si no hay una alternativa al cambio de sistema, probablemente algunas de esas perspectivas apocalípticas sean las que tengan lugar. La que hoy está a la vista es la desaparición de la humanidad por una guerra nuclear. Está otra vez sobre la mesa a partir del conflicto que hay entre la OTAN y Rusia por la cuestión de Ucrania. Insisto, uno puede tener una mirada pesimista y pensar que el capitalismo siempre se recicla a pesar de sus conflictos, pero siempre existe la esperanza o la posibilidad de que pueda producirse un cambio. Hoy estamos en una etapa de transición hegemónica, estamos viendo el conflicto de la pérdida de hegemonía de la potencia más grande, Estados Unidos, y el acceso de otras, como China. Es un momento muy complejo que no sabemos cómo va a terminar.