Inteligencia artificial: la influencia de la industria de la guerra

  • Imagen
DOSSIER

Inteligencia artificial: la influencia de la industria de la guerra

01 Marzo 2023

En esta nota vamos a seguir cierto derrotero, brevemente, de la búsqueda de miniaturización del mundo, de acuerdo a las necesidades tecnocientíficas requeridas por un esquema político-económico, no sin antes ofrecer algunos puntos de partida, porque no abandonamos la convicción de ser seres histórico-sociales.

Cambridge “es el lugar donde vive mi amiga la doctora Anastasia Christofilopoulou. Anastasia lleva cuatro años preparando una exposición sobre criptografía y el Proyecto Enigma, que ayudó a poner fin a la segunda guerra mundial y marcó el inicio de una nueva era de datos, algoritmos e inteligencia computacional nunca vista antes”, dice Pablo Rodríguez en Inteligencia Artificial. Cómo cambiará el mundo (y tu vida). Esto es, tanto la IA como la computación misma y la electrónica, en su desarrollo, están íntimamente relacionadas con la guerra.

El matemático británico Irving J. Good, quien trabajó en la instalación militar de Bletchley Park donde se construyó la primera computadora de propósito específico Colossus, ha afirmado que “no diré que Turing nos hizo ganar la guerra, pero me atrevo a decir que sin él podríamos haberla perdido”.

Colossus era una computadora de un único programa, por lo que cambiarlo implicaba tener que rediseñar por completo a dicha computadora. Una de las primeras computadoras de propósito general, es decir que pueda ejecutar más de un programa sin ser rediseñada, fue la ENIAC (Electronic Numerical Integrator and Computer), la que, debido a la electrónica y el cableado, requería de un tiempo extraordinario para poder pasar de un programa a otro.

Y sabemos que en la guerra y en la economía el tiempo es la unidad elemental de éxito. John von Neumann, uno de los matemáticos excluidos de la Conferencia de Dartmouth y uno de los “cerebros” del plan nuclear estadounidense, requería de gran velocidad de cálculo, por lo que comenzó a trabajar en el desarrollo de nuevos conceptos para obtener computadoras más eficientes. O como se lee en La Catedral de Turing él está pensando “en algo mucho más importante que las bombas. Estoy pensando en computadoras” [1].

Miguel Artola y Juan Manuel Sánchez Ron, en Ciencia, nos dicen que “afortunadamente, en agosto de 1944 von Neumann coincidió con Hermann Goldstine, a través del cual se enteró de que en la Moore School of Electronics Engineering de la Universidad de Pennsylvania se estaba construyendo un computador electrónico, el ENIAC” para Laboratorios de Investigación en Balística. Goldstine recuerda de ese encuentro que “cuando le comenté que estaba participando en el desarrollo de una computadora electrónica capaz de realizar 333 multiplicaciones por segundo, la atmósfera de nuestra conversación pasó de un relajado buen humor a una más propia del examen oral para un doctorado en matemáticas”.

Precisamente, la presentación social de la ENIAC, el 15 de febrero de 1946, fue ofrecer los resultados de los cálculos de la trayectoria de un misil obtenidos en 15 segundos, lo que a lxs calculistas manuales les hubiese llevado varias semanas de trabajo. Sobre esta presentación Associated Press sostenía en aquel febrero de 1946 que “el robot abre una vía matemática hacia una vida mejor para todos los seres humanos”.

El ordenador de programa almacenado, tal como fue concebido por Alan Turing y construido por John von Neumann, vino a romper la distinción entre números que significan cosas y números que hacen cosas. Nuestro universo ya nunca volvería a ser el mismo” dice George Dyson en La Catedral de Turing. Pero este “ordenador” de von Neumann no está exento de controversia [2]. El científico pionero en áreas de la computación, Willis Ware, sostiene que von Neumann “estuvo en el lugar adecuado y en el momento adecuado, y tenía las conexiones adecuadas y la idea adecuada, dejando de lado el problema, que probablemente nunca se resolverá, de quién fue realmente el autor de las ideas”. Esta afirmación, de alguna manera, indica por qué Turing u otrxs no llegaron a construir una computadora tal la conocemos hoy en día, o, como decía el propio von Neumann a uno de sus estudiantes, “no te preocupes porque la gente pueda robarte una idea, si es original, tendrás que hacérsela tragar con un embudo”. Además, puede sintetizarse que originalidad y necesidad (político-económica) no siempre son simultáneas.

Así se pasó de computadoras como la ENIAC, que era de cálculo decimal, tenía 18000 válvulas, y pesaba cerca de 30 toneladas a la EDVAC (Electronic Discrete Variable Arithmetic Computer) que era de cálculo binario, poseía 6000 válvulas, contenía diodos, y pesaba cerca de 8 toneladas. A la vez disminuía ostensiblemente el tiempo de cómputo. Una excelente descripción de estas computadoras se encuentra en el libro de Hermann Goldstine La computadora. De Pascal a von Neumann.

Por otro lado, Norbert Wiener [3], quien trabajó para las fuerzas armadas de los Estados Unidos en proyectos para guiar a la artillería antiaérea de forma automática mediante el empleo de radares, generando los primeros códigos del cálculo automatizado, también estaba interesado en el desarrollo de nuevas computadoras. A este trabajo lo realizó, parcialmente, junto con Julian Bigelow a quien recomendó para que se uniera al grupo de trabajo liderado por von Neumann. Vale decir que el nombre de Wiener ha quedado un tanto excluido de la historia de la Inteligencia Artificial, en gran medida, porque en sus trabajos filosóficos últimos lo que hizo “no fue desterrar al fantasma de la máquina. En su lugar, demostró que, considerando el patrón formal de sus actividades, el fantasma y la máquina son uno”, según Sergio Rajsbaum y Eduardo Morales, a la vez que sus contribuciones a la cibernética soviética y sus simpatías “orientalistas” –según estos autores– no fueran aceptadas en por la hegemonía tecnocientífica estadounidense y eurocéntrica.

Las autoridades y miembros del Institute for Advanced Study (IAS) de Princeton no recibieron con agrado la idea de que von Neumann se dedicara a la construcción de una computadora para sus trabajos de cálculo en el campo de las ecuaciones de física nuclear, oponiéndose. La enorme influencia de este matemático hizo que el proyecto avanzara, reuniendo el apoyo de la Armada y de la Comisión de Energía Atómica. La computadora del IAS comenzó a funcionar hacia 1951/52, proyecto que se fue abandonando paulatinamente, pero habiendo dejado las bases de lo que serían en adelante las computadoras de propósito general.

Por esos tiempos, también, surge en el mundo de la electrónica el transistor. Aquí deben indicarse al menos cuatro grandes aspectos que derivaron en la obtención de tal objeto tecnológico: el económico (las válvulas requerían un costoso nivel obtención y de mantenimiento); los desarrollos novedosos de la Mecánica Cuántica aplicables a la electrónica; aprovechar las prometedoras propiedades semiconductoras de materiales como el germanio; y no menos importante el involucramiento del área de desarrollo e investigación de los Laboratorios Bell, creados entre 1907 y 1925 bajo la órbita de la poderosa American Telephone and Telegraph Company (AT&T), los que durante años manejaron uno de los presupuestos más elevados del mundo en investigación tecnocientífica debido al monopolio de AT&T y la protección gubernamental. Asimismo, hay que recordar que los Laboratorios Bell, al comenzar la guerra, pasaron a integrar lo que en estas latitudes conocemos como el triángulo Sabato, el que es integrado entre el Estado, el sistema productivo y el sistema académico-científico. El historiador Jon Gertner sostiene en La Idea de Factoría: Bell Labs y la gran era de la innovación estadounidense que “los Laboratorios Bell se hicieron cargo de casi mil proyectos distintos para el ejército, desde equipos de radio para tanques hasta sistemas de comunicaciones para pilotos que llevaban máscaras de oxígeno, pasando por máquinas de cifrado para codificar mensajes secretos”.

El ejército estadounidense compraba cada transistor a 16 dólares, Haggerty dispuso que ingenieros y técnicos de la Texas consiguieran fabricarlos y su costo de venta sea menor a 3 dólares. Lo lograron, y así también lograron ingresar al competitivo mercado.

El día después de la guerra

Terminada la guerra, en los Laboratorios se creó un grupo “para obtener una visión unificada del trabajo teórico y experimental en el campo del estado sólido”. El grupo fue liderado por el reputado investigador William Shockley, integrante de la empresa desde 1936, y en el mismo se incluyó a Walter Brattain, a Gerald Pearson (quien luego desarrollaría las celdas solares), a Robert Gibney, a Hilbert Moore, y a Stanley Morgan. A los efectos de un dominio teórico específico, se contrató al físico John Bardeen, quien se había doctorado con uno de los fundadores de la Física de Estado Sólido, el físico húngaro radicado en Estados Unidos y amigo personal desde la adolescencia de John von Neumann, Eugene Wigner.

Luego de varios meses de ensayos experimentales e interpretaciones teóricas, la dupla del físico experimental W. Brattain y el físico teórico J. Bardeen dio con los elementos necesarios para la construcción del transistor, cerca de la Navidad de 1947. Esta construcción teórico-experimental es uno de los grandes acontecimientos del siglo XX, dando lugar a una de las revoluciones tecnológicas sin precedentes. En el libro Los innovadores se dan detalles sobre el descubrimiento, y, en particular, sobre la ira de W. Shockley de no habérsele ocurrido a él la idea, quien aseguró que “sentía el impulso competitivo de inventar por mi cuenta algo importante relacionado con el transistor”, además de buscar por todos los medios de apropiársela.

El 30 de junio de 1948, la prensa se congregó en el auditorio del antiguo edificio de los Laboratorios Bell […] se presentó a Shockley, Bardeen y Brattain como un grupo, y estuvo moderado por el director de investigación, Ralph Brown […] Hizo hincapié en que el invento surgía de la combinación de trabajo en equipo y brillantez individual. «Cada vez es más patente que la investigación científica es un trabajo de grupo o en equipo […] Lo que hoy les presentamos aquí constituye un magnífico ejemplo de trabajo en equipo, de brillantes contribuciones individuales y del valor de la investigación de base en un contexto industrial»”, relata Walter Isaacson.

A pesar del enfrentamiento que los separaría de por vida, Laboratorios Bell obligó “a que Shockley figurase en todas las fotos publicitarias junto con Bardeen y Brattain. La más famosa los muestra a los tres en el laboratorio de Brattain. Justo antes de que se tomase la instantánea, Shockley se sentó en la silla de Brattain, como si esos fuesen su mesa y su microscopio, y ocupó así el punto focal de la imagen. Años después Bardeen describiría la consternación que Brattain aún sentía al recordar el episodio, y el rencor que le guardaba a Shockley. «Walter odia esta imagen. […] Es su equipo y nuestro experimento; Bill no tenía nada que ver con ello»”, se cuenta en Los Innovadores. Los tres investigadores ganaron el Premio Nobel de Física en 1956.

Bardeen abandonó los Laboratorios Bell, para trasladarse a la Universidad de Illinois. Allí nombró como su asistente al físico Nick Holonyak, quien profundizaría las investigaciones en Física de Estado Sólido, diseñando el primer Diodo LED (1962), luego el primer Diodo Laser de espectro visible dando surgimiento a una tecnología masiva que en la década de los ‘80s decantó en la lectura de los códigos de barra, de los CD’s musicales y los DVD’s, entre otras cosas. Por su parte, Bardeen continuó trabajando en ideas de conducción eléctrica, en particular sobre superconductividad, ganando por ello, nuevamente, el Premio Nobel de Física en 1972.

Los Laboratorio Bell, el precioso lugar de la innovación estadounidense a partir de la década del ’30, no podía comerciar sus inventos, debido a formar parte de una compañía regulada, monopólica en servicios telefónicos, y tenían prohibido por ley aprovechar su posición privilegiada para entrar en otros mercados. Es conocido el hecho de optar por una política “generosa” al momento de ceder las patentes para que otras empresas fabriquen lo que en sus laboratorios se iba descubriendo. “En el caso del transistor, fijaron un precio notablemente bajo, 25000 dólares, para cualquier compañía que quisiese producirlos, e incluso ofrecieron seminarios en los que explicaban sus técnicas de fabricación”, según Isaacson.

Patrick E. Haggerty, un ingeniero que había servido a la marina y antes había co-fundado una empresa de prospección petrolera viró los intereses de ésta a una empresa de tecnología electrónica, la Texas Instruments, y hacia 1952 emprendió una feroz negociación para hacerse de los derechos de fabricación de transistores. Además, contrató al destacado fisicoquímico de los Laboratorios Bell, Gordon Teal, quien había trabajado en el perfeccionamiento de los transistores a partir del empleo de monocristales de germanio. Haggerty le pidió a Teal que logre un diseño de transistor de silicio (entre otras cosas, porque el silicio es uno de los materiales superabundantes a nivel terrestre). En mayo de 1954 se presentó el dispositivo, y comenzó la era de lo que Éric Sadin ha denominado La Siliconización del Mundo. La irresistible expansión del liberalismo digital.

Por esa época, el ejército estadounidense compraba cada transistor a 16 dólares, Haggerty dispuso que ingenieros y técnicos de la Texas consiguieran fabricarlos y su costo de venta sea menor a 3 dólares. Lo lograron, y así también lograron ingresar al competitivo mercado. Además, Haggerty estaba interesado en la fabricación de radios portátiles, y cuando intentó convencer a gerentes de grandes compañías para ello, como la RCA, estos les respondieron que los consumidores no estaban pidiendo “radios de bolsillo”. Una pequeña empresa de Indianápolis aceptó la propuesta en junio de 1954, y en noviembre de ese año dio a conocer la Regency TR-1, que empleaba 4 transistores, se vendía por menos de 50 dólares, y en su manual se decía que “en caso de ataque enemigo, su Regency TR-1 será una de sus posesiones más preciadas”. En un año se vendieron cien mil unidades, de esta novedad que venía con carcaza plástica en los colores negro, marfil, rojo mandarina y gris nube, constituyéndose el objeto de deseo masivo y obsesión para la juventud. En Los Innovadores se remarca que “se estableció una relación simbiótica entre la aparición de la radio de transistores y la irrupción del rock and roll. La primera grabación comercial de Elvis Presley, «That’s All Right», salió a la venta al mismo tiempo que la radio Regency”.

La radio de transistores, según reflexiona Isaacson, “se convirtió en el primer ejemplo significativo de un tema característico de la era digital: cómo la tecnología convierte los aparatos en dispositivos personales”. Así “ya no era un electrodoméstico que estaba en el salón y que había que compartir, sino un dispositivo personal que nos permitía escuchar nuestra propia música cuando y donde quisiésemos, incluso la música que nuestros padres preferirían que no oyéramos”. Y en la mudanza de la radio de válvulas a la radio de transistores, también se dio el primer gran salto tecno-epistemológico, el acceso masivo a la tecnología tenía efectos en los campos de transmisión del conocimiento. Hacia fines de la década de los ’60 en todo el mundo se conocía sobre el transistor.

En épocas del lanzamiento de la Regency, el jefe de IBM, Thomas Watson Jr., compró cien radios y las distribuyó entre directivos y científicos bajo la orden que se pusieran a estudiar cómo esa tecnología podía ser aplicada a computadoras.

Ahora comienza otra historia, la que actualmente se denomina aceleracionismo tecnológico, debido a las potencialidades del silicio, y su engarzamiento en el sistema productivo capitalista. De ello tratará la próxima nota de este tema y que es el corazón de la Inteligencia Artificial, de cómo el transistor posibilitó el pasaje al mundo del microchip y los procesadores.

Notas

[1] von Neumann fue un integrante del plan nuclear estadounidense, formando parte del equipo de toma de decisiones estratégicas en el área hasta su muerte en 1957. De von Neumann es el diseño del método de implosión, sistema de cálculo que predice a qué altura debe estallar una bomba nuclear para producir el máximo daño. John von Neumann fue, quizás, unx de lxs más excepcionales científicxs del siglo XX y de toda la historia. Para tener en cuenta la dimensión de su capacidad y pensamiento, quien quiera profundizar sobre su biografía, puede consultar el libro Los innovadores, de Walter Isaacson, o, por supuesto, en la muy completa entrada sobre él de Wikipedia.

[2] El primer borrador de un informe sobre el EDVAC es un documento incompleto de 101 páginas, que escribió von Neumann y distribuyó Goldstine en 1945. Contiene la primera descripción publicada del diseño lógico de una computadora que utiliza el concepto de programa almacenado, y da origen a lo que se denomina arquitectura de computadoras (arquitectura de von Neumann), casi tal como son las computadoras hoy en día. El físico John Mauchly y el ingeniero electrónico John Eckert han acusado sistemáticamente a von Neumann de robarles la idea. Walter Isaacson sostiene que “más importante que identificar la procedencia de las ideas es apreciar cómo la innovación generada en Pennsylvania fue otro ejemplo de creatividad en equipo. von Neumann, Eckert, Mauchly, Goldstine, Jennings y muchos otros discutían las ideas colectivamente y buscaban la opinión de ingenieros, expertos en electrónica, científicos de materiales y programadores”.

[3] Dada la contradictoria vida y la complejidad de su obra, Wiener merece más que una nota al pie. Escribiremos sobre él en otras entradas de esta agencia.