EN LOS COMIENZOS FUE LA INTERFAZ GRÁFICA (GUI)

"El juego [con productos de la técnica] sería el 
pretexto más hermoso del mundo para comenzar algo 
tan útil para el público como esto. Pues sería 
necesario hacer caer al mundo en la trampa, aprovechar 
su debilidad y engañarlo para curarlo. ¿Hay acaso 
algo más justo que hacer que la extravagancia sirva 
para el establecimiento de la sabiduría? Esto es, 
ciertamente, mezclar lo útil con lo agradable y 
transformar un veneno en un antídoto". 
(G. W. Leibniz, 1675 – la traducción es mía)

El tipo de relación que entablamos con las máquinas es tema de debate hoy, pero se ha discutido desde hace siglos. Un artículo de Darío Sandrone, “Cyborg y autómata: dos modelos para pensarla IA” ahonda en las relaciones entre las personas, las máquinas y la sociedad. Su análisis se remonta al siglo XVII aunque el epígrafe de su artículo sugiere que el problema ya había sido reconocido en los tiempos de Platón y Aristóteles (s. IV a.C.)

Han pasado cuarenta años del lanzamiento al mercado de la primera computadora personal con interfaz gráfica o GUI (por “Graphical User Interface”): la Macintosh 128k, una computadora de escritorio cuyo procesador, disquetera y pantalla estaban integrados en un mismo módulo, al que se conectaban dos periféricos de entrada: el teclado y el mouse. La GUI, y esta es la principal idea que quiero defender aquí, cambió radicalmente nuestra relación con las máquinas y contribuyó a la constitución de un sujeto social ubicuo al que llamamos usuario.

Evocando el título de un fundamental libro de Neal Stepheson, en los comienzos de la computación fue la línea de comandos. Pero el inicio de un tipo muy diferente de relación de las personas con la computadora estuvo marcado por el surgimiento de la interfaz gráfica.

*

Un comercial televisivo de Apple que promocionaba la Mcintosh 128k se burlaba del vaticinio de Orwell en 1984, su célebre ficción escrita en el año 1947. Lejos de un futuro distópico donde la tecnología al servicio de la vigilancia y opresión violenta configuraban –promediando el siglo XX– el tejido de nuestras sociedades, la nueva Macintosh era testigo del New Wave, y punta de lanza de una tecnología que abriría a sus selectos usuarios infinitos mundos.1

La GUI, esa abstracción2 que nos llevó de un universo discreto a uno continuo y que permitió explotar aspectos propios de la cognición humana como la visualización y el razonamiento espacial, significó un punto de quiebre en la relación humano-máquina por dos razones –que en verdad no son más que dos caras de una misma moneda. La primera fue que la pantalla de la computadora por primera vez3 ofrecía una representación icónica de sus objetos. Esto significaba que, por ejemplo, los pasos para abrir un procesador de textos eran por primera vez análogos a los que realizamos para abrir un cuaderno y escribir en él. La interfaz con el usuario hasta entonces era, y lo fue por varios años más, la consola de línea de comendos o CLI (por Command-Line Interface).

Durante el reinado de la CLI la figura del usuario aún no estaba del todo establecida. Se empleaba en su lugar el término “operador” u “operario”.4 Éste remitía a los antiguos operarios que realizaban, en tiempos de los “mainframes” –es decir, de las computadoras que ocupaban habitaciones enteras– muchas de las acciones rutinarias que luego realizarían los sistemas operativos. Por ejemplo, la documentación de un sistema operativo solía titularse “Operator Manual” en lugar de “User Manual”. Y en la documentación del editor de texto ED el término “operador” aparecía en cada una de las entradas del índice.5

Ahora bien, para reemplazar la figura del operador por la del usuario se requería de algo más, y esta en la segunda razón por la que considero que la GUI cambio profundamente la relación humano-máquina. La GUI sepultó definitivamente todo viso de lenguaje maquínico en las computadoras. La práctica de la computación debía obviar y aun desconocer que “todo lo que usted ve en la pantalla sigue siendo, desde el punto de vista de la computadora, como telegramas…”. (Cf.Neal Stephenson, 1999 – La traducción es mía)

Durante la pandemia hurgué en documentos y registros de la primera mitad de la década de 1980 y por suerte todavía conservo algunas notas de interés sobre el presente tema. Al lector puede parecerle una cosa menor, un detalle escrupuloso, indagar en la emergencia de la figura del usuario. Actualmente el acople con los dispositivos computacionales es casi total. El software se ha convertido en una capa que permea todas las áreas de nuestra sociedad (cf. Manovich 2013). Incluso, mientras dormimos, nuestro perfil en redes sociales sigue despierto. ¿Acaso no reviste interés indagar en las fuerzas culturales que conformaron el universo del software y que, a través de éste, conformaron un nuevo sujeto social, un ciudadano qua usuario?

Documentos y testimonios
En la nota principal del Vol. 7, Nro. 1, de la revista Bytes, publicada en el mes de enero de 1982, se presenta una reseña exhaustiva de la –hoy de culto– IBM Personal Computer. Fue la primera computadora de escritorio de la empresa IBM, lanzada al mercado en agosto de 1981. La IBM/PC impactaría de manera decisiva en el mercado de lo que entonces se denominaba la micro-computación. Tras una negociación fallida entre IBM y Gary Kildall, creador de CP/M –el primer sistema operativo para microprocesadores–, DOS6 se convertiría en el sistema operativo de las IBM/PC. Estaba naciendo un imperio. Se acababa de consumar un acuerdo histórico entre IBM y Microsoft con el que comenzarían –en el todavía emergente universo de la micro-computación– los tiempos de oscuros acuerdos de confidencialidad y del software de código propietario.7

La reseña de la revista Bytes compara el sistema operativo DOS con CP/M. Ambos, cabe aclarar, estaban desprovistos de interfaz gráfica. Indica una ventaja de aquél sobre este último. Según la revista, el comando para copiar archivos COPY de DOS estaba “mejor redactado” que el comando PIP de CP/M. La revista se detiene en este punto, un detalle insignificante para un operador, pero probablemente decisivo para hacer llegar la computadora al gran público. En la jerga actual, diríamos que el comando COPY, comparado con PIP, es un comando más amigable con el usuario —user friendly.

Este criterio de usabilidad empezaba a adquirir mayor fuerza a medida que el mercado de la micro-computación se expandía. Así, en una emisión de marzo de 1984 del programa televisivo The Computer Chronicles, Stewart Cheifet –conductor del programa– entrevistó a Gary Kildall –quien a su vez solía co-conducir el programa– con motivo del reciente lanzamiento al mercado de una versión multi-tarea de CP/M-86. Esta versión de CP/M permitía ejecutar varios programas al mismo tiempo en diferentes consolas, posibilidad técnica que en otros sistemas operativos llegaría varios años más tarde, promediando la década de 1980. Stewart Cheifet le solicitó primeramente a Gary Kildall que le explicara a la audiencia qué es un sistema operativo. A su lado se encontraba Tony Fanning, un alto personal de ingeniería de Hewlett-Packard, a quien, tras la respuesta de Kildall, le consultaron qué esperaba él, como usuario, de un sistema operativo. Fanning respondió:

“En verdad cuando voy a usar un sistema operativo quiero que me resulte transparente, no quiero poder verlo, tan sólo quiero poder usar una aplicación (…) si lo que estoy tratando de hacer es, por ejemplo, procesar un texto, me gustaría que el sistema operativo desaparezca y no me moleste”. (The Computer Chronicles, Programa 5, año 1984, min. 10:00-10:26 – la traducción es mía)

Las palabras de Fanning caracterizan con notable precisión la figura del usuario. Indican la necesidad de entablar una relación entre las personas y la computadora exclusivamente en el nivel de las aplicaciones. En otros términos: indican la necesidad de velar la compleja trama de variados niveles inferiores de software y componentes de hardware de una computadora. Nuestra relación con la computadora cambiaría para siempre. La figura del usuario, aún difusa para Gary Kildall –quien en esa misma emisión aún utilizaba el término “operador”– se empezaba a proyectar en relación con las aplicaciones, y éstas, con un campo laboral que iba a sufrir importantes transformaciones a medida que muchas actividades, otrora realizadas por agentes humanos, empezaban a ser reemplazadas por aplicaciones. También las actividades ociosas empezaron a verse notablemente transformadas a partir de entonces. Los dichos de Fanning estaban exigiendo la creación de un sistema operativo a la medida de un usuario. Pero este usuario debía ser construido. Había que dejar atrás la figura del operador, término aún vigente y que podemos identificar en incontables pasajes de la revista Bytes de aquellos años. Un operador, digámoslo de una vez, era una persona con cierta “expertise” en el manejo de la computadora, con conocimientos básicos de su arquitectura, y capaz de utilizar un sistema operativo desprovisto de interfaz gráfica –como lo eran tanto CP/M y MS-DOS.

Si no se ve, está en todas partes
La computación ubicua hoy esconde tramas de poder quizás desentrañables. Estas tramas constatan, una vez más, el carácter de no neutralidad de las tecnologías computacionales. Como hacen notar las palabras de Leibniz que encabezan esta publicación, antes que la vigilancia explícita y la opresión violenta al estilo de Orwell, sería más efectivo el desarrollo de una tecnología que consiga “hacer caer al mundo en la trampa, aprovechar su debilidad y engañarlo para curarlo [haciendo] un antídoto de un veneno”: ideas afines debieron tener en mente personas como Bill Gates, Steve Jobs o Mark Zuckerberg cuando conformaron su modelo de negocios.

La mejor interfaz, retomando las palabras Tonny Fanning, es aquella que desaparece o resulta imperceptible. La consecución de tal objetivo volvió inocua la figura del operador y pondría en la vereda del frente a dos comunidades del universo de la computación: el hacker –originada en los ’60 en el MIT durante la creación del sistema operativo UNIX– y el hobbyst –originada en los ’70 con la creación de las primeras micro-computadoras. Para ambas comunidades la computadora era un artefacto intrínsecamente interesante, objeto de exploración y modificación continua. Por el contrario, un usuario –citando palabras de Francisco Albarello– guarda un tipo de relación práctica con la computadora:

“[El usuario] no está interesado en la tecnología excepto como algo que permite una aplicación. A partir de 1984, con la intervención de la Macintosh de Apple y su Interfaz Gráfica de Usuario, se estimuló a los usuarios a permanecer en un nivel superficial de la representación visual en la pantalla. De la seducción por la programación –protagonizada por el hacker y el hobbyst– pasamos entonces a la seducción por la interfaz: las atractivas simulaciones y los íconos de pantalla permitieron acceder sin problemas a los programas y aplicaciones, y posibilitaron el aprendizaje a través del mecanismo de ensayo-error”. (Cf. Alberello 2019)

Siguiendo la línea planteada por Albarello, la seducción por la interfaz promovió la práctica de la computación en el nivel de las aplicaciones. En consecuencia, aquello que la GUI volvió imperceptible fue no solamente el ambiente maquínico de la computadora, sino su propiedad de programabilidad, inherente al concepto mismo de máquina universal de Alan Turing. (Cf. Blanco 2015, 102) La figura del hobbyst se extinguiría con la estandarización de la micro-computación –para lo cual, el lanzamiento de la IBM/PC fue determinante–, mientras que la figura del hacker sería demonizada y relegada a los suburbios.

*

Desde que “el software tomó el mando” en la década de 1980 con la primera computadora personal comercializada masivamente –la IBM/PC–, se produjo un cambio notable en nuestros modos de interactuar con las máquinas. La interfaz gráfica (GUI), dada a conocer hace ya 40 años con la Macintosh 128k, contribuyó fuertemente a la constitución de un nuevo sujeto social. El término “usuario”, como sus condiciones de emergencia permiten vislumbrar, es un término opaco aunque políticamente correcto. Favorece un modelo de sociedad donde las personas son un engranaje de las máquinas, i.e., donde las personas asumen un rol de sumisión en un entorno en el que la automatización no cesa. Un modelo muy diferente es aquel que entabla una relación social con las máquinas, i.e., en el que la relación humano-máquina se establece en el registro de la cooperación. Se trata, retomando el artículo de Sandrone mencionado más arriba, de dos modelos muy distintos: uno basado en la noción de autómata; otro, en la de cyborg. (Cf. Sandrone 2023) La computadora es un dispositivo excepcional, altamente versátil. Es una máquina programable. Permanecer como receptores pasivos de la tecnología computacional no es otra cosa que vivir en democracia sin ejercitar el fundamental derecho de participación.

Un hacker, conocido en nuestro medio, supo decir: “la interfaz gráfica destruyó la computación”. En clave leibniziana, le respondería: “qué mejor, para el establecimiento de la sabiduría, que hacer de su veneno un antídoto”.

 

Referencias

  • Albarello, Francisco. (2019) Lectura transmedia. Leer, escribir, conversar en el ecosistema de pantallas, Ediciones Ampersand, Buenos Aires (Argentina).
  • Blanco, J., Rodríguez, P. Sobre la fuerza y la actualidad de la teoría simondoniana de la información. En: (2015) En Amar a las máquinas: Cultura y Técnica en Gilbert Simondon. Ed. Prometeo Libros, Bs. As.
  • Manovich, Lev. (2013) Software takes command. Bloomsbury Academic, New York (2013).
  • Sandrone, D. “Cyborg y autómata: dos modelos para pensarla IA”. En: ¿Un futuro automatizado? Perspectivas críticas y tecnodiversidades. Eds.: Hernán Borisonik, Facundo Rocca. Ed.: UNSAM Edita.
  • Stepheson, Neal. (1999) /In the beginning was… the command line”. Url: https://api.semanticscholar.org/CorpusID:190593631

 

1 Y todo aquello, en un país donde la dupla Reagan-Bush acababan de ser reelectos presidente y vicepresidente respectivamente.

2 En computación el término abstracción refiere a las representaciones asequibles a los humanos –capas de software– que se alejan del lenguaje de máquina.

3 Al menos para el gran público.

4 El término en inglés es “operator”.

5 “The individual commands are detailed below. In each case, the operator must wait for the hyphen prompt character before entering the command…”. (Cf. Manual del editor ED del SO CP/M)

6 Que sería adquirido por Bill Gates y pasaría a llamarse MS-DOS.

7 CP/M estuvo a una firma de ser el sistema operativo de las PC-IBM. Finalmente el lugar de CP/M lo ocuparía MS-DOS, el sistema operativo sobre el que más tarde se montaría Windows. A principios de 1980 IBM decidió pisar fuerte en la industria de la micro-computación. Aún no habían desarrollado su propio SO, de manera que decidieron iniciar negociaciones con Gary Kildall para adquirir CP/M. Gary Kildall junto con Tom Rolander, su mano derecha desde la creación de Digital Research, viajaron en avioneta para reunirse con directivos de IBM. En una entrevista que le hicieron en el año 1995, Tom Rolander -recordando aquella reunión- definió los términos de IBM como un “acuerdo unidireccional y confidencial”. Tras la negativa de Digital Research de cerrar un acuerdo en esos términos, un joven llamado Bill Gates decidió comprar un sistema operativo basado en CP/M y ofrecerle ese SO a IBM. Así nació MS-DOS, el sistema operativo con el que muchos de nosotros crecimos. Digital Research inició acciones legales contra IBM por infringir derechos de autor. Ante esto, IBM retrocedió en las negociaciones con Bill Gates. Finalmente llegaron a un acuerdo. La nueva y poderosa computadora IBM podría bootearse con CP/M o con MS-DOS. La idea era dejar que el usuario decida. La sorpresa llegó cuando Gary y su equipo advirtieron que la nueva computadora IBM había sido lanzada al mercado ofreciendo MS-DOS a 40u$d, mientras que aquellxs que optaran por CP/M debían pagar seis veces ese valor, esto es, 240u$d. La inesperada política de comercialización de IBM marcó el inicio del ocaso de CP/M. Muy pronto IBM y Microsoft ocuparían un lugar dominante en el mercado.

Los comentarios están cerrados.