Imaginar la Red
Un trabajo de
para
Otoño de 1995
Tabla de contenidos
Imaginar la red, este es el quid de la cuestión. Cuando vemos a los analistas proponer usos para las redes digitales de banda ancha, que en pocos años conectarán al parecer todos los hogares y empresas del primer mundo, aparecen aplicaciones como el vídeo a la carta, los juegos interactivos o la telecompra. Piensan, en definitiva, una especie de televisión sofisticada y un mundo dividido entre proveedores de información y pasivos consumidores de la misma. ¿Serán pues las llamadas "infopistas" una versión renovada de los mass media actuales, una herramienta aún más eficaz para garantizar el control social a través de unos contenidos alienantes?
Aunque todo el mundo parece estar convencido de que las infopistas serán un hecho, existen aún serios problemas para su definitiva implantación, tanto técnicos como políticos y económicos. Y lo que es más importante, no están en absoluto definidos cuales serán sus usos y sus contenidos, de la misma forma que nadie sabe como será esa máquina, cruce de teléfono, televisión y ordenador, sofisticado terminal con el que navegaremos por la infoesfera. En lo que sí todo el mundo coincide es en afirmar que, aunque Internet no es igual a las futuras redes, si que es lo más parecido que ahora tenemos.
¿Y cómo es Internet? Al intentar entender las razones del éxito de Internet descubrimos una serie de aspectos que no aparecen en el modelo de red comercial y unidireccional apuntado más arriba:
Internet refleja a sus usuarios. A modo de una nueva sociedad habitante de un territorio virtual, Internet acoge tanto a individuos como a grupos, permitiendo a todos desarrollar libremente la identidad que les representará dentro de la red.
Internet es interactiva, en el sentido etimológico del término. Permite, por lo tanto, la acción entre iguales, sin jerarquías ni filtros.
Internet es democrática. Sus contenidos son proporcionados por los mismos usuarios y, aunque ya empiezan ha aparecer vendedores de información, el grueso de los contenidos que aparecen en la red son elaborados y ofrecidos de forma desinteresada.
Esta realidad, la esencia democrática de Internet, da miedo a determinados poderes fácticos. Estos ya han puesto en movimiento a sus creadores de opinión, incitadores de una campaña de desinformación a la que incluso da pábulo la prensa española más respetable. Concretando, parece que es posible realizar una amplia gama de delitos a través de Internet, desde el robo bancario al comercio de pornografía pasando por la subversión política, creándose una situación de inseguridad para nuestras propiedades y costumbres morales. Nos intentan convencer de que Internet es peligrosa y necesita por lo tanto un mayor control.
Discutir sobre los aspectos técnicos de las infopistas es importante, en la medida que estos hacen posibles determinados usos, pero es aún más importante tratar sobre los contenidos que habrán de circular por las mismas. En un futuro próximo se vivirán importantes batallas por el control de las nuevas redes, en una larga guerra que ya ha empezado. En la lucha se dirimirá quien , instala y posee las infraestructuras que harán posible las infopistas, pero esa lucha será nimia comparada con la que se realizará para determinar quien proporciona los contenidos, aquello que circulará a través de la red y que la dotará de sentido. Pronto nadie hablará ya de los aspectos técnicos de las infopistas: simplemente existirán, y sólo será tema a tratar lo relacionado con la información que circulará por ellas.
Pensemos en el trascendente papel que juegan los mass media en la definición de nuestra identidad cultural. Es abrumador observar como participa la televisión en la definición de la realidad misma, de aquello que para el imaginario colectivo realmente sucede; o la forma en que la opinión colectiva viene determinada por los irresponsables charlatanes radiofónicos. Ante la aparición de un nuevo medio, que promete substituir y ampliar en gran medida a parte de los actuales, es necesario tomar conciencia del singular momento histórico que nos disponemos a vivir: nos deberíamos sentir como quien viviendo el nacimiento de la televisión supiese ya con certeza cual habría de ser su futura trascendencia e influencia social.
No es saludable aguardar en silencio a que los poderes políticos o económicos y las grandes empresas de la información decidan cómo hemos de usar las redes y lo que encontraremos en ellas. Tenemos la imperiosa necesidad iniciar un debate social respecto a cómo creemos deberían ser las infopistas, en la esperanza de que podamos influir en su forma final sin esperar a que otros la decidan por nosotros. Habría que hacer para ello un esfuerzo colectivo de imaginación, propongo imaginar la red, un ejercicio necesario para debatir cómo queremos que sean las infopistas, y este texto pretende ser simplemente un pequeño estímulo a tan trascendental discusión.
El medio de transmisión determina aquello que es posible transmitir. La comunicación a través de redes digitales comparte características con las redes telefónicas y con los medios difundidos por ondas —como radio y televisión—, garantizando al mismo tiempo la integridad de los datos transmitidos. Pero a pesar de las similitudes, las transmisiones digitales por cable representan una tecnología original, con sus propias características, y esto determina lo que se puede hacer y lo que no se puede hacer a través del cable.
Una dificultad añadida para la comprensión, y también la descripción, de la tecnología del cable se halla en las grandes diferencias que se dan entre la actual tecnología, la que sustenta Internet, y la que se habrá de desarrollar para hacer posible las infopistas. La confusión en relación a este tema es grande y hemos de empezar por aclarar que las tecnologías que se usarán en las redes de banda ancha no serán las mismas que se hallan en uso actualmente. Esto no quiere decir que carezcamos de soluciones tecnológicas a las necesidades que plantearán las infopistas, sino que no hay acuerdo sobre cuales de estas soluciones serán aceptadas de modo general. El consenso y la estandarización son los elementos que pueden hacer posible una tecnología o condenarla al fracaso, como bien demuestran las experiencias vividas con los distintos formatos de vídeo o el freno que está sufriendo la televisión de alta definición. Nada nos puede hacer pensar que el desarrollo de las infopistas no haya de estar sujeto a problemas semejantes.
Ahora bien, que una tecnología permita un determinado uso no quiere decir que ese uso se de finalmente. Si en algo las nuevas redes son en potencia capaces de revolucionar los hábitos comunicativos es gracias a su bidireccionalidad: a través del cable se puede tanto recibir como emitir, tal como ahora ya se puede hacer en Internet. Pero si analizamos los llamados sistemas online, como el veterano Compuserve o los nacientes Microsoft Network e Infovía, descubriremos que la capacidad de sus usuarios para introducir información está seriamente limitada, existiendo siempre una clara delimitación entre aquello que ofrecen los proveedores de información y los mensajes que los usuarios pueden intercambiarse, aunque sea a través de un medio público como un boletín de noticias. Si no sabemos exigir una red verdaderamente democrática y cooperativa podemos encontrarnos dentro de pocos años con unas autopistas de la información de dirección única. Para que eso no suceda debemos empezar a conocer con exactitud las características del medio y lo que es posible hacer a través de él.
Expresado en forma intuitiva no es difícil comprender qué es el ancho de banda de una conexión digital: no es mas que el caudal de información capaz de circular por el cable. A mayor ancho de banda, más información puede circular en un tiempo dado. La transmisión de simple texto necesita de un ancho de banda sumamente modesto, y es en base a este hecho que se han diseñado muchas de las redes que conforman Internet. Sin embargo la información multimedia, es decir, sonido e imagen tanto fija como en movimiento, requiere de un gran ancho de banda. La gran capacidad exigida a la red por este tipo de datos, junto al afán que se ha desatado últimamente por transportar información multimedia a través de Internet, está llevando al límite del colapso a muchas de las redes que la componen.
Es un tanto paradójico, pero estamos hablando de las redes de banda ancha, las que permitirán transmitir en tiempo real sonido de alta fidelidad y vídeo, cuando tan solo estamos empezando a poder disponer de las de banda estrecha. La red digital de banda estrecha es conocida en España por las siglas RDSI (Red Digital de Servicios Integrados). Esta permite transmitir sonido de baja calidad, válido para la voz pero no para la música; da lugar a algún nuevo servicio como la videotelefonía, y utilizada para la transmisión de datos ofrece un ancho de banda de 65,536 bits por segundo. Esto representa un gran avance respecto a lo que podemos obtener incluso con el mejor de los modems, pero todavía está muy lejos de lo que necesitaremos para conectar con las infopistas. Por otro lado, la RDSI es aún cara y los servicios que se pueden obtener contratando su conexión a la Compañía Telefónica no están claros. Además, usar la RDSI puede obligarnos a cambiar los terminales actuales (teléfonos, fax, centralitas, enlaces con ordenadores) o en todo caso a usar molestos adaptadores. Las ventajas de adoptar la RDSI para nuestras comunicaciones pueden ser más o menos claras, pero no se acaba de saber demasiado bien que costes representa este cambio y, lo que es peor, cuanto tiempo disfrutaremos de la RDSI antes de que sea sustituida por la futura RDSI de banda ancha.
Nuestro anhelo final como consumidores tendría que ser el disponer en casa o en el trabajo de un cable por el que pudiese circular indistintamente, y de forma simultánea, tanto voz como datos, música e imagen. Los obstáculos técnicos no existen, siendo necesario tan solo demostrar que las inversiones necesarias para realizar el cableado podrán ser amortizadas. Las dificultades que se dan en la actualidad son de tipo político —competencias entre distintas administraciones— y comercial —cuotas de mercado entre los proveedores telefónicos y los de televisión por cable—. Cada país ofrece sus pequeñas variantes a esta problemática, lo que supone una dificultad añadida a un tema que ha de ser resuelto a escala supranacional.
Existen dos modelos respecto a la forma en que puede realizarse la transmisión de información a través de un cable: las redes de circuitos y las redes de paquetes.
El principal ejemplo de red de circuitos lo representa la red telefónica. En ella, y una vez establecida la conexión —lo que implica un circuito entre los teléfonos participantes en la comunicación—, es posible transmitir el sonido de forma instantánea entre dos puntos cualesquiera, pero no está garantizada la integridad de los datos. Esto significa que, a causa de las múltiples interferencias que puede sufrir la línea, el sonido puede llegar a su destino muy distorsionado, pero esto no es generalmente importante a fin de comprender la voz del interlocutor. Por otro lado, el ancho de banda de la red telefónica es muy reducido, lo que la hace inadecuada para la transmisión de sonido de alta fidelidad. Otra característica de la red, conocida por todos, es su capacidad de saturación: para ponerla a prueba tan sólo hay que intentar telefonear inmediatamente después de comer la uvas de noche vieja. La red se satura porque el número de circuitos que es posible establecer es finito, y cuando todos están ocupados no se puede hacer otra cosa que esperar a que alguno de ellos se libere.
Las redes de paquetes no han sido de conocimiento popular hasta el reciente éxito de Internet y resuelven las dos limitaciones fundamentales de las redes de circuitos. Por una lado, la información es dividida en paquetes para su transmisión y recompuesta una vez ha llegado a su punto de destino, lo que permite un aprovechamiento óptimo del ancho de banda total de la red, ya que éste se reparte dinámicamente entre todos los usuarios que concurren en un momento dado. Además está garantizada la integridad de los datos, ya que un paquete puede ser retransmitido si en el punto de destino se comprueba que ha llegado corrompido o si simplemente no ha llegado. Una evidente limitación de las redes de paquetes está en que la transmisión de éstos puede sufrir importantes retrasos, especialmente en redes ruidosas que obliguen frecuentemente a retransmitir paquetes defectuosos, o cuando el número de usuarios entre los que se ha de repartir el ancho de banda es excesivo.
La red ideal habría de tener tanto características de las redes de circuitos como de las de paquetes. Afortunadamente, la solución a esta necesidad existe y se llama ATM (Asynchronous Transfer Mode>). ATM promete ser el protocolo de transporte ideal para las líneas de banda ancha, permitiendo tanto el transporte de paquetes como el establecimiento de canales virtuales y la reserva de ancho de banda. Con gran probabilidad el código de circulación para viajar por las infopistas será ATM, que de forma tímida está empezando a ser experimentado y sustituirá progresivamente a los protocolos usados hoy en día en las redes de paquetes, tanto en las de larga distancia como posiblemente también en las redes de área local.
Para hacer posible el transporte de información digital a través de una red hacen falta un conjunto de reglas que garanticen el buen uso de la red. Estas reglas constituyen los llamados protocolos de comunicaciones, responsables de definir desde el punto de vista lógico cómo se ha de organizar el tráfico a través de la red, cómo halla un paquete su destino, qué se debe hacer en caso de error, cómo es un mensaje de correo, etc.
Disponiendo de esta mínima descripción de lo qué es un protocolo ya podemos intentar definir que es Internet. Para empezar hemos de decir que Internet no es una red de ordenadores, sino que es una red de redes. Internet existe gracias a una serie de protocolos de comunicaciones, conocidos primero con el nombre de los dos más importantes, TCP/IP (Transmission Control Protocol,Internet Protocol), y más recientemente con el apelativo genérico de conjunto de protocolos de Internet (Internet Protocol Suite). Internet ha sido posible porque existen los protocolos necesarios para poner en contacto multitud de redes, estructuradas con diferentes arquitecturas y que internamente pueden usar protocolos distintos. Para que una red pueda unirse a Internet no tiene mas que acatar y utilizar las reglas definidas por el conjunto de protocolos de Internet.
Un término habitual utilizado para definir distintos aspectos del funcionamiento de Internet es el de "arquitectura cliente-servidor". Con esta extraña expresión se describe la simple relación que mantienen dos ordenadores cuando, en régimen de colaboración, uno presta un servicio al otro.
Muchos de los protocolos de Internet describen como deben conversar dos ordenadores, el cliente y el servidor, a fin de realizar una determinada transacción. Así, por ejemplo, el FTP (File Transfer Protocol) describe cómo el ordenador cliente debe negociar con el servidor la transmisión de un fichero, los detalles respecto a como el cliente demuestra su derecho a acceder fichero, cómo se ha de proceder en caso de que se produzca un error o se interrumpa la comunicación, etc.
La división entre clientes y servidores se da entre ordenadores y también entre programas. Existen por lo tanto programas servidores, encargados por lo general de almacenar la información o de transportarla por la red, y programas clientes, aquellos que utiliza el usuario final para acceder a la información. Esta dualidad se da en todas las aplicaciones de Internet que serán descritas más adelante.
La arquitectura cliente-servidor hace posible una verdadera distribución del esfuerzo entre todos los ordenadores de una red, y en principio todos los ordenadores pueden actuar como clientes o servidores, tanto alternativamente como de forma simultánea. Dada esta posibilidad podemos esperar que en las infopistas dispondremos, por ejemplo, de una evolucionada versión del actual contestador automático, donde nuestro ordenador dialogue con el llamador en forma sofisticada. No es evidente en estos momentos que esta u otras soluciones similares puedan llegar a ser realidad, estando todavía por confirmar que todos los ordenadores tendrán derecho a actuar como servidores en las futuras redes.
Internet representa en estos momentos el único ejemplo del que disponemos para, mediante su análisis, aventurar cuales serán los nuevos modos de comunicación que las infopistas pueden hacer posibles. Este análisis permite descubrir cuatro paradigmas de comunicación interpersonal: el correo electrónico, los boletines de noticias, los sistemas de conversación en tiempo real y el World Wide Web, un sistema de publicación de información multimedia basado en enlaces de tipo hipertexto. Cada uno de estos entornos posee características propias y delimita un modelo particular de comunicación, en ocasiones inspirado en otros modelos preexistentes, pero casi siempre con aspectos singulares derivados de su naturaleza telemática.
La red ARPA (Advanced Research Projects Agency), conocida también como Arpanet, nació en diciembre de 1969 para unir cuatro universidades americanas. Fue la primera piedra de lo que ahora llamamos Internet y, aunque tenía como objetivo hacer posible la comunicación entre ordenadores, pronto se hizo evidente que también permitía la comunicación entre personas. Con el correo electrónico primero, y seguidamente con las listas de distribución —que permiten enviar un mismo mensaje a un grupo de subscriptores— se hizo evidente que las redes hacían posible la aparición de modos de comunicación no previstos con anterioridad. La última sorpresa en este sentido la ha supuesto el Web que, con el tremendo impacto que ha causado, ha tenido el efecto de convencer finalmente a gobernantes y operadores de telecomunicaciones de que es posible plantear un nuevo cableado a escala mundial mediante líneas digitales de banda ancha.
Para cuando llegue el momento en que la actual red telefónica mundial haya sido sustituida por una nueva red que trasmitirá voz, imagen y datos de todo tipo, habremos de estar preparados para usarla. La experiencia nos dice que no podemos saber realmente como la usaremos, ni tampoco lo saben quienes ahora mismo la están diseñando. Lo que si podemos hacer es aprender de los usos que Internet ha hecho posibles, aunque sólo sea para saber exigir la misma libertad de que han disfrutado sus usuarios a la hora de imaginarlos y ponerlos en práctica.
En un principio eran dos los usos pensados para dotar de utilidad a las redes telemáticas: el intercambio de información entre ordenadores mediante la transmisión de ficheros, y el acceso remoto a los costosos ordenadores de la época mediante la emulación de terminal. Ambas aplicaciones, conocidas en la jerga de Internet como FTP (File Transfer Protocol) y Telnet (protocolo para emulación de terminales) respectivamente, están claramente destinadas a permitir la comunicación remota entre ordenadores.
El intercambio de mensajes personales mediante correo electrónico representa la primera aplicación de las redes destinada fundamentalmente a hacer posible la comunicación entre personas. El modelo evidente en que se basa el correo electrónico, llamado Email en la jerga de la red, es el del correo común, con el que mantiene similitudes estructurales. Un mensaje, al igual que una carta convencional, se mediante un destinatario, un remitente y un contenido, informaciones utilizadas por el sistema de transporte para trasladarlo a su destino o devolverlo a su origen si esto no fuese posible.
A pesar de estas similitudes, ha sido sorprendente descubrir como aparecían hábitos comunicativos específicos al correo electrónico. La rapidez inherente al sistema, tanto en lo relacionado con la forma de escribir frente a una pantalla como al transporte del mensaje, prácticamente instantáneo, ha dado lugar a un estilo desenfadado, a veces descuidado. Por otro lado, el poco esfuerzo que representa leer o escribir un mensaje parece favorecer una libertad que no ofrece el correo convencional. Esto ha dado lugar a fenómenos originales, como las llamadas war flames, intercambio de mensajes repletos de sarcasmos e ironías, cuando no directamente insultos, en base a alguna discrepancia sobre algún tema en ocasiones banal. La franqueza que permite el sistema ha dado lugar, al igual que lo ha hecho el fax, a un notable aplanamiento de las jerarquías sociales y laborales, siendo posible comunicarse mediante el correo electrónico con personas que tal vez serían inaccesibles de forma directa.
Otra curiosa innovación del correo electrónico la representa la inclusión en el texto de diversos grafismos realizados con el único recurso de los carácteres alfanuméricos. En primer lugar tenemos las smileys, pequeñas acotaciones al texto de tipo alegre como :-), pícaro como ;-) o triste como :-(, que deben mirarse de lado y de las que existen multitud de variantes. Dentro del arte alfanumérico también se hallan las firmas (signatures), complejos diseños con los que se finalizan los mensajes y que a veces desatan guerras de flames debido a su excesiva longitud.
En paralelo al uso del correo electrónico han sido establecidas por sus usuarios algunas convenciones a fin de optimizar las posibilidades del sistema. Así, por ejemplo, se ha determinado que la medida máxima de una firma al final de un mensaje ha de ser de cuatro líneas. Este conjunto de normas, no siempre escritas, constituye una auténtica etiqueta de la red, y así en efecto la denominan sus usuarios: netiquette. Internet ha sido en gran medida una comunidad autogestionada que ha elaborado soluciones técnicas a los problemas de conectividad, ha diseñado las aplicaciones que debían funcionar en la red, y que finalmente ha elaborado los códigos en que se debían basar los miembros de la comunidad para relacionarse entre sí.
Si un ordenador es capaz de enviar un mensaje de correo a un destino particular, también ha de ser capaz de enviarlo a todos los diferentes destinos de una lista. Este sencillo razonamiento dio lugar a las listas de distribución, el primer método descubierto para hacer posible la discusión de un grupo de personas alrededor de un tema de interés común. Veamos un ejemplo extraído de una lista sobre composición musical basada en métodos algorítmicos: un estudiante necesita conocer la bibliografía existente sobre un autor determinado y envía un mensaje a la lista solicitando información; el mensaje es recibido por todos los miembros de la lista, muchos de los cuales simplemente leen el mensaje sin darle más tratamiento; puede suceder que alguien disponga de una amplia bibliografía sobre composición algorítmica, y que la tenga ya escrita y almacenada en el disco duro de su ordenador: con una simple combinación de teclas puede enviar su bibliografía personal a la lista de distribución; de esta forma todos los subscriptores de la lista, incluyendo al original solicitante de la información, reciben un mensaje de correo con una completa bibliografía sobre su tema de interés común.
Este ejemplo pone de relieve otra característica fundamental de la cultura de la red: la disposición de sus miembros a colaborar entre sí de forma desinteresada. Esto es lo que ha hecho posible Internet y es la primera causa de sorpresa de los recién llegados. Los frutos de esta actitud son muchos y muy variados, pudiendo mencionarse protocolos de comunicación, multitud de programas de ordenador junto a su código fuente, imágenes y documentos de todo tipo, e incluso completos sistemas operativos con todos sus programas como es el caso del sistema operativo Linux.
El propio mecanismo de funcionamiento de las listas de distribución puede dar lugar a un importante problema que ha acabado con muchas de ellas: si la lista tiene muchos subscriptores y éstos son muy activos participando en la misma, se produce una explosión combinatoria en el número de mensajes recibidos por todos los miembros, hasta llegar al punto de hacer imposible su lectura. Si ha esto añadimos que muchos mensajes son enviados por usuarios despistados, con contenidos sin interés, o si además se producen frecuentes guerras de flames, se llega ha hacer imposible un uso productivo de la lista, y muchos usuarios anulan su subscripción. Para hacer posible la viabilidad del modelo inicial se han inventado las listas moderadas, en las que un moderador tiene a su cargo leer todos los mensajes antes de su distribución para seleccionar aquellos que deben ser enviados a todos los subscriptores. Otra solución la proporcionan los resúmenes (digests), sistema por el cual los subscriptores sólo reciben una selección de los mensajes enviados a la lista general, agrupados todos ellos en un único mensaje diario. Es obvio que estas dos soluciones requieren del trabajo de una persona para su funcionamiento, y que ésta generalmente ha de realizar su trabajo de forma desinteresada. Se pierde así la gran virtud del sistema original, que es su completo automatismo.
Los boletines de noticias suponen una generalización de las listas de distribución. El sistema actualmente en uso en Internet recibe indistintamente el nombre de Usenet o News, y nació en la red UUCP (Unix to Unix Copy), conjunto de ordenadores dotados del sistema operativo Unix que transportaban el correo y las noticias utilizando modems de diferentes velocidades. Es por esta razón que las principales aplicaciones de UUCP eran de tipo asíncrono, como lo son el correo y las noticias. Decir que una aplicación es asíncrona significa que no requiere la conexión de los dos ordenadores involucrados en la comunicación en el momento en que el usuario utiliza la aplicación. Podemos enviar un mensaje o participar en uno de los grupos del boletín de noticias en cualquier momento, siendo más tarde cuando se producirá la efectiva transmisión de la información a su destino.
Otra importante red histórica, hoy en día integrada en Internet, fue BITNET ("Because It's Time" Network), una red de grandes ordenadores IBM conectada, al igual que UUCP, mediante modems considerados en aquella época de alta velocidad. Uno de los servicios más populares de BITNET, y que aún hoy en día perdura, era un sofisticado sistema de listas de distribución llamado LISTSERV. Dada la imposibilidad de utilizar en BITNET los programas que hacían posible Usenet, debido a la diferencia de sistemas operativos y protocolos de comunicaciones utilizados, se pusieron a punto mecanismos para crear listas de distribución que reflejasen automáticamente grupos de interés de Usenet. Este tipo de solución recibe el nombre de pasarela entre aplicaciones y, en este caso, muestra que el campo definido por las listas de distribución y los boletines de noticias es en muchos casos equivalente.
Aunque la tecnología que hizo posible la red UUCP ha sido ampliamente superada en Internet, el transporte de las noticias sigue realizándose de forma cooperativa. Cualquier organización que desee hacer Usenet accesible a los ordenadores de su red debe coordinarse con otra red próxima a la suya, a la que lleguen ya las noticias y que acepte retransmitírselas. Este es el mecanismo mediante el cual las noticias viajan por Internet.
Usenet está basada en la existencia de un gran número de grupos de interés, varios millares en la actualidad, creados en su momento por votación popular y que permiten organizar la participación de los lectores según sus intereses. No es necesario subscribirse a ningún grupo de interés para leer las noticias, y la mayor parte de ellos no son moderados, por lo que está garantizado que cualquier participación será difundida sin censuras. Cada noticia puede ser replicada, como a su vez puede serlo cada réplica, y el sistema recuerda el orden de todas las intervenciones, por lo que es posible seguir de forma ordenada la pequeña historia de cada debate. Pasado un cierto tiempo las noticias expiran y desaparecen del boletín, aunque algunos grupos especialmente interesantes se conservan, de forma resumida, en algún servidor de ficheros que se presta a ello, siendo éste otro ejemplo de pasarela entre aplicaciones. De esta forma, una información nacida para ser efímera pasa ha estar accesible permanentemente.
Si en algún lugar se ha desarrollado una cultura específica de la red, ese lugar ha sido Usenet. Un extenso vocabulario, —ciertamente críptico para los recién llegados—, una extensa lista de reglas de etiqueta, y una cierta atracción por la anarquía son, entre muchos otros, los legados de Usenet.
La gran libertad con que Usenet se ha desarrollado ha demostrado ser un arma de doble filo. Un virulento debate se está desarrollando en los últimos tiempos a raíz de la iniciativa tomada en los EEUA por el senador Exon para poner freno a la libertad con que circula la información en Internet, y especialmente en Usenet. El detonante de esta actuación lo supuso la circulación de pornografía infantil por la red, con lo que se hizo manifiesto que Usenet se estaba (y se está) usando para difundir pornografía y también para debatir todo tipo de posturas políticas, algunas de claro matiz extremista. La controversia está servida y las cuestiones a debatir son fundamentalmente dos: ¿debe ser controlada la información que circula por Internet?, y en su caso, ¿quién la ha de controlar?
Aunque todavía es una práctica no muy extendida, en los próximos tiempos viviremos la rápida expansión de los sistemas de conversación en tiempo real. Ha de quedar claro que estamos hablando de charlar a través de texto, un sistema en el que los tertulianos, una vez incorporados a un canal de conversación, escriben sus intervenciones mediante el teclado del ordenador al tiempo que pueden leer en la pantalla todas las intervenciones de los demás participantes en el canal en cuestión.
Tomado inspiración en antiguos programas disponibles en el sistema operativo Unix, como talk o write, el llamado IRC (Internet Relay Chat), o simplemente chat, es el protocolo que permite conversar a lo largo y ancho de Internet. Están apareciendo en estos momentos programas clientes del IRC para los más populares entornos gráficos, como Windows 95, por lo que es fácil aventurar una pronta generalización del conocimiento y uso del sistema.
En primera instancia no deja de sorprender la atracción que pueda ejercer el IRC en sus usuarios. Da la impresión de que la interacción con otras personas mediante texto escrito habría de ser incomoda y poco apetecible, pero lo cierto es que el IRC arrasa allí donde es conocido. El anonimato relativo del que gozan sus participantes, junto a la instantánea reacción de los interlocutores, parece ejercer una sugestión profunda al enlazar tal vez con algún aspecto ciertamente poco cautivador del modo en que se da la comunicación interpersonal en nuestra sociedad.
El carácter fugaz de las conversaciones mantenidas mediante el IRC hace difícil pensar que éstas puedan ser conservadas, pero así es en algunas ocasiones. Mediante una pasarela entre aplicaciones algunos debates han merecido ser inmortalizados en forma de ficheros de texto, y es fácil encontrar en distintos lugares de la red, por ejemplo, completos resúmenes de los debates realizados durante la llamada "guerra del golfo".
El detonador que ha provocado la final explosión de interés por Internet ha sido el World Wide Web, y el fenómeno tiene dos responsables: Tim Berners-Lee y Marc Andreesen. La combinación producida por el trabajo de estos dos hombres ha dado lugar al fenómeno más espectacular en la breve historia de los sistemas multimedia distribuidos.
Tim Berners-Lee trabajaba como científico en el CERN (Laboratorio Europeo de Partículas Elementales) de Ginebra cuando diseñó, en 1990, un protocolo para intercambio de información multimedia entre ordenadores llamado HTTP (Hyper Text Transfer Protocol) y también un lenguaje para la descripción de documentos multimedia llamado HTML (Hyper Text Markup Language). Estos protocolos tenían como propósito inicial ayudar a los investigadores del CERN a compartir información científica, sin que en un principio pudiese nadie imaginar la amplia difusión que habían de adquirir en pocos años.
Marc Andreesen era un estudiante de la Universidad de Illinois relacionado con el NCSA (National Center for Supercomputing Applications) cuando desarrolló el programa Mosaic. Éste fue el primer programa cliente del Web que dispuso de la facultad de mostrar imágenes junto al texto y que, debidamente configurado, permitía mostrar todo tipo de información multimedia, como sonido o imagen en movimiento. Marc Andreesen tiene ahora 24 años, y ahora dirige la empresa Netscape, nombre también del programa sucesor del antiguo Mosaic. Pese a basar gran parte de su éxito en la difusión gratuita de su software, la empresa Netscape tiene ya un valor calculado de 2,000 millones de dólares, representando uno de los más espectaculares casos de éxito empresarial de toda la historia. Si tiene interés considerar la cotización bursatil de Netscape es para tomar conciencia de que el valor de la empresa se halla en el puro terreno de las ideas: no hay ningún tipo de activo, como terrenos, maquinaria o edificios, que respalde el valor atribuido a la empresa.
¿Donde está la razón del éxito del fenómeno Web-Mosaic? Hasta la aparición del Mosaic, para usar Internet era necesario conocer crípticos comandos y enfrentarse a un primitivo interface de usuario basado en texto. Era muy difícil acceder a la información sin saber de antemano donde se hallaba, y para saber como funcionaban los programas se había de consultar a alguien con experiencia previa, no existiendo prácticamente publicaciones que divulgasen la forma de acceder a los recursos de la red. Después del Mosaic todo esto ha cambiado y como muestra sirva comprobar la enorme cantidad de publicaciones sobre Internet, y no sólo escritas en inglés, que hoy en día podemos encontrar visitando cualquier librería especializada. Otra sorprendente constatación del enorme impacto social del Web lo representan los diversos "Internet cafés" que han abierto en todo el mundo, tradicionales bares a los que se han incorporado con naturalidad ordenadores personales con los que poder navegar por la red.
Los programas clientes del Web, como Mosaic o Netscape, son los responsables de mostrar en la pantalla del ordenador, usando gráficos y distintos tipos de letra, la información descrita en los documentos HTML. Éstos son enviados desde los ordenadores servidores, que almacenan los textos y la información multimedia que es mandada al ordenador cliente para ser visualizada. El programa que se ejecuta en el ordenador servidor, llamado generalmente —por razones que no viene al caso— httpd, es transparente al usuario, lo que quiere decir que éste jamás toma conciencia de su existencia: tan solo el administrador del servidor se ha de encargar de configurar al programa en cuestión, siendo los servidores del Web creados por el CERN, el NCSA y Netscape los más populares.
En su rápida expansión, el Web ha engullido a otros sistemas para ofrecer información distribuida existentes con anterioridad, que o bien han desaparecido o a los que se accede desde el mismo programa cliente. Así, el programa Netscape actúa como cliente del Web, del Gopher (sistema de información basado en menús), News, Wais (Wide Area Information Servers), FTP, y también en parte de correo, estando llamado o ser el "navegador" universal de Internet. Esta simplificación es otra razón del éxito del Web: los usuarios no han de usar distintos programas para acceder a informaciones que, aunque se acceda a ellas a través de diferentes protocolos, pueden estar en el mismo servidor.
Pese a su simplicidad, el lenguaje HTML ha demostrado ser útil para crear ricos documentos compuestos de texto, imágenes y "zonas calientes". Esta últimas son puntos que, una vez activados con el puntero del ratón, enlazan con otro documento HTML que no necesariamente ha de estar en el mismo ordenador. De esta forma el usuario va saltando entre documentos con total facilidad, perdiendo la noción de donde se halla realmente. Esta técnica de búsqueda, un tanto aleatoria e intuitiva, es lo que denominamos "navegar" por la red. Todo el inmenso conjunto de documentos HTML de Internet, con sus millones de enlaces hipertexto, constituyen la malla, la tela de araña, a la que alude la palabra web (en inglés malla).
Para crear documentos HTML no hace falta ningún programa especial, sino que es suficiente un simple editor de texto, y para poder ver el documento en su forma final, con sus gráficos y distintos tipos de letras, no hace falta usar ningún programa traductor. Existen limitaciones respecto a lo que se puede conseguir con el lenguaje HTML, pero estas no han representado en absoluto un problema, sino más bien todo lo contrario. Otros entornos para el desarrollo de aplicaciones multimedia, como los que encontramos en los ordenadores personales, pretenden ofrecer al autor completas posibilidades de diseño, con lo que las aplicaciones resultantes ofrecen estilos muy distintos según quien sea su autor. La simplicidad del HTML ha dado lugar a unos documentos muy homogéneos, con lo que los usuarios finales pronto han adquirido familiaridad con el sistema, pudiendo aplicar las mismas técnicas de interacción en todos los casos.
Gracias a la primera extensión sufrida por el HTML, y que supuso la incorporación de los formularios y la posibilidad de enviar información introducida por el usuario desde el ordenador cliente al servidor, han aparecido las primeras actividades comerciales de Internet. Mediante estas extensiones es posible recibir información del usuario, con lo que se abre la puerta a la realización de verdaderas aplicaciones interactivas a través de Internet. Ahora ya no hay por que limitarse a pasar páginas, sino que es posible en todo momento introducir información en el sistema. Esto no tiene por que reducirse a enviar nuestro pedido comercial y número de tarjeta de crédito, sino que podemos imaginar todo tipo de aplicaciones donde la información proporcionada por el usuario pase a enriquecer y modificar el sistema.
El Web ha demostrado ser un entorno excelente para la publicación de todo tipo de información. Multitud de universidades, empresas, organizaciones diversas y también particulares están usando el Web para dar a conocer sus trabajos, difundir sus ideas, promocionar sus cursos o productos, etc. Gracias al Web, cualquier información que podamos imaginar se puede hallar en Internet, desde las últimas imágenes del satélite Meteosat a las obras completas de William Shakeaspeare. El Web ofrece gratuitamente el mayor compendio de información de todos los tiempos.
El afán de proyectar una imagen personal sobre Internet que todos sus usuarios manifiestan, se concreta en el Web en las llamadas páginas personales (home pages). Cualquier persona con acceso a un ordenador que esté actuando como servidor del Web, puede construir su página personal y hacerla accesible a los millones de usuarios de Internet. Se pueden poner fotografías, sonidos, etc., y una buena muestra se halla en las páginas que ofrece el servidor de la Casa Blanca. Podemos ver en ellas fotografías familiares de los Clinton, escuchar la salutación que nos dirige Hillary o la forma en que maúlla el gato de Chelsea.
La actividad investigadora alrededor del Web es febril, existiendo multitud de propuestas para añadir extensiones a su funcionalidad actual. Si hasta el momento el fenómeno ha sido un tanto fruto del azar, los EEUU a través del MIT (Massachusetts Institute of Technology) y su importante Media Lab han decidido tomar cartas en el asunto, sin que el NCSA haya abandonado tampoco su línea de trabajo sobre el tema. El CERN ha tirado la toalla, argumentando que el Web queda fuera de su campo y, para que Europa no quede por completo fuera de juego, le ha tomado el relevo el INRIA francés (Institut National de la Recherche en Informatique et en Automatique), aunque de forma muy tímida hasta ahora. El Web representa un apasionante episodio en la historia de Internet, que sin duda tendrá continuidad y jugará un importante papel en la definición de como serán las infopistas del futuro.
Ya ha pasado el tiempo de realizar el siempre arriesgado ejercicio de profetizar cuales serán los usos que llegarán a ser habituales en las infopistas, siendo más bien el momento de ejercer directamente el derecho a proponerlos. Pensar que podemos ser simples espectadores del desarrollo de la tecnología es actuar un poco como el avestruz, que ante el menor peligro esconde la cabeza bajo tierra esperando que al sacarla de nuevo su mundo permanecerá felizmente inalterado. Si actuamos así podemos encontrarnos dentro de muy poco tiempo con un mundo que no hayamos escogido y que ya no nos pertenezca.
Una constante del pensamiento tecnológico es pretender que sus desarrollos son inevitables y que estos se suceden mediante una lógica inapelable. Como una simple mirada hacia la historia permite demostrar, nada de esto es cierto y más bien encontramos clamorosos ejemplos de como muchos tecnólogos han errado al valorar cual podía ser la función social de sus inventos. Un caso ejemplar lo representa Thomas Alva Edison, que durante años se negó a aceptar que su fonógrafo sirviese poco más que para pasar dictados a las secretarias, mostrándose incapaz de imaginar el desarrollo que llegaría a tener en pocos años la industria discográfica.
Está ampliamente extendida una tópica clasificación del conocimiento humano que establece su principal división entre los grupos de ciencias y humanidades, entre el supuestamente objetivo conocimiento del mundo y el conocimiento del hombre y las ideas, pensamiento filosófico en definitiva de impreciso valor práctico. Esta dualidad vuelve a centrar algunas discusiones, especialmente a partir del dominio cada día más evidente del pensamiento científico y tecnológico sobre toda otra forma de pensamiento. Este arrinconamiento no afecta sólo a las ideas, sino que algunas palabras parecen haber sido condenadas también. Tenemos, por ejemplo, el caso de "política" y "arte", dos palabras que encarnan conceptos de difícil definición y habituales víctimas de tergiversación. Y el caso es que describen en buena medida aquello que más necesitaremos en las infopistas. De hecho, podríamos considerar todo acto de comunicación realizado en la esfera pública como una actividad fundamentalmente política, y por medio del arte intentamos conceptualizar en su totalidad la representación simbólica construida por el hombre, con el fin de criticarla, modificarla e intentar comprender su significado.
La ciencia y la tecnología no tienen todas las respuestas y es necesario que en las autopistas de la información, que sin duda serán responsables de una profunda transformación de nuestra sociedad, tanto el arte como la política jueguen el papel que les corresponde. Tardaremos en volver a tener una oportunidad de establecer nuevas formas de comunicación y expresión como la que ahora se nos presentará si sabemos servirnos de la red.
La comunicación es un tema demasiado importante como para ser dejado sólo en manos de los especialistas. No solamente hemos de ejercer en todo momento nuestro derecho a la comunicación, sino que ahora nos corresponde opinar sobre la propia naturaleza de esta actividad y decidir su forma futura. Hemos de exigir el reconocimiento de nuestro derecho a acceder a las infopistas, no sólo para consumir información, sino para introducirla. Internet ha hecho posible este modelo y no habríamos de tolerar ningún paso atrás en lo que corresponde a lo que es ya un derecho adquirido.
Nadie debería ser ajeno al nuevo espacio de comunicación que las redes definirán, sobre todo teniendo conciencia de que en él hay espacio para todos. El teléfono, mediante la relación de uno a uno en que está basado, hace posible la comunicación reciproca, pero no permite disponer de una visión global de la red de comunicación. El nuevo territorio de encuentro que hacen posible las infopistas ofrece un modelo de comunicación de todos entre todos, permitiendo superar la división entre emisores y receptores pasivos que definen los mass media clásicos.
¿Y de que forma se ha de poder usar la red para aprovechar todo su potencial? A modo de ejemplo, los siguientes párrafos desgranan algunas posibilidades comunicativas que las redes han de permitir.
Todo usuario de la red ha de tener la posibilidad de hacer escuchar su voz, superando la actual distinción entre proveedores y consumidores de la información.
Toda manifestación cultural y artística ha de tener su lugar en la red, puesto que aquello que no se halle en ella simplemente no existirá.
Todo grupo social, toda comunidad, ha de encontrarse en la red. La distinción entre cultura de élite y cultura de masas, con sus productos y espacios diferenciados puede ser de nuevo puesta en cuestión.
Todo idioma ha de tener su lugar. La identidad personal y colectiva empieza en el propio idioma. La comunidad cultural que no use su idioma en la red perderá por completo su identidad.
Diversas organizaciones no gubernamentales han comprendido el gran poder comunicador de la red, y lo están utilizando sabiamente en su provecho. La comunicación alternativa halla así un canal idóneo a sus fines. Todos aquellos grupos sociales con afán comunicativo, pero que generalmente tienen vedado el acceso a los grandes medios de comunicación de masas, están aprendiendo rápidamente a usar Internet y otras redes para difundir sus ideas. Gracias a las nuevas redes de comunicación, pequeños grupos de opinión están alcanzando una audiencia impensable con otros medios y empieza a ser finalmente una realidad el acceso democrático a la comunicación.
Platón definió la ciudad ideal como aquella en la que la totalidad de sus ciudadanos pudiesen caber en el ágora, siendo todos capaces de escuchar con claridad a cualquier orador. La asamblea en la plaza pública hace tiempo que dejó de ser una práctica común en nuestra sociedad, pero ahora vuelve ha ser una posibilidad a nuestro alcance.
Gracias a Internet ya no hemos de coincidir en un mismo espacio y tiempo para comunicarnos. La vieja alegoría del "palacio de la memoria", ese gran edificio donde todo conocimiento y recuerdo tiene su lugar, es ya un hecho real. Las infopistas definen un nuevo territorio en el que son posibles encuentros imposibles en otros lugares: podemos encontrar nuestro pasado como en la mejor de la bibliotecas y podemos coincidir con cualquier persona sin distinción de clase social o cultural. El único requisito para participar del encuentro consiste en tener acceso a la red, por lo que todos deberíamos tener ese acceso garantizado.
Un interesante ejemplo de como las infopistas hacen posibles nuevos fenómenos comunicativos lo tenemos en las intervenciones periodísticas de Bill Gates, que en España publica quincenalmente el periódico El País. Todos los lectores pueden enviar mensajes mediante el correo electrónico al presidente de Microsoft, que elabora sus artículos como respuesta a los miles de mensajes que recibe. De esta forma se establece un diálogo entre alguien que , en su campo, el mundo futuro, y aquellos que viven y hacen posible ese cambio. El ejemplo es perfectamente trasladable al terreno político, y sería saludable que nuestros políticos, desde los alcaldes a los presidentes, estudiasen los nuevos mecanismos de comunicación, y por que no, de democracia directa, que tenemos a nuestro alcance.
¿Y en que se concreta ese acceso general a las infopistas que este texto propone? Por ejemplo, y para empezar por algo simple, en disponer de servicios de correo electrónico, al alcance de toda la población, tan simples, sencillos y económicos como son ahora el teléfono o el fax. Las soluciones técnicas ya existen, pero el uso generalizado del correo electrónico está muy lejos de ser una realidad, incluso entre los grupos sociales y profesionales de alto nivel cultural y adquisitivo.
Estar o no estar, esa es la cuestión. Y "estar" significa aquí "ser". El futuro nos ofrece dos alternativas: unas infopistas sin exclusiones en las que sea posible profundizar la democracia, o unas redes al servicio de los poderosos y acentuadoras de la desigualdad. Si queremos que la primera opción sea la definitiva habremos de luchar para ello, ¿o alguien puede creer que, en ausencia de presiones, se escogerá la alternativa más igualitaria?
El debate sobre como se construyen las infraestructuras básicas es sumamente confuso, y se está resolviendo de formas distintas en cada país. Tenemos casos extremos como los de Alemania, con un solo operador para la red, o Dinamarca, con 6,500 operadores. En España se está imponiendo la idea de que son necesarios un par de operadores concurrentes, con la consecuente duplicidad de infraestructuras que ello supone. Hay quien insiste en que ello será más barato para el usuario final, pero ¿cómo se explica que dos cables sean más baratos que uno?
El sentido común dicta que el costeamiento de las infraestructuras de comunicaciones habría de estar basado en mecanismos similares a los que se utilizan para carreteras y autopistas. Existen entre estas vías gratuitas y también de peaje, con lo que mientras se mantienen a través de los impuestos generales recursos de reconocido valor social, otras infraestructuras son mantenidas directamente por sus usuarios. Pero resulta que hoy en día es tabú proponer que el Estado deba poseer unas infraestructuras como las redes de banda ancha. Incluso se defiende que resulta más económica la competencia en este ámbito. Sería como defender que necesitamos dos autopistas distintas entre Barcelona y Zaragoza...
Además, esta discusión sobre las infraestructuras básicas está haciéndonos olvidar que lo realmente importante, aquello que sí habrá de respetar la pluralidad y la competencia, será la elección de los contenidos de las infopistas, quien los proporciona y como se gestionan. Aun siendo importante discutir si esos contenidos han de circular por un cable de titularidad pública, como en Alemania, o si han de poder escoger entre muchos transportistas —con el lógico encarecimiento que ello supone—, no hemos de olvidar la verdadera discusión de fondo: ¿cuales serán los contenidos de las infopistas?
Otro tema relacionado con las infraestructuras de red aparece al observar como se ha dotado a universidades e investigadores de redes de gran capacidad (Red Iris en toda España, Anella Científica en Cataluña), mientras que se ha olvidado ofrecer a todos aquellos que gestionan y producen la cultura equipamientos similares. Pronto tendremos en nuestros hogares una conexión a las redes de banda ancha mientras los museos, conservatorios, teatros, auditorios, departamentos de gestión cultural, artistas, etc., han de conocer los nuevos medios a través de las mitologías que construye la prensa diaria. Parece como si las infopistas fuesen válidas para la ciencia y para el entretemiento más banal, mientras que el amplio espectro social que piensa, crea y gestiona la cultura no tuviese derecho a utilizar un medio que justamente ha de redefinir nuestra sociedad y la cultura en que se sustenta.
No se trata ahora de defender la necesidad práctica de conocer el uso de las herramientas informáticas, dada su omnipresencia en toda nuestra sociedad y en todos los ámbitos productivos. Tampoco es momento de entrar a justificar la idoneidad de los ordenadores como medio para facilitar otros tipos de aprendizajes no necesariamente ligados a la informática. Si es fundamental el conocimiento y el uso de las tecnologías de la información, si es necesario educar en el uso de las infopistas, es en la medida que constituyen una de las principales razones de la transformación social que estamos viviendo, y usadas con conocimiento de causa pueden ser una herramienta preciosa para potenciar el cambio social en una dirección correcta.
Hemos de suponer que quien conozca la libertad estará dispuesto a luchar por defenderla. Internet nos ha enseñado que la libertad es posible en las redes de comunicación, pero son sólo unos pocos privilegiados quienes han visitado ese lugar excepcional. Hay que enseñar y divulgar Internet para educar en el uso de la libertad que hace posible. Tal vez, tras esa experiencia, se haga más evidente la gran mentira en que se basa la comunicación cotidiana, y de esa forma demostraremos que es posible usar el potencial transformador de aquello que va a cambiar nuestro mundo para hacerlo un poco mejor.
En las infopistas ha de haber un espacio para el arte, e incluso más, puesto que tal vez un nuevo arte será posible gracias a ellas. Esta última afirmación es arriesgada y no puede ser probada de otra forma que tras una paciente espera, pero disponemos de algunos elementos de análisis que nos pueden hacer suponer su futura verificación.
A lo largo de este siglo hemos vivido como la creación artística se ha ido liberando progresivamente de múltiples ataduras y, por ejemplo, el objeto ha sido sustituido en muchos casos por el concepto, en una tendencia que no es un "ismo" más sino un verdadero paso adelante en el camino del arte hacia la expresión directa de las ideas en que se sustenta. Ahora bien, aun los más atrevidos happenings o performances suceden en un lugar y en un momento, y habríamos de acudir a experiencias como el mailing art puesto en práctica por el grupo Fluxus para encontrar propuestas en las que el espacio y el tiempo cobren una nueva dimensión.
Uno de los innegables resultados de la implantación de las nuevas redes de comunicaciones como Internet es la redefinición de las tradicionales dimensiones espacio-temporales. La red un nuevo territorio aún sin nombre definitivo, siendo "infoesfera" o "ciberespacio" palabras de las que ahora nos servimos para nombrar ese lugar desconocido. ¿Sin objeto físico, con cambiantes conceptos de tiempo y espacio, cual será la materia del arte?
El mismo concepto de realidad está sujeto en la actualidad a una profunda revisión. El tema no es nuevo, pero jamás como hasta ahora había alcanzado la discusión tal popularidad. Ya forma parte del imaginario colectivo una vaga sensación de que conceptos como espacio y tiempo, que tradicionalmente habían definido el marco de aquello que era posible, se están tambaleando y con ellos el concepto mismo de realidad.
La revolución tecnológica es ya una revolución del mundo, de cómo lo percibimos y cómo lo representamos. Si el arte es, en el marco general de nuestra cultura, uno de los principales mecanismos de representación simbólica, es evidente que la tecnología ha de formar parte del mismo, y no como un añadido decorativo, sino como esencia natural de un arte que ha de describir un mundo totalmente impregnado de elementos y símbolos tecnológicos. Llevando esta afirmación al terreno que nos ocupa —las modernas redes de telecomunicaciones— podemos intentar responder la cuestión formulada más arriba con una nueva pregunta: ¿podrá ser la propia red una nueva materia para el arte?
La palabra "multimedia" está ya totalmente agotada, hasta el punto que nadie sabe exactamente lo que significa. También hay quien se entretiene en buscarle alternativas, como "intermedia", "ultimedia", "hipermedia", etc. Se acaba convirtiendo en un problema de lenguaje algo que es mucho más importante: determinar cómo la expresión artística se integra con los nuevos medios tecnológicos y acoge en su seno todos los elementos expresivos posibles en el nuevo medio.
Decepciona contemplar como hasta este momento la mayor parte de propuestas artísticas que nos llegan de los centros de investigación, y especialmente las de la categoría denominada "imagen sintética", están completamente ahogadas en un formalismo vacío, donde las formas más estereotipadas se ponen al servicio de un vacío conceptual desesperanzador. Se nos intenta hacer aceptar unos malos dibujos animados con el pretexto de haber estado realizados con máquinas carísimas.
El mercado del consumo es quien manda, y es en función de este hecho por lo que el lenguaje publicitario se impone en la mayoría de las iniciativas creativas que tienen por eje el uso de la tecnología. Abruman los recursos puestos a disposición de quienes desarrollan juegos para ordenador, enciclopedias multimedia almacenadas en CD-ROM, etc., al tiempo que crece la sensación de que no hay espacio para la poesía en estos novedosos medios.
¿Qué está fallando para que no aparezcan propuestas artísticas de relieve basadas en los equipos multimedia? Y aquí no hay que pensar en los sofisticados medios puestos a disposición de la industria audiovisual y el cine, sino en las consolas de videojuegos o a los ordenadores personales dotados de capacidades multimedia. Si alguien se ve capaz de demostrar la imposibilidad de crear poesía con estos medios que lo haga. Mientras tanto hay que pensar que tan sólo estamos viviendo el resultado de la desidia y la ignorancia de aquellos a quien correspondería poner remedio a esta situación.
Existe una cierta expectativa respecto a los posibles resultados de hibridar hipertexto y creación literaria, pero lo cierto es que los frutos de este maridaje, hasta el momento actual, son ciertamente pobres. El hipertexto y las técnicas narrativas que este ha de hacer posibles están aún esperando un nuevo Cortázar que imagine una Rayuela a la medida de los nuevos medios. O tal vez no: pensar que la forma de narrar de una novela como Rayuela, con sus múltiples posibles órdenes de lectura, necesariamente habría de verse potenciada a través de un medio como el ordenador puede ser una notable equivocación. Tal vez la pantalla del ordenador no sea, por definición, un medio adecuado para la lectura y la necesaria introspección que esta demanda. La anunciada abolición del uso del papel gracias al ordenador ha demostrado ser una especie de broma de mal gusto: jamás se había gastado tanto papel de forma inútil desde que todos disponemos de ordenadores e impresoras.
Ya no es una novedad reflexionar sobre las implicaciones que las técnicas hipertextuales pueden tener en el desarrollo de la literatura, en los hábitos de lectura, etc., pero deberíamos volver sobre estos temas a la luz de un hecho incontestable: el Web es el primer sistema basado en hipertexto con difusión realmente masiva. Por primera vez en la historia auténticas multitudes están aprendiendo lo que significa hipertexto y cómo se utiliza.
Tal vez haya llegado el momento de comprobar si es posible escribir un punto y aparte en la evolución de la literatura. Por un lado tenemos la oportunidad de conocer y analizar los hábitos lectores a que dan lugar sistemas como el Web, y en segundo lugar podemos intentar acercar a jóvenes creadores al nuevo medio con la seguridad de que no les va a faltar audiencia. Las condiciones para comprobar la viabilidad de una nueva literatura que sepa aprovechar a fondo el hipertexto ya se dan: si ha de haber creación literaria en las infopistas será pronto o no será.
¿Y a todo esto, qué dicen los artistas? Pues la verdad, salvo dignísimas excepciones, no dicen mucho. En ocasiones, porque los medios tecnológicos más espectaculares sólo están al alcance de la industria audiovisual, publicidad, música comercial, etc. Pero muchas veces también por pura y simple falta de interés. Al hilo de los argumentos desgranados en este escrito, habría de ser evidente la necesidad de facilitar el acceso a las nuevas redes a todo tipo de artistas. Sólo a partir de este conocimiento podrán aparecer nuevas propuestas y, gracias a las experiencias generadas, aflorará una conciencia más profunda sobre las implicaciones culturales de la revolución tecnológica que estamos viviendo.
Se escuchan con frecuencia las quejas que formulan muchos responsables de centros de investigación y creación artística basados en nuevos recursos tecnológicos. Pese a disponer de unos medios que habrían de resultar estimulantes para los creadores, reconocen la dificultad que encuentran para atraer a verdaderos artistas a sus laboratorios. Tan sólo se suelen atrever con las máquinas quienes, con fundamentalmente una sólida formación técnica, poseen veleidades creativas no siempre basadas en una formación artística adecuada. Las razones por las que se da este problema son complejas, pero ello no ha de impedir que se busque la solución de forma decidida.
Se han intentado diferentes técnicas para acercar a los artistas a las máquinas, pero todas ellas sin demasiado éxito. Una solución consiste en poner a disposición del artista un operador, en ocasión un completo equipo de ingenieros y técnicos, que plasman sus deseos en el supuesto de que consigan mantener entre ellos una comunicación realmente efectiva. En el extremo opuesto tenemos a quienes intentan formar artistas capaces de trabajar con autonomía frente a un ordenador, enfrentándolos a un plan de estudios abrumador que sólo consigue ahuyentar a quien tiene por primer estímulo la preocupación estética.
Una manifestación indirecta de este problema se da en relación a las herramientas creadas para uso industrial. Sonido e imagen juegan, obvio es decirlo, un papel fundamental en la industria audiovisual, y continuamente aparecen en el mercado soluciones tecnológicas a las necesidades que en este campo se plantean. Tanto en hardware como en software hay, a precios a veces prohibitivos, atractivas herramientas que permiten, sin renunciar a la facilidad de uso, un sofisticado tratamiento de sonido e imagen. Hay artistas que, accediendo a estos recursos, rápidamente hallan vistosas aplicaciones que para sorpresa general son en todo similares a las que encuentran otros artistas. Resulta que el medio utilizado se expresa a si mismo y a su creador, pero difícilmente al artista que lo utiliza. Hay que esperar entonces a la aparición en el mercado del nuevo producto que permita, a sus primeros usuarios, obtener la identidad diferencial que les otorga su novedad.
Técnica y estética necesitan aproximarse, pero son ciertamente cosas distintas. El campo definido en común es de una enorme complejidad, pues contempla tanto los medios técnicos que están dirigiendo la evolución de nuestra sociedad como los medios expresivos más enraizados en la memoria y la identidad colectiva. Las tensiones que se producen entre estos dos polos son demasiado interesantes como para no usarlas en nuestro provecho. Un objetivo razonable es el de conseguir interesar a los artistas más inquietos para que proyecten sus ideas sobre las nuevas tecnologías, cosa que sólo será posible mediante un método de trabajo multidisciplinar. Por una lado, son necesarios artistas formados para comprender el medio, ser capaces de hacer propuestas con él y poseer el vocabulario adecuado para comunicarse fluidamente con los técnicos con quien tendrá que colaborar. Por otro, hacen falta técnicos capaces de dialogar con el artista no tan solo en relación a los problemas técnicos, sino también estéticos. No hay aquí relación alguna de subordinación, ya que todos comparten un mismo objetivo: hallar la forma de que arte y tecnología se abracen para iluminar el camino que se nos abre en este segundo fin de milenio.
La penetración de Internet es profunda en ámbitos universitarios y de investigación, pero en España esto se reduce en muchos casos a las áreas técnicas. La red ya empieza a ser utilizada en el campo de humanidades, pero hay que extender esta penetración y formar a los usuarios para que sean capaces, no sólo de consultar y buscar información, sino de proporcionarla y de hacer lo que sólo a ellos compete: reflexionar en profundidad sobre las implicaciones culturales del nuevo medio.
El retraso tecnológico que en nuestro país padecen la mayoría de centros culturales, museos, bibliotecas, etc., empieza a ser ya preocupante. Se ha dado el caso de un museo que ha tenido que excluir determinadas piezas de una importante exposición por las dificultades que se le presentaban para acceder a Internet, requisito necesario para las instalaciones excluidas. Limitándonos a los aspectos de productividad personal que podrían beneficiar a quienes trabajan en estas instituciones, como son el correo electrónico, el acceso remoto a bases de datos o la difusión de sus actividades, alarma descubrir hasta que punto está aún lejos de generalizarse el conocimiento y el uso de estos recursos.
Es ya hora de que consideremos las infraestructuras que harán posibles las infopistas como una necesidad básica para toda actividad e institución cultural. Los museos, en particular, representan un espacio cultural pensado para mostrar, a un público motivado, propuestas artísticas de tipos muy diversos. Los museos se perfilan en este fin de siglo como un paradigma de la educación permanente de la población adulta. Dotar a los museos de infraestructuras de telecomunicaciones ha de permitir mostrar los trabajos de los artistas que usen estos medios, y paralelamente dotar al museo de unos recursos que le permitirán potenciar su trabajo cotidiano y la difusión de sus actividades.
Por lo que afecta a la forma de amparar la creación artística con los nuevos medios, dos son las posibles líneas de actuación. Por un lado, y de forma similar a como han funcionado los laboratorios de sonido implantados en los países desarrollados, podemos imaginar un laboratorio destinado a la creación de aplicaciones ideadas para las infopistas. El trabajo a realizar necesita de equipos interdisciplinarios, tanto para la discusión y reflexión como para la creación. Las distintas industrias que de una u otra forma utilizan las tecnologías de la información hace tiempo que han puesto en practica la división del trabajo para enfrentarse a todo problema de cierta envergadura. Estudiando esas soluciones podemos aprender cómo diseñar las más adecuadas al singular problema que nos ocupa.
Hay que ver este texto como un manifiesto para la acción y la opinión. No pretende otra cosa que tender la red con la esperanza de que haya buena pesca. Sin duda habrá quien encuentre respuestas a muchos de los interrogantes planteados en estas páginas, o que halle preguntas mal formuladas o ausentes. De eso se trata justamente, de que entre todos definamos el problema y podamos así acometer las diferentes soluciones que sin duda permite. Mientras tanto sólo hemos de tener presente la conveniencia de resolver el problema entre todos, o sino habremos de aceptar que unos pocos lo resolverán por nosotros.