Portada

Artículos y fuentes Actividades-aula

Arte y Filosofía

Hª de la filosofía

Imaginario filosófico

Libros- reseñas

Entrevistas, links,noticias,...

 

QUIÉN CONTROLA LA RED. LA ÉPOCA DE INTERNET, 1.

 

Luis Fernández-Castañeda

 

Alonso, Enrique: El nuevo Leviatán. Una historia política de la Red, Díaz Pons, 2015.

O’Neil, Cathy: Weapons of Math Destruction, Crown, New York 2016.

 

El futuro que se barrunta en estos dos libros, sin ser totalmente oscuro, deja poca puerta abierta a la esperanza. Por un lado, el gobierno de Internet estará cada vez más dirigido por los grandes intereses empresariales. Por otro, Internet ha creado una infinidad de datos que serán (y son) empleados para conocer la conducta humana con el fin de sacar provecho económico mediante modelos matemáticos. Tenemos, por tanto, una red que favorece determinados tráficos, y modelos matemáticos que emplean ese tráfico para la ganancia empresarial. Por el camino queda la neutralidad de la Red y las injusticias que se derivan del empleo de estos modelos. Frente a esta doble amenaza, todavía no ha cuajado ninguna teoría capaz de abrir nuevos horizontes en interés del ser humano. Todo lo que tenemos está gastado y no da más de sí.[1]

Pasaremos revista en primer lugar al libro de Enrique Alonso, que no puede ofrecer más en menos páginas. Una segunda parte de esta recensión la dedicaremos al libro de Cathy O’Neil.

 Alonso distingue tres etapas en la historia de Internet, que seguiremos aquí como modelo para desentrañar quién controla la Red, objetivo prioritario de esta recensión y de buena parte de su libro.

 

LA ETAPA ARCAICA (1958-1983)

 

El origen remoto de la Red es consecuencia del lanzamiento del Sputnik en 1957. La Unión Soviética no sólo había conseguido ya la bomba atómica (1949), cuatro años después de los americanos, sino que se había adelantado a los Estados Unidos en la “carrera espacial”. La reacción norteamericana consistió, entre otras cosas, en crear ARPA (Advanced Research Projects Agency, 1958)[2], agencia destinada a mejorar las telecomunicaciones en el nuevo escenario global que el Sputnik ponía de manifiesto. Se trataba de una iniciativa presidencial que intentaba responder a la sensación de vulnerabilidad que había causado el primer satélite ruso, pues por primera vez se mostraba que el espléndido aislamiento continental de los Estados Unidos era vulnerable. El interés de los americanos se centra en crear una red de comunicaciones capaz de sobrevivir a escenarios bélicos y nucleares en el propio suelo. En 1962 el director de ARPA crea una división especializada en el uso de las telecomunicaciones en la defensa estratégica, y la dota de una autonomía similar a la que tenía ARPA frente a otras oficinas de la administración. Se denomina IPTO (Information Processing Techniques Office). Al mando de Joseph Carl Robnett Licklider, su objetivo es interconectar los tres centros estratégicos entonces vitales para la defensa de EEUU: Cheyenne Mountain, el Pentágono y el Cuartel General del Mando Estratégico del Aire.

La arquitectura libre de escala (scale-free net) que caracteriza a la Red nace aquí. Se trata de que la información pueda llegar por muchos caminos diferentes, evitando en lo posible cuellos de botella, de modo que siempre pueda encontrarse una vía libre para la transmisión de la información. Pero lo interesante es que este diseño no responde tanto al resultado de imaginar un ataque masivo, cuanto a solucionar las diferencias entre las máquinas que debían ser puestas en red. Basta consultar la historia del centro estratégico de Cheyenne Mountain en Wikipedia para comprobar que las incompatibilidades entre equipos fueron un grandísimo problema para la defensa. Licklider, que en 1960 había publicado un texto visionario (Man-Computer Symbiosis) sobre la posibilidad de integrar el trabajo humano y el de las computadoras, desarrollando el concepto de interfaz, se da cuenta de que lo que tiene entre manos es más que un problema militar. Encontrar un lenguaje común a todas las máquinas que debían ser puestas en red fue en adelante una de sus obsesiones.[3] Desde la IPTO se lanza la primera conexión en red en 1969, que en adelante forma la red ArpaNet.

Pero lo más importante va a ser el modo en que se trabaja desde estos inicios, ya que será el origen de la “división de poderes” en el control de la futura Internet. Cuando se lograban equipos humanos que funcionaban bien, en lugar de imponerles una jerarquía externa, ellos mismos constituían un escalón jerárquico. Esto se facilitaba también porque ARPA respondía directamente ante el Secretario de Defensa, y no ante la cúpula militar, lo que a su vez permitió la expansión de la Red. De haber sido un proyecto controlado por el ejército, hubiera quedado en su posesión y se hubiera restringido a usos militares.[4]

 Los primeros procedimientos regulados de Internet, sus “leyes”, se fijaron con el nombre de Request for Comments (RFC) y desde entonces han seguido llevando ese nombre. Cada nuevo “comentario” solucionando un problema nuevo o de una RFC anterior se incorpora al canon como nueva RFC, adquiriendo automáticamente un carácter de referencia. Este sistema de trabajo continuó cuando en 1986 se crea la IETF (Internet Engineering Task Force) formada por investigadores con financianción gubernamental vinculados a la Red, junto con representantes de la industria y del mundo científico. Su objetivo es “hacer que Internet funcione mejor”. Ella controla el proceso de creación y aprobación de las RFC, y aunque no es el gobierno en la sombra de Internet, sí que es una especie de Tribunal Supremo en lo que se refiere al código que regula la Red.

 La RFC-675 (1974) es especialmente relevante porque en ella aparece el protocolo de transmisión de los datos en la Red. (TCP, Transmission Control Protocol). Siguiendo ideas anteriores, consiste en trocear el mensaje en unidades discretas (bloques) que se envían a enrutadores que, a su vez, los dirigen a cualquier vía libre en ese momento. De este modo no hace falta tener una conexión abierta entre la máquina origen y la máquina destino durante todo el tiempo que dure la transmisión. Perfeccionado por Vinton Cerf, este modo de transmisión expresa el espíritu genuino de Internet: posibilitar una comunicación plural que no requiere exclusividad de conexión y capaz de aumentar en potencia lo que sea necesario (escalable). Consecuencia derivada y muy importante es que la transmisión queda asegurada aunque fallen muchas vías de conexión, y que los bloques de datos se tratan de modo “democrático”, pues todos tienen la misma prioridad. Esta es la solución que prevaleció, aunque no fue fruto del consenso, sino de los gestores de ArpaNet. (De hecho, incluso ArpaNet mantuvo su propio protocolo hasta 1983). El Flag Day (1 de enero de 1983) conmemora el día en que todo el tráfico de Internet pasó a estar regulado por el protocolo TCP/IP. El nombre alude al día en que el Congreso adoptó la bandera norteamericana (14 de junio de 1777). Se imponían unos criterios comunitaristas que escapaban, al menos en parte, a la presión política y militar de la época, lo que fue un azar afortunado. A partir de ese momento, quien deseara formar parte de  ArpaNet sólo tenía que llegar a un nodo ya integrado y conectarse al router mediante TCP/IP. Las redes locales que aún se planteaban iniciativas propias se rindieron rápidamente a la evidencia.

 

ETAPA DE TRANSICIÓN (1984-1994)

 

Durante este período la intervención de las autoridades norteamericanas aún fue notable. Hacia mediados de los 80 resulta evidente que la gestión de la Red no se va a poder llevar a cabo como un proyecto a pequeña escala financiado por DARPA en algunas universidades americanas. Por eso en 1984 la gestión de ArpaNet pasa a la NSF (National Science Foundation)[5], que en 1985 crea NSFNet. Liberada de todo uso militar (pues en 1983 la red militar, MilNet, se ha separado de Internet), adopta exclusivamente el protocolo TCP/IP. Sin embargo, por esa misma época se liberalizan las telecomunicaciones[6], y pronto surgen empresas compitiendo como proveedoras de servicios de Internet. Se acusa a NSFNet de favorecer a determinadas empresas, hasta que en 1995 cede el control a manos privadas, en una situación más acorde con el mercado.

Otra institución clave nace en esta época. Se trata de la IANA (Internet Assigned Numbers Authority). La IANA adquiere plena consistencia en 1990 (RFC-1060). Se encarga de llevar el registro de los nombres de dominio y de sus correspondientes direcciones en Internet (la dirección IP).

En 1992 nace la ISOC (Internet Society) con el objetivo de armonizar las estructuras organizativas de la etapa anterior con los nuevos intereses empresariales de las grandes corporaciones. Su función adquirirá especial relevancia en la siguiente etapa.

 

ETAPA CONSTITUYENTE (1995- )

 

Si hasta fines del siglo XX el gobierno de la Red ha estado en manos de las instituciones y grupos fundadores, con el nuevo siglo la situación va a cambiar. En la década de los 90 las empresas contemplan el potencial de negocio de Internet y comienzan a ofrecer portales de contenidos en la Red. Se producirá una especulación en la Bolsa, un índice tecnológico bursátil (NASDAQ) y en 2000, con el estallido de las puntocom y las ruinas derivadas, se comprueba que el futuro está en los motores de búsqueda.

 Durante esta etapa, la gobernanza de Internet experimenta un proceso de parcelación peculiar. El hecho es que la responsabilidad de la Red se distribuye de un modo que nadie conoce con claridad (basta ver los variados diagramas en la Red que explican su estructura). Alonso analiza esta etapa distinguiendo la gestión y control de cuatro capas o niveles en los que se puede dividir Internet: nivel físico, de protocolos, de dominios y de web.

 En la PRIMERA CAPA,  el nivel físico, el control parece corresponder a la ITU (International Telecommunication Union), que agrupa desde antiguo a las grandes operadoras de telefonía y tiene una gran capacidad de interlocución con gobiernos y corporaciones. La infraestructura física de la red se gobierna a través de un sistema de acuerdos y alianzas estratégicas cambiantes entre compañías y administraciones nacionales y transnacionales, que pugnan por recuperar parte de un poder que saben perdido de antemano. A día de hoy, y tal como han funcionado las cosas, parece claro que ninguna compañía o administración puede alcanzar la hegemonía en este terreno. La liberalización de las telecomunicaciones ha puesto el cable -resumen de la infraestructura física de la Red- en manos del mercado. Si el paso de lo público a lo privado se ha hecho con facilidad y perfil bajo, el movimiento inverso, de intentarse, sería sumamente ruidoso y problemático.

 En la SEGUNDA CAPA, el nivel de los protocolos, el principal control parece corresponder a la ISOC  (Internet Society), que ocupa el lugar que antes detentaba la IETF de forma autónoma. “El proceso más característico que tiene lugar en este nivel de la gobernanza de la Red es de acogimiento o patronazgo por el cual una institución preexistente viene a integrarse en una estructura de nivel superior que se ocupa de garantizar su funcionamiento.”[7] Es lo que ocurrió con la IETF, auténtico corazón de la ISOC y lugar donde se crea el código previo consenso de sus miembros. La ISOC se formaliza en 1992, y la novedad es que ya no se financia exclusivamente con capital público. La integran unos 65.000 socios a título individual y más de 150 corporaciones de muy variado tipo. Sin embargo, y en contra de la imagen que gusta dar de sí, la ISOC no está orientada al público. Ser miembro a título individual (que en alguna modalidad de afiliación cuesta dinero) no faculta para entrar en los grupos de trabajo y organismos que realmente deciden las cosas (el Internet Society’s Advisory Council y el ISOC Board of Trustees). El acceso de entidades públicas y privadas se hace según seis modalidades distintas. La categoría de Platinum Contributor, por ejemplo, supone un desembolso de cien mil dólares por año, y la de Small Business Member dos mil quinientos.[8] A todos los efectos, es una institución asentada en Estados Unidos con una sede en Ginebra y sometida a la legislación norteamericana.

Si antes se elaboraba el código teniendo en cuenta las necesidades que revelaban los tecnólogos, ahora lo que se tiene en cuenta es la necesidad de la industria. Es, pues, un código reconfigurado sobre todo para favorecer los intereses empresariales de las corporaciones que forman parte de la organización. Y de ella forman parte todas las grandes empresas relacionadas con la informática y las telecomunicaciones.

¿Cómo se accede y se ejerce el control? El método es largo, pero muy ilustrativo. En primer lugar, es la IETF la que redacta el código, actualizándolo con las sucesivas normas RFC. La IETF se reúne unas tres veces al año. La participación es abierta, pero las condiciones filtran en gran medida el tipo de participante:

-en primer lugar, los gastos de viaje y estancia corren por cuenta del participante.

-en segundo lugar, hay que pagar una cuota de inscripción de unos 700 dólares por reunión.

-en tercer lugar, el recién llegado tiene a un miembro sénior que hace de tutor para evitar que se infiltren personas con intereses descaradamente corporativos o bien poco afines a los que en ese momento tiene la IETF.

-en cuarto lugar, la rutina de trabajo no se desarrolla en las reuniones, sino a través de listas de correo controladas por la cúspide de la ISOC. El consejo de administración de la ISOC (compuesto por 13 miembros) delega la creación, mantenimiento y supresión de los grupos de trabajo que darán lugar a una nueva RFC a la IESG (Internet Engineering Steering Group). La IESG nombra una serie de directores de área como responsables inmediatos de estos grupos de entre los miembros de la IETF, con dos años de duración. De esta forma se consigue, por una parte, conservar el trabajo abierto, creativo y colaborador de los primeros tiempos, pero se controlan los objetivos a alcanzar. Un grupo de trabajo que plantee una reescritura del código que no coincida con los objetivos prioritarios fijados por la ISOC tendrá, pues, muchas probabilidades de no salir adelante. No hay aquí democracia ninguna, y menos aún participación ciudadana: “hablar de un gobierno democrático sometido al principio de representación no parece aceracrse ni de lejos a la realidad que estamos describiendo.”[9]

La TERCERA CAPA, el nivel de los dominios, es terreno de la ICANN (Internet Corporation for Assigned Names and Numbers). Fue creada en 1998, tras haber incorporado a su estrutura la IANA y tener el control de los registros locales de dominios. Su historia es interesante. Cuando la NSF inició el proceso de privatización de su red (la NSFNet) en 1995, adoptó una decisión de gran trascendencia, que fue ceder la gestión de los nombres de dominio a una empresa privada, Network Solutions, que cobraba cincuenta dólares anuales por el alquiler de cada nombre, pasando una parte a la NSF. Esta medida originó lo que se conoce como Guerra de los nombres de dominio, que termina en 1998 cuando se cede la gestión de los nombres de dominio a la IANA. Esta medida fue adoptada ante el riesgo que suponía que una única empresa tuviera control de todos los dominios de la Red. En el 2000 el Departamento de Comercio de los Estados Unidos reconoce finalmente a la ICANN la gestión de los dominios a través de la IANA. Esta necesita de la estrecha colaboración con la IETF, dado que la gestión de los dominios implica una constante revisión del código. IANA e IETF han acordado un cierto reparto de responsabilidades.

La dirección de la ICANN está compuesta por 15 miembros elegidos por un complejo procedimiento, en parte opaco. Sabemos que ocho de ellos (es decir, la mayoría) son nombrados por un comité de  nominaciones de compleja estructura, formado en su mayor parte por empresas del sector relacionadas con los registros regionales, aunque también lo integran cinco miembros que representarían a usuarios del sector civil. Dado que las candidaturas para el comité directivo han de contar con un apoyo financiero externo, la ICANN representa de facto a los mercados.

 La creación de una jerarquía de dominios ha sido labor de la IETF, y consta básicamente de tres niveles gestionados con diferente criterio.

Generic Top Level Domains (GTLD). Aquí se incluyen los “.com”, “.org”, “.edu”, pero también otros como “.photos”, “.sexy”, etc. Su gestión está en manos de compañías seleccionadas en un proceso competitivo organizado por la ICANN. VerSign, por ejemplo, gestiona los dominios “.com”. Cada vez que realizamos una consulta se recurre, de un modo u otro, a este nivel. Actualmente son 13 las instalaciones existentes para la gestión de estos dominios, ubicadas en su mayoría en los Estados Unidos. Las empresas que los controlan subcontratan a otras los trabajos de supervisión y mantenimiento, pero el control final recae en la ICANN, que a su vez depende del Departamento de Comercio de los Estados Unidos. El control, pues, es netamente gubernamental y norteamericano.

Country Cod Top Level Domains (CCTLD). Son los destinados a identificar al país al que se adscribe la máquina a la que corresponde el dominio.

Internationalized Domain Names (IDN). Son como los CCTLD pero admiten caracteres no latinos.

 CUARTA CAPA, el nivel de la web (que es un entorno de Internet, www, y no se debe confundir con Internet misma). El entorno web nace a partir de 1991, ya que antes de esa fecha no es posible encontrar en la Red páginas web. La IETF no supo reconocer el potencial de la web para Internet, y por eso transcurrió un tiempo hasta que se publicaron los estándares RFC-1866 (1995) y RFC-1945 (1996) que la regulan. Con la adopción del lenguaje HTML para la creación de páginas web en 1995, y la renuncia a patentar el invento, Berners-Lee y otros expresan el espíritu de comunicación libre que caracteriza a la Red en sus comienzos, y que fue algo realmente revolucionario. Un año antes, en 1994, Berners-Lee crea la W3C (World Wide Web Consortium) con el mismo objetivo que la IETF. Albergada por el MIT (Massachusetts Institute of Technology), la universidad de Keio (Japón) y el ERCIM (European Research Consortium for Informatics and Mathematics), formado por un complejo entramado de empresas, instituciones y personalidades, es un agente relevante en todo lo referido al código e infraestructura de la Red. En todo ello, opina Enrique Alonso, “se está siguiendo lo que parece un reparto razonable de las áreas de influencia heredado de unos orígenes en los que la tecnología marcaba las distinciones, no la política.”[10]

La W3C no admite, salvo excepciones, miembros a título individual, sino que está formada por delegados de empresas que han decidido incorporarse a la organización, pagando entre 1.000 y 68.000 dólares anuales, dependiendo del tipo y capitalización de la empresa. No falta ninguna empresa de hardware o software de cierto tamaño, así como organismos públicos y de investigación. La W3C consiguió casi de inmediato el reconocimiento general. Su tarea se centra en extender el uso de la web lo más posible para todo tipo de aplicaciones. Su principal figura sigue siendo Tim Berners-Lee, socio fundador.

 

RECAPITULACIÓN

 

“Si hubiera que identificar la forma de gobierno que en la actualidad tiene la Red [...] sería precisamente esta: un gobierno de las partes mutuamente interesadas”.[11] En su mayoría, las partes interesadas son agentes económicos que, por tanto, no han sido elegidos por nadie ni rinden cuenta a los gobiernos salvo en temas fiscales y legales. “La Red, al menos como ha llegado a nuestros días, no es el producto de una sociedad deseosa de alcanzar la igualdad y el fomento de la participación ciudadana: si responde a algo es al giro neoliberal experimentado durante las dos últimas décadas del siglo XX, y es ahí donde se definen las líneas maestras de su gobierno.”[12] Sin embargo, su gobierno responde a intereses tan variados y contrapuestos que esto asegura cierto equilibrio. De haber sido controlada por los gobiernos, quizá nos hubiera ido peor.[13] Ahora bien, este sistema de equilibrios “no asegura un porvenir justo”.[14] Para la Red, no somos ciudadanos sino usuarios. En cuanto usuarios, generamos una plusavalía digital por el tiempo que empleamos en usar un recurso o una plataforma en la Red. Debemos reclamar esta plusvalía a los gobiernos para generar un acceso universal a la Red concebida como servicio público, y no como un bien de consumo disponible en función de la renta individual. Es necesaria mayor concienciación de la ciudadanía para exigir más a los gobiernos en este punto. Hay que exigir también más transparencia y participación ciudadana en las instituciones que controlan Internet.

 


 

[1] “Las tesis e ideales que dieron forma a la sociedad occidental durante los siglos XIX y XX están gastadas, no dan más de sí, y pese a la proliferación de doctrinas imaginativas y por lo general bienintencionadas, ninguna posee en su interior la carga de futuro que la ocasión requiere. Estamos huérfanos de teorías y todo parece indicar que aún será así por un tiempo.” Alonso, p. 5.

[2] En 1972 cambió su nombre por DARPA (Defense Advanced Research Projects Agency).

[3] Memorandum For Members and Affiliates of the Intergalactic Computer Network, 1963.

[4] De hecho, los militares se separaron de Internet en 1983 creando su propia red, MilNet, que en los noventa pasó a ser NIPRNet. Forma parte de la Red de Sistemas de Información de la Defensa (Defense Information Systems Network), incluyendo otras redes de creciente seguridad para la transmisión de secretos: SIPRNet y JWICS. Pero lo interesante es que se basan en la tecnología de Internet, y no a la inversa. Lo mismo ocurre con la Intellipedia, un recurso para los servicios de inteligencia basado en la tecnología de la Wikipedia, pero de uso restringido... y mantenido por Google. Resulta muy interesante que el espionaje, empezando por la CIA, se haya dado cuenta de que se consigue más compartiendo información que limitándola. Sin duda las lecciones del 11 de septiembre fueron muy duras. Esto incluye el riesgo de que otros conozcan la información, pero ese riesgo actualmente se cuantifica y se rentabiliza (además siempre ha habido riesgos). El riesgo más elevado proviene de la falta de comunicación, parecen habler concluido algunos eminentes analistas. Cfr. George, R.Z.; Bruce, J. B. (eds): Analyzing Intelligence, Georgetown University Press 2014.

[5] Agencia federal independiente creada por el Congreso en 1950 para el desarrollo de la ciencia básica con las miras puestas en la seguridad y el liderazgo de la nación. En 2016 disponía de un presupuesto de 7.500 millones de dólares y es responsable del 24% de toda la investigación universitaria norteamericana. (Cfr. https://www.nsf.gov/about/).

[6] En 1984 se “trocea” AT&T para evitar el monopolio, y lo mismo ocurre con British Telecom. La Comisión Europea establece en 1993 un margen para la liberalización total de las telecomunicaciones, previsto para 1998.

[7] Alonso, p. 120.

[8] Alonso, p. 123.

[9] Alonso, p. 129.

[10] Alonso, p. 110.

[11] Alonso, p. 187.

[12] Alonso, pp. 189-190.

[13] “Sería una ingenuidad reclamar una Red más controlada por unos poderes que han perdido su credibilidad como herramientas de transmisión de la voluntad del último sujeto de derechos, el ciudadano. Los casos en los que los gobiernos han reclamado un mayor control no han dado lugar precisamente a experiencias de progreso, sino por lo general a la imposición de medidas de censura y de persecución de la libre expresión de los ciudadanos en la Red.” Alonso, p. 196.

[14] Alonso, p. 193.

VOLVER A PORTADA