/* ELIMINACIÓN DE TEXTOS RESIDUALES EN EL MENÚ */ .label-size, .label-name, .label-count, .cloud-label-widget-content, .label-wrapper, .label-item, .label-head, .label-list, .feed-link, .show-more, .status-msg-wrap { display: none !important; visibility: hidden !important; height: 0 !important; font-size: 0 !important; /* Mata el texto aunque el contenedor no cierre */ margin: 0 !important; padding: 0 !important; } /* SI ES PUBLICIDAD DE ADSENSE MAL UBICADA */ ins.adsbygoogle[data-ad-status="unfilled"], .google-auto-placed { display: none !important; } /* ====== FORMATO FIJO PARA ENTRADAS ====== */ /* Títulos */ h1 { font-size: 2.2em; font-weight: bold; text-align: center; margin: 25px 0; color: #d32f2f; } h2 { font-size: 1.8em; font-weight: bold; margin: 20px 0; color: #333333; } h3 { font-size: 1.4em; font-weight: bold; margin: 15px 0; color: #555555; } /* Texto */ p { margin-bottom: 15px !important; line-height: 1.6; } strong { font-weight: bold; color: #002060; } em { font-style: italic; color: #444444; } /* Imágenes */ img { max-width: 100%; height: auto; display: block; margin: 15px auto; border-radius: 5px; /* opcional */ }

Menú

Slider

Libros Más Recientes

EMANCIPACIÓN DE YOUTUBE, OTRA MANERA DE VER LA ACTUALIDAD

Libros Más Leídos

Libro N° 14516. Tecnoceno. Algoritmos, Biohackers Y Nuevas Formas De Vida. Costa, Flavia


© Libro N° 14516. Tecnoceno. Algoritmos, Biohackers Y Nuevas Formas De Vida. Costa, Flavia. Emancipación. Noviembre 22 de 2025

 

Título Original: © Tecnoceno. Algoritmos, Biohackers Y Nuevas Formas De Vida. Flavia Costa

 

Versión Original: © Tecnoceno. Algoritmos, Biohackers Y Nuevas Formas De Vida. Flavia Costa

 

Circulación conocimiento libre, Diseño y edición digital de Versión original de textos:

https://ww3.lectulandia.com/download.php?t=2&d=bTV3RmllTm4v&ti=Tecnoceno


 

Licencia Creative Commons:

Emancipación Obrera utiliza una licencia Creative Commons, puedes copiar, difundir o remezclar nuestro contenido, con la única condición de citar la fuente.

La Biblioteca Emancipación Obrera es un medio de difusión cultural sin fronteras, no obstante los derechos sobre los contenidos publicados pertenecen a sus respectivos autores y se basa en la circulación del conocimiento libre. Los Diseños y edición digital en su mayoría corresponden a Versiones originales de textos. El uso de los mismos son estrictamente educativos y está prohibida su comercialización.

Autoría-atribución: Respetar la autoría del texto y el nombre de los autores

No comercial: No se puede utilizar este trabajo con fines comerciales

No derivados: No se puede alterar, modificar o reconstruir este texto.

 

Portada E.O. de: 

https://ww3.lectulandia.com/download.php?t=2&d=bTV3RmllTm4v&ti=Tecnoceno 

 

 

 

 

© Edición, reedición y Colección Biblioteca Emancipación: 

Guillermo Molina Miranda




LEAMOS SIN RESERVAS, ANALICEMOS SIN PEREZA Y SOMETAMOS A CRÍTICA TODA LA CULTURA

TECNOCENO

Algoritmos, Biohackers Y Nuevas Formas De Vida

Flavia Costa


 

 

 

 

 

Tecnoceno

Algoritmos, Biohackers Y Nuevas Formas De Vida

Flavia Costa

 

 

 

 

 

 

 

 

 

 

 

 

 



 

 

 

 

Chernóbil, la crisis financiera de 2008, los incendios en el Amazonas o la pandemia de coronavirus no son eventos aislados. Son «accidentes normales», síntomas del crecimiento y la destrucción acelerados, que, en menos de setenta años, transformaron nuestra vida y la del planeta para siempre.

 

En Tecnoceno Flavia Costa delinea con sutileza la trama cultural y política de este mundoambiente alucinatorio cuya virtualidad se sostiene en una red material hecha de cables, satélites y edificios, por donde desfilan bioartistas, ciencia forense, organizaciones de derechos humanos, sistemas de vigilancia y empresarios transhumanistas. Y advierte sobre el papel clave que cumplen hoy las huellas: las biométricas, las comportamentales y las que dejamos en el suelo, la atmósfera y los océanos. Unas porque su capitalización ha desatado una feroz batalla geopolítica. Otras porque de ellas depende el futuro de la Tierra.



 

 

 

 

 

 

 

 

 

 

 

 

 

Flavia Costa

 

Tecnoceno

 

Algoritmos, Biohackers Y Nuevas Formas De Vida

 

 

 

ePub r1.0

 

Un_Tal_Lucas 16.11.2025



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Título original: Tecnoceno

 

Flavia Costa, 2021

 

Editor digital: Un_Tal_Lucas

 

ePub base r3.0 (ePub 3)

 

Por la naturaleza de la red, puede que algunos de los vínculos a páginas web en el libro ya no sean accesibles.



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Para Julia y Lucio



 

 

Para Alejandro



 

 

 

 

 

 

 

 

 

 

 

 

 

 

  

 

Introducción

 

El vértigo del salto de escala

 

 

¿Por qué «Tecnoceno»? • El cruce de dos aceleraciones: técnica y biológica  •  El  salto  de  escala  en  nuestra  relación  con  el mundoambiente • De Chernóbil a la pandemia de covid-19: la era de los «accidentes normales», inevitables pero previsibles • Un cóctel explosivo: el volumen de la especie, los desarrollos tecnoindustriales, la degradación del ecosistema y la enorme desigualdad • El shock de virtualización • Seguimos siendo modernos • La política se biologiza, la vida se tecnifica

 

 

Podríamos llamarnos «utopistas invertidos»: mientras que los utopistas corrientes son incapaces de producir realmente lo que pueden imaginar, nosotros somos incapaces de imaginar lo que realmente estamos produciendo.

 

Günther Anders,

 

«Tesis para la era atómica», 1959

 

 

Después de atravesar el desconcierto inicial, quedó claro que la pandemia del coronavirus no ha sido solamente la irrupción de un acontecimiento novedoso, sino el signo de una gran transformación epocal. Signo de un salto de escala en nuestra relación con el mundoambiente, que se venía macerando al menos desde mediados del siglo pasado.

 

Si queremos ubicar este acontecimiento tan dislocante en una serie, propongo hacerlo en la de los «accidentes normales» de la nueva época abierta con el proceso que en 2005 el químico Will Steffen llamó la Gran Aceleración, y que, siguiendo la sugerencia del filósofo alemán Peter Sloterdijk (2015), del francés Jean-Luc Nancy (2015) y del sociólogo portugués nacido en Mozambique Hermínio Martins (2018), denomino Tecnoceno: la época en la que, mediante la puesta en marcha de tecnologías de alta complejidad y altísimo riesgo, dejamos huellas en el mundo que exponen no solo a las poblaciones de hoy, sino a las generaciones futuras, de nuestra especie y de otras especies, en los próximos milenios. Huellas que pueden, como en el caso del accidente nuclear de Chernóbil, ocurrido en 1986, poner en riesgo la vida de medio planeta, y cuyos efectos sobre el ecosistema perdurarán por tanto o más tiempo que el que ya lleva en la Tierra la humanidad. Se estima que la radioactividad emanada de la explosión del reactor de Chernóbil se extinguirá recién dentro de unos 260 a 300 mil años; para darnos una idea, de hace 300 mil años datan justamente las huellas más antiguas de Homo sapiens, encontradas en 2017 en el actual territorio de Marruecos.

 

Utilizo el término Tecnoceno como una declinación o especificación de otro término, el de Antropoceno, propuesto en el año 2000 por el químico atmosférico holandés Paul Crutzen, premio Nobel 1995, para señalar que la influencia del comportamiento humano sobre la Tierra en las últimas décadas ha sido tan significativa como para implicar transformaciones en el nivel geológico que han traspasado ya el umbral de irreversibilidad, no admiten vuelta atrás. De hecho, pese a las encendidas discusiones que la propuesta de Crutzen suscitó entre geólogos y especialistas de otros ámbitos expertos, el 20 de mayo de 2019, el Grupo de Trabajo sobre el Antropoceno dentro de la Subcomisión de Estratigrafía del Cuaternario, que es a su vez un cuerpo de la Comisión Internacional de Estratigrafía, resolvió por 29 votos contra 4 que el Antropoceno constituye una nueva capa estratigráfica en el planeta. En esa misma reunión, el Grupo dató el inicio del Antropoceno en la Era Atómica —y no, como había sido la propuesta original de Crutzen, en los comienzos de la era industrial, con la invención de la máquina de vapor y el ingreso en la era de los combustibles fósiles.

 

Esta precisión temporal es reveladora, en la medida en que ubica el inicio de la era del «antropos» en un momento particularmente denso en lo que respecta a la capacidad de afectar de modo material el planeta: la posibilidad concreta de liberar energía nuclear. Es por esto que me inclino a poner el acento en la cuestión del despliegue técnico (Tecnoceno), en las infraestructuras construidas y en los modos de energía desencadenados, del mismo modo en que otros lo han puesto en la economía política y en el entramado de relaciones sociales propios de la acumulación capitalista globalizada como eje propiciador de este gran salto, y hablan entonces de Capitaloceno (Moore, 2016; Svampa, 2019). En ambos casos, lo que hacemos es echar luz sobre una dimensión particularmente significativa para comprender el Antropoceno, y sobre la que creemos necesario reflexionar en profundidad para promover formas de vida alternativas.

 

Entre los elementos que, según estos expertos, definen el Antropoceno/Tecnoceno se cuentan el cambio climático, producto del aumento de las emisiones de dióxido de carbono y otros gases de efecto invernadero; la pérdida de biodiversidad y el aumento de la población humana; la alteración, por obra del humano, de ciclos biogeoquímicos como los del agua, del carbono, del nitrógeno y del oxígeno por medio de la actividad industrial, la deforestación, la contaminación de suelos y napas por acción de fertilizantes y plaguicidas. Esto coincide con lo señalado por Steffen, quien describió doce curvas de aceleración muy pronunciada a partir de mediados del siglo xx en áreas sociales críticas: el crecimiento de la población, del producto interno bruto (PIB) real a nivel global, de la inversión extranjera directa, de la población urbana, la utilización de energía primaria, el consumo de fertilizantes, el uso del agua potable, la construcción de grandes represas, la producción de papel, el transporte, las telecomunicaciones y el turismo internacional. A las que sumó otras doce curvas similares en el Sistema Tierra: el crecimiento en las emisiones de dióxido de carbono, óxido nitroso y metano, la caída del ozono estratosférico, el aumento de la temperatura de la superficie terrestre, la acidificación oceánica, la captura de peces marinos, el aumento de la acuicultura de camarón, el aumento del nitrógeno en zonas costeras, la pérdida de bosques tropicales, la degradación de la biosfera terrestre y el aumento de las tierras preparadas para cultivo.

 

En la historia del Tecnoceno, la década de 1970 ha sido un momento particularmente denso, de catalización de tendencias preexistentes. Veámoslo a la luz de unos pocos hechos. En 1970, el físico Francis Crick publicó en la revista Nature lo que él denominó el Dogma Central de la biología molecular, donde propone una explicación unidireccional (desde el ADN hacia el ARN, luego hacia la proteína hasta desencadenar la acción celular) de los mecanismos de transmisión de la herencia genética. Posteriormente, ese «dogma» ha sido cuestionado, sobre todo en lo que respecta a esa vía unilineal —se sabe hoy que no es la única opción—, pero los ensayos en torno a él propiciaron inéditas experimentaciones con la posibilidad de descifrar, alterar y reprogramar el llamado «código de la vida». En los tres años siguientes, se desarrollaron las primeras experiencias con la técnica del ADN recombinante, en la que se crea de manera artificial, in vitro, una molécula de ADN a partir de la unión de secuencias de ADN de dos organismos que en condiciones silvestres jamás se juntarían. En 1973, el genetista Stanley Cohen y los bioquímicos Paul Berg y Herbert Boyer transfirieron con éxito el gen de una rana en el ADN de una bacteria Escherichia colli.

 

Ya en nuestra región, entre 1971 y 1973 se desarrolló en el Chile de Salvador Allende el proyecto Cybersyn —por las siglas en inglés de «sinergia cibernética»—, también conocido como SYNCO, sistema de información y control, que lideró el científico británico Stafford Beer, convocado por el entonces ministro de Hacienda Fernando Flores. Su propósito era gestionar todas las empresas controladas por el Estado en tiempo real mediante una red de teletipos interconectados, utilizando los principios de la cibernética.

 

Poco después, en 1974, apareció en sociedad la máquina Altair 8800, considerada la chispa que encendió el boom de la computadora personal. Fue para ella que Bill Gates y Paul Allen diseñaron el lenguaje de programación Altair BASIC, y un año más tarde fundaron Micro Soft, nombre que luego cambiaría a Microsoft.

 

En 1977 Michel Foucault brindó una breve y hoy muy difundida intervención en la Universidad de Vincennes titulada «Nuevo orden interior y control social», en la que, ante el declive evidente del modelo de gobierno disciplinario de las poblaciones, anticipaba el escenario de lo que luego Gilles Deleuze denominaría «sociedad de control». Esta nueva sociedad estaría basada en un «sistema de información general» que no tiene por objetivo central la vigilancia continua de cada individuo, sino la posibilidad de intervenir allí donde se constituya un peligro —o una oportunidad comercial o política—: «una especie de movilización permanente de los conocimientos sobre los individuos», de base informacional. Por último, en 1979 se produjo el más grande incidente en una planta civil de energía nuclear hasta ese momento, y el tercero en envergadura todavía hoy después de Chernóbil (en la entonces Unión Soviética) y Fukuyima (Japón, 2011). Se trató de la explosión del reactor nuclear de Three Mile Island (en Pensilvania, EE. UU.), a partir de la cual el investigador estadounidense Charles Perrow, especialista en sociología de las organizaciones, acuñó la noción de «accidente normal».

 

Con «accidente normal», Perrow alude a un tipo de perturbación mayor, un acontecimiento disruptivo de gran envergadura, al mismo tiempo previsible e inevitable, que es propio de los sistemas que involucran tecnologías de alto riesgo. En estos sistemas complejos, los factores tecnológicos y organizacionales están fuertemente imbricados y tienen dos características que los distinguen de los sistemas lineales. La primera son los «acoplamientos fuertes»; esto significa que los procesos ocurren a gran velocidad y que buena parte de ellos, una vez iniciados, no pueden ser detenidos rápidamente: no hay tecla off en una corrida bancaria, un derrame de petróleo o un reactor nuclear que comienza a explotar. En estos acoplamientos existen una o más secuencias invariables que no pueden ser resumidas o simplificadas, y ante una falla o un imprevisto, el margen para reemplazar materiales o personas competentes es muy escaso. La segunda característica de los sistemas sociotécnicos complejos es que en ellos se dan interacciones inesperadas: distintos componentes del sistema pueden interactuar con otros elementos fuera de la secuencia prevista por el diseño, o incluso con elementos externos al sistema, como ocurre por ejemplo en «las centrales nucleares, la producción de ADN recombinante o los cargueros que transportan sustancias de elevada toxicidad», tal como sostiene Perrow en el libro Accidentes normales, publicado en inglés en 1984.

 

Los «accidentes normales» o «accidentes sistémicos», como también los llama Perrow, no son normales porque sean frecuentes, sino porque son inherentes a un sistema complejo. Dice este autor: «… la muerte es lo normal de los mortales, y solo morimos una vez. Los accidentes sistémicos son infrecuentes, raros incluso, pero eso no es en absoluto tranquilizador cuando pueden provocar catástrofes».

 

Estos accidentes no son producto de una guerra, una negligencia o un sabotaje, sino que son inseparables de la productividad del sistema, de su desarrollo, de su incremento y de las contingencias que siempre se abren cuando se dispara una acción tecnológica hipercompleja hacia el futuro. Sin embargo, la clave radica en que estos «accidentes normales», si bien son inevitables, también son previsibles, y es posible reducir los riesgos de manera considerable si se toma en serio el mundo que efectivamente habitamos hoy.

  

La pandemia como «accidente normal»

  

La pandemia entonces puede ser interpretada como un «accidente normal» de la nueva escala abierta con el Tecnoceno. Una nueva escala en la cual los problemas sistémicos se dirimen no solo, y no tanto, entre individuos y sociedades —como estábamos acostumbrados a pensar— ni entre individuos y Estado, y ni siquiera entre Estados, sino que empezamos a participar cada vez con mayor frecuencia en situaciones que nos ponen a los individuos, a las sociedades y a los Estados ante problemas, incluidas potenciales catástrofes, de la escala de la especie —incluso de la vida del planeta en su conjunto—. Problemas que implican al Sistema Tierra —un sistema bio-socio-técnico sumamente complejo— en su totalidad; que dejan expuestas a cientos de generaciones de la nuestra y de otras especies y que involucran ámbitos expertos muy diferentes.

 

Hoy habitamos el mundo que se pensó, se edificó y en algunos casos simplemente se dejó desarrollar en las últimas décadas. Y esto es así porque, en paralelo a esta aceleración científico-técnica, se produjo también la aceleración de otros procesos biológicos y sociales. Veamos en particular tres: el crecimiento de la población humana, el incremento de la urbanización y la desigualdad estructural, que también se acrecentó a pasos agigantados en estos años.

 

La primera vez que hubo mil millones de humanos sobre la Tierra fue en torno a 1800. Tuvo que pasar más de un siglo y medio para que esa cifra se triplicara: en 1960 éramos 3 mil millones. Y en los últimos sesenta años, ese número se multiplicó por 2,5: hoy somos entre 7,6 y 7,7 mil millones de personas. Junto con el crecimiento en número absoluto, se registra un fuerte aumento de la proporción de personas que viven en ciudades: en 1950, menos del 30 por ciento de los habitantes del mundo vivía en regiones urbanas (unas mil millones de personas). Hoy casi el 60 por ciento lo hace, es decir, hay alrededor de 4,2 mil millones de aquellos a los que el sociólogo alemán Georg Simmel llamaba «urbanitas». De quienes no siempre puede decirse que hayan elegido ese destino por espíritu cosmopolita. Desplazados por la expansión de la frontera agropecuaria, por los loteos de tierras de uso común, por la desertificación, por conflictos políticos, muchos están allí simplemente porque no encuentran otro lugar donde establecerse.

 

Una de las necesidades elementales que debería tener satisfecha toda persona es el agua potable. Sin embargo, tres de cada diez personas en el mundo carecen de acceso a ella en sus hogares. Y seis de cada diez no poseen servicios sanitarios. En diciembre de 2020, el agua potable comenzó a cotizar en la bolsa de Wall Street, dentro de un índice llamado Índice del Agua Nasdaq Veles California, del grupo financiero CME (que reúne el Chicago Mercantile Exchange y el Chicago Board of Trade). Se estableció que, en su primera cotización, la cantidad de 1 233 000 litros de agua tuviera un costo de 486 dólares. Es importante entender que esto no simplemente «ocurre»: son decisiones políticas, económicas y jurídicas las que están arrojándonos a la catástrofe humanitaria.

 

Esto también es indicio de que no se trata de cuántos somos —el crecimiento es, en sí mismo, un signo afirmativo de potencia—, sino de la dramática desigualdad que organiza nuestros intercambios. Desigualdades socieconómicas, étnicas, de edad, de género, territoriales, geográficas. Detengámonos por un momento en las desigualdades distributivas. A comienzos de 2020, antes de la apertura de Foro Económico Mundial de Davos (Suiza), se conoció el informe anual de la organización no

gubernamental Oxfam, según el cual 2153 personas tienen hoy más dinero que los 4600 millones de seres humanos más pobres del planeta, el 60 por ciento de la población mundial. Pero tampoco se trata de que los recursos sean escasos: el 22 de mayo de 2020, la revista Forbes publicó en su tapa que, en los dos meses anteriores —desde que la Organización Mundial de la Salud declarara la pandemia a mediados de marzo hasta mediados de mayo—, veinticinco de las personas más ricas del mundo habían incrementado su patrimonio en 255 mil millones de dólares. Se trataba, fundamentalmente, de empresarios de las telecomunicaciones, las redes sociales y el comercio electrónico; los tres primeros de la lista eran Mark Zuckerberg, CEO de Facebook; Jeff Bezos, fundador y hasta febrero de 2021 CEO de Amazon, y Colin Huang, fundador de Pinduoduo, la segunda cadena de mercado en línea más grande de China después de Alibaba. Y el anexo metodológico del informe de Oxfam sobre desigualdad del año 2021 recoge que, entre 2020 y 2021, los 10 millonarios más ricos del mundo incrementaron su riqueza en cerca de 540 mil millones de dólares. Esa cifra —la riqueza que obtuvieron durante la pandemia, no la acumulada— serviría para garantizar entre tres y cuatro años de dos vacunas anuales para toda la población mundial a un costo por vacuna de 10 dólares la dosis[1]. En julio de 2021, Jeff Bezos, quien encabeza la lista de los más grandes millonarios de ese año, hizo un viaje de 11 minutos en una cápsula espacial privada de su empresa Blue Origin. Se estima que desde su creación en 2000, Bezos invirtió en ese emprendimiento 7,5 mil millones de dólares.

 

Este punto es clave. Si bien es cierto que «somos muchos» y que eso entraña poderosos desafíos globales —sobre todo porque se ha acentuado en paralelo el proceso de urbanización, y muchas veces no en las condiciones adecuadas—, de lo que se trata es de que la riqueza existente, e incluso la que se genera año a año, está demasiado mal repartida, y esto no ocurre de forma fortuita. Está íntimamente asociado con la tendencia incontestable tanto en Occidente como en Oriente hacia la implantación de estados de excepción de diversos tipos para robustecer las prerrogativas de los poderes fácticos. Esa es una de las razones por la cual no nos está resultando posible construir contenciones viables, de escala de conjunto, para los riesgos relativos a la vida que esta época supone.

 

Como se sabe, las zoonosis están asociadas al hecho de que poblaciones humanas entablan relación cercana con animales que no habían sido hasta el momento parte de la convivencia cotidiana, ya sea como compañía o como parte de la dieta. Si bien en el planeta hay millones de virus que residen en animales y jamás detectamos cuando sus ecosistemas están intactos, a medida que invadimos y destruimos ambientes vírgenes, esa «perturbación ecológica hace que surjan enfermedades», como afirma David Quammen en su libro Spillover. Animal infections and the next human pandemic (2012). Tengamos en cuenta que, tal como explicaba el entomólogo Edward Wilson en su estudio El futuro de la vida, de 2003, «cuando el Homo sapiens pasó la barrera de los seis mil millones [en 1999], ya habíamos superado en cien veces la biomasa de cualquier especie de animal grande que haya existido en la Tierra». En efecto, hoy, entre los seres humanos (36 por ciento) y los animales domesticados para nuestro consumo o como mascotas (59,8 por ciento), constituimos el 95 por ciento de los mamíferos terrestres grandes. Y no se trata solo de que rompemos el equilibrio ecológico. Junto con eso, ofrecemos nuestro propio cuerpo como hábitat alternativo para los virus, que se ven beneficiados con este salto: adaptándose a nuestras características biológicas, ingresan en el huésped animal más movedizo del planeta. Un anfitrión que, por añadidura, es un carnívoro hambriento, y muchas veces no percibe otra alternativa mejor para alimentarse que incorporar nuevos animales a su dieta.

 

No hace falta enumerar todas las previsiones que estuvieron a mano en los últimos años —la investigación de Quammen sobre las zoonosis; el film Contagio, de Steven Soderbergh; los libros La próxima plaga, de Laurie Garret; y Pandemias, de Peter Doherty, entre muchos otros, ya nos fueron recordados puntillosamente durante las primeras semanas de la pandemia—. Sí, en cambio, es preciso tener en cuenta que todas estas previsiones deben ser tomadas como base para una política de disminución de los riesgos.

 

Ya después de la epidemia del SARS 1, en 2003, había quedado claro que las nuevas zoonosis estaban disparadas y que era necesario prepararse para ellas. Que era preciso investigarlas científicamente y equipar los sistemas de salud con más y mejores estrategias e insumos. Que la protección de la salud pública o colectiva no puede limitarse a brindar informaciones sobre cómo cuidarse, sino que también debe ir acompañada de acciones más concretas —una forma particular de relación entre las agencias de gobierno y los ciudadanos, propia de la gubernamentalidad neoliberal, es aquella que promueve que las personas estén informadas acerca de que deben cuidarse, y acaso cómo hacerlo, mientras se desatienden y desfinancian las infraestructuras materiales, los equipamientos, la investigación científica y la formación de los trabajadores y profesionales de la salud para tratar con enfermedades nuevas y no tan nuevas; es lo que denominé en distintos trabajos «biopolítica informacional»—. Que estos casos deben afrontarse con rapidez e información, no mediante la política del secreto, como hicieron las autoridades chinas con el hoy fallecido oftalmólogo Li Wenliang, del hospital central de Wuhan, quien en enero de 2020 fue intimidado y desmentido públicamente por alertar a sus colegas sobre la posibilidad de una nueva neumonía infecciosa parecida al SARS 1.

 

Porque más allá de cuál fue el factor desencadenante —si se trató de una zoonosis por el consumo de alimentos inadecuados o de un invento de laboratorio—, el diagnóstico no cambia: la combinación entre el volumen de la especie, los desarrollos científico-técnico-industriales que hemos puesto en marcha, la degradación del ecosistema y la poderosísima desigualdad que organiza nuestros intercambios ponen al planeta entero en situación de gran vulnerabilidad. De allí que una estrategia global de control de riesgos mediante la cooperación, que deje de lado cualquier versión de «supervivencia del más apto», se vuelve la única política vital, o biopolítica afirmativa, razonable.

 

Por otro lado, el repetido mantra según el cual «de toda crisis nace una oportunidad», con su aparente bonhomía especulativa, revela aquí su índole tramposa. Más que oportunidades, las crisis sistémicas —como 2001-2002 en la Argentina o la crisis financiera mundial de 2008-2009, y luego la pandemia— se han ofrecido como ocasión para acelerar la curva de la desigualdad, con saldos profundamente regresivos. La pandemia del coronavirus nos deja claro que el crecimiento de los subsistemas humanos tecnoindustrial y «bio» necesita ser pensado en correlación con el cuidado del macrosistema medioambiental y ecológico, atendiendo a los desafíos de la nueva escala y al hecho de que, si no combatimos las profundas desigualdades, quedaremos al borde de los próximos «accidentes normales» sin defensas suficientes frente a sus consecuencias.

 

El parque tecnológico de base informacional —las redes sociales y los teléfonos móviles inteligentes, por poner dos ejemplos muy cotidianos—, al igual que el sistema financiero, llevan en esto mucha ventaja. Han sido ellos, en buena medida, los que han empujado este salto, para el cual se han impulsado las grandes infraestructuras comunicacionales que recorren el mundo, como los cables submarinos que atraviesan el planeta en los lechos oceánicos conectando los continentes con redes de fibra óptica. Y no es un dato menor que toda esa infraestructura, imprescindible para la continuidad de la vida durante la crisis global de la pandemia, sea principalmente de propiedad privada.

 

De allí que, entre las tareas ciertas que deberemos desarrollar en el incierto futuro pospandemia, una fundamental será asomarnos a la cuestión de los efectos del «shock de virtualización» al que condujeron las medidas de aislamiento de buena parte de la población mundial. En pocas semanas, asistimos a un proceso vertiginoso de digitalización de la experiencia cotidiana: buena parte de las personas ha adquirido por necesidad alguna clase de competencia tecnológica que hasta el momento no tenía, en un giro hacia lo digital que —se insiste— «llegó para quedarse». De allí que es preciso imaginar prácticas en las que la innovación social y la digital puedan ir de la mano, como dice el periodista e investigador de la ciencia bielorruso Evgeny Morozov. Y detectar pronto aquellas que puedan obstaculizarlas —prácticas de digitalización que solo beneficien a las más grandes empresas transnacionales, en un marco de profundización de lo que Shoshana Zuboff, en La era del capitalismo de la vigilancia (2020), llama el «capitalismo canalla»— es clave para delinear políticas hacia el futuro.

 

Si queremos construir un escenario pospandemia que pueda beneficiarse de esta aceleración técnica forzosa que estamos viviendo, es imprescindible estudiar lo ocurrido y definir con claridad los problemas a los cuales preferimos enfrentarnos. No solo para facilitar el acceso a bienes y servicios digitales a muchísimas personas que aún no lo tienen — algo sin dudas necesario hoy, pero que también conlleva retos y amenazas:

a la privacidad, a la soberanía nacional, a capacidades personales como la concentración y la resolución de problemas complejos, a la independencia de criterio—, sino también para imaginar alternativas estructurales de desarrollo con soberanía tecnológica, cuidado medioambiental y protección de los bienes comunes. Y con capacidad informada para decidir cuándo sí y cuándo no abrazar la digitalización.

 

Desde Aristóteles hasta nuestros días, la tradición filosófica nos enseña que la potencia más específica del viviente humano se asienta en lo que Giorgio Agamben denomina «potencia de no»: la capacidad de decidir si y cuándo hacer, y cuándo no hacer, aquello que podemos fácticamente hacer. Este gesto de reflexión, de decisión meditada, es lo que distingue el reino de la necesidad —el riguroso de la obligación, y también el destructivo de la compulsión— del reino de la genuina libertad humana.

 

 

Cuestiones de método

 

 

Frente a este escenario tan complejo y tan desafiante, ¿qué hacer? Voy a volver a esta pregunta varias veces a lo largo del libro, y para intentar responderla, con frecuencia orientaré la mirada hacia lo que están haciendo los artistas. ¿Por qué? Por razones tanto teóricas como de método. Para explicarme, permítanme compartir algunos presupuestos de mis investigaciones.

 

Lo primero es una precaución que me llega de los estudios culturales, tanto los de la tradición británica como los latinoamericanos. Ellos nos han legado una intuición fundamental, según la cual las manifestaciones en la cultura y las artes constituyen nuestras formas de vida con tanta o mayor intensidad que las zonas que solemos imaginar como «duras» o «estructurales» en la vida social: la economía, la política, las relaciones de clase, género, raza, los modos de producción.

 

Las prácticas y los procesos de creación artística, que suelen ser concebidos actuando en el nivel de las «representaciones», no son por eso menos constitutivos de nuestro mundo. Por el contrario: son primarios; es decir, primeros con relación a él. Porque nuestra diferencia específica con el resto de las especies animales consiste, justamente, en la capacidad de prefigurar, de anticipar, de imaginar y fabular, de crear mitos e imágenes. Y es en el uso de esas capacidades que organizamos de ciertas maneras nuestro mundo familiar, social y comunitario. Las prácticas culturales y artísticas, por lo tanto, no «ilustran» los procesos económicos, políticos o tecnológicos; no derivan ni están determinadas por ellos, no les están subordinadas. Más bien los acompañan, los coconstituyen, y en algunos casos los prefiguran. Poniendo continuamente en juego esos procesos «duros» en situaciones imaginadas, pero no por eso menos reales, los orientan, les dan un sentido.

 

Pueden robustecer esos procesos —y así cumplen el papel de reforzar la reproducción de lo que existe—. Pueden ofrecer imágenes novedosas hacia las cuales tender —y así prefiguran lo que viene, pero no porque los artistas sean necesariamente visionarios, sino porque los inventores, los ingenieros, los técnicos, los políticos se nutren de las imágenes artísticas para soñar qué querrían construir—. Pueden cuestionar y desorganizar lo que es —y entonces cumplen un papel crítico, diferenciador, creador de sentidos nuevos—. Y a veces, es cierto, también anticipan lo que está por venir. En la medida en que organizan los valores y los símbolos de una época en escenarios ficcionales, pueden —a la manera de un laboratorio de vida especulativa— poner a funcionar de modo experimental, artificial, creado, las líneas de fuerza más poderosas de una situación, ayudando a entrever de qué forma podrían funcionar esos elementos en situaciones nuevas, irreproducibles en la vida real, pero poderosamente pregnantes para quien las observa y las lee con atención.

 

Por eso interesa tanto aquello que los artistas son capaces de idear en este momento crucial. Porque su modo de conocer y representar lo que existe es muy diferente del de los científicos y técnicos. Como señaló en 2008, durante una visita a Buenos Aires, el investigador de los cruces entre arte y ciencia Stephen Wilson, el abordaje artístico se distingue del científico y técnico, entre otras cosas, porque sobre las mismas realidades, los artistas se formulan preguntas diferentes de las que enuncian los hombres y las mujeres de ciencia. Asignan otras prioridades en sus agendas de investigación y creación, a la vez que interpretan de manera distinta los resultados de sus investigaciones. Reflexionan y muchas veces desmontan las ideas que tenemos naturalizadas sobre los materiales con los que trabajan, sean físicos o psíquicos, y sobre las relaciones que establecen nuestros intercambios. Y finalmente, identifican y muchas veces exploran con sus propios cuerpos las consecuencias culturales y políticas de los procesos en los que se ven involucrados.

 

A eso cabría agregar al menos otras dos cuestiones centrales para nuestro presente. Por un lado, los artistas subvierten, resignifican o directamente suprimen la utilidad científico-técnica con finalidades reflexivas, expresivas, activistas —muchas veces con una visión ecologista y de concientización sobre diversos aspectos de la realidad—. Y en segundo lugar, proponen nuevas miradas sobre el estatus de los elementos que integran lo existente; exploran las continuidades y las fronteras entre las especies, así como entre lo natural y lo artificial. El laboratorio bio-ciber-tecnológico aparece, para los artistas, no tanto como una plataforma de producción, sino como un ámbito de interrogación filosófica y ética, donde está en juego la desnaturalización de las actuales formas de vida, así como el vínculo entre las especies, los dilemas del cuidado y el descuido, la atención o la despreocupación sobre el destino de los otros.

 

Luego de esta primera cuestión, otras dos grandes perspectivas están en la base de estas interrogaciones. Se sabe que para llevar adelante un análisis es fundamental partir de un diagnóstico. Todavía más si lo que buscamos es descifrar el propio tiempo, al que creo que podemos seguir llamando Modernidad: el tiempo cuya actitud fundamental es pensarse a sí mismo, y que se propone dar lugar, a partir de lo que somos, a la posibilidad de ser y pensar de otra manera. Este sería el primer punto de partida: si todavía podemos denominarnos modernos, es porque, siguiendo la lectura que Michel Foucault hace de la Ilustración, «ser moderno» no es aceptar determinado ideal de ser humano al que habría que adecuarse, ni tampoco sostener una idea de racionalidad modelada a imagen de cierta ciencia y cierta tecnología, sino que se trata de una actitud de coraje para ser y pensar de otra manera respecto de aquello que somos y hemos sido.

Ahora bien, ¿qué y cómo es concretamente la Modernidad? Se han dado muchas respuestas. Se ha dicho que es una época de racionalización —la tesis de Max Weber y de los pensadores de la escuela de Frankfurt—; de secularización —para Karl Löwith y Carl Schmitt, entre otros— o mundanización —según Giacomo Marramao—; de legitimidad o autoafirmación —según Hans Blumenberg—, de individuación —Hannah Arendt—. Por mi parte, vengo trabajando en los últimos quince años a partir de dos tesis complementarias a estas, que me permitieron trazar un panorama de conjunto de problemas que las recién mencionadas no alcanzaban a iluminar del todo. Esto me llevó a poner en relación dos tradiciones de pensamiento y dos procesos históricos que habitualmente han sido pensados por separado.

 

Mi diagnóstico podría resumirse así: la Modernidad es aquella época en la que confluyen dos procesos tendenciales que involucran y envuelven la vida por completo; el de tecnificación y el de politización de la vida. O también el de biologización de la política —en la línea de la tesis biopolítica que inaugura Foucault en la década de 1970— y el de vitalización de la técnica.

 

La hipótesis biopolítica comparte la suerte de todo clásico: es mucho más nombrada que frecuentada. Lejos del fingido escándalo de quienes se lamentan porque un concepto se hizo tan conocido que las personas, eruditas o no, lo «malentienden», es siempre un acontecimiento significativo que una noción filosófica compleja se incorpore al habla corriente. Es signo de que esa noción alcanzó a delimitar una zona de la realidad que necesitaba de una nueva matriz de análisis para ser iluminada. La tesis básica acerca del biopoder señala que la Modernidad es aquel tiempo en el que la política asume que en el centro de sus preocupaciones está la vida biológica de los seres humanos —aun más que el territorio; esto, entre otros motivos, porque según la formulación foucaultiana, el biopoder se desarrolla cuando el planeta ha sido ya cartografiado y las potencias coloniales de Europa asumen que no hay más territorios por conquistar sin entrar en guerra con los vecinos, para lo cual se requieren ejércitos particularmente poderosos.

 

Esto significa al menos dos cosas: por un lado, que los cuerpos concretos de los individuos y de las poblaciones humanas son el objeto de las políticas públicas, que se dirigen a ellos con el propósito de ajustarlos, organizarlos, regularlos, administrarlos, moldearlos para volverlos útiles y productivos en términos económicos y dóciles en términos políticos. Por otro, que esos cuerpos y esas vidas van adquiriendo, en un proceso lento pero indetenible, el rango de sujetos de aquellas mismas políticas. En conjunto, la tesis del biopoder constituye el reverso crítico de la narrativa heroica de la democratización: en virtud de un proceso que aún dista de estar acabado, el hecho del nacimiento y el derecho de ciudadanía comienzan de manera paulatina a coincidir, y todos y cada uno de los vivientes humanos empiezan a ser reconocidos como sujetos, esto es, agentes políticos plenos. Pero a la vez, en ese mismo movimiento, se los inscribe e interpela como objetos de mecanismos que buscan gobernarlos integralmente, es decir, conducir sus conductas en muy diferentes planos de su existencia.

 

A partir de esta formulación inicial, a lo largo de los últimos cuarenta años se desplegaron problematizaciones y debates que siguen concitando la atención de los estudiosos. Desde la pregunta historiográfica acerca de si la biopolítica es efectivamente moderna —como sostiene Foucault— o si se encuentra inscripta en los rudimentos mismos de la política occidental —la tesis del filósofo italiano Giorgio Agamben en Homo sacer —, hasta el modo en que el biopoder moderno, cuyo epicentro ha sido concebido principalmente desde y para Europa, se combina con la matriz de colonialidad que sigue atravesando todavía hoy las relaciones geopolíticas y simbólicas Norte-Sur; pasando por los usos concretos de la teoría para comprender el momento actual. Por ejemplo, de qué manera abordar las modalidades contemporáneas de la vigilancia y el control social, como en la tesis sobre la «gubernamentalidad algorítmica» que aparecerá en los capítulos que siguen.

 

Con relación a esta perspectiva, mi trabajo se orienta en dos grupos de preguntas. Por un lado, cómo funciona hoy el gobierno de la vida y de los vivientes; cuáles son las modalidades privilegiadas de conducción de conductas de nuestro tiempo y en el mundoambiente tecnológico que nos es contemporáneo. Esta constelación incluye la pregunta sobre de qué modo los artistas ponen en práctica formas de contraconductas (resistencia, interferencia, interrupción, profanación, profundización y desvío) y sobre la potencia política de la «vida desnuda» como material artístico. Por otro lado, otros interrogantes se orientan a la ética, al ethos: no las reglas escritas, sino la forma-de-vida habitual, practicada concretamente por los sujetos. Algunas preguntas que se abren en este sentido son: ¿puede la vida desnuda, la «mera» vida biológica, dar a luz su propia forma? Y también. ¿qué significa hoy para los artistas abrazar el arte como forma de vida?

 

En cuanto a la tecnificación de la vida, la tradición que pensó este proceso es mucho más antigua y heterogénea que la tesis biopolítica. Existe una tradición crítica en el pensamiento sobre la técnica que se remonta, al menos, a Lord Byron y su famoso discurso en defensa de los ludditas, en 1812, cuando fue el único orador contra la Frame Breaking Hill, la ley que se propuso dar un castigo ejemplar contra quien osara destruir de manera voluntaria un telar de calcetería o encaje. «Nada excepto la necesidad absoluta puede llevar a un enorme grupo de trabajadores otrora honesto e industrioso a cometer excesos tan arriesgados para ellos, para sus familias y sus comunidades —dijo en febrero de ese año el poeta en la Cámara de los Lores—. Para los propietarios de telares mecánicos, estas máquinas eran una ventaja, considerando que reemplazaban la necesidad de emplear un número importante de trabajadores, a quienes en consecuencia se los deja morir de hambre». Y prosiguió: «¿Y cómo harán cumplir esta ley? ¿Creen que podrán meter a un pueblo entero dentro de sus prisiones? ¿Pondrán una horca en cada pueblo y harán de cada hombre un espantapájaros?». Fue en vano: dos días después de su alocución, en la sangrienta Inglaterra de comienzos del siglo xix dañar un telar mecánico pasó a ser un delito capital.

 

A lo largo de los dos siglos siguientes existieron diferentes perspectivas críticas en torno a la cuestión. En todas ellas, la técnica no es solo el plano de los medios que se desarrollan en relación con ciertos fines que la preceden y la organizan; tampoco se trata de denunciar el dominio ilimitado de los medios devenidos fines en sí mismos (el dinero y la técnica como esos dos mediadores universales que centrípetamente capturan, reabsorben y licúan toda la imaginación que no dependa exclusivamente de ellos). Más bien se trata de que, en tanto involucra procesos antropogenéticos, ontológicos y epistémicos densos, la técnica se ubica en el ámbito de la dimensión propiamente ético-política: el plano de la forma de vida.

 

En la medida en que delegamos en los aparatos físicos o sociales procesos y decisiones de primer orden —la producción y distribución de la energía, la distribución de los recursos financieros, el futuro del sistema político—, en tanto nos hibridamos con las tecnologías, las hacemos cuerpo y carne, las incorporamos y las encarnamos a través de prótesis, trasplantes, implantes; cuando programamos la dotación genérica de nuestra descendencia, cuando aprendemos qué y quiénes somos leyendo datos a través de máquinas sin las cuales no podríamos conocernos ni hacer esos procedimientos, cuando entregamos los datos fundamentales de nuestras relaciones sociales a máquinas conectadas con las más grandes agencias de recopilación y análisis de información política o comercial, es nuestra forma de vida la que está progresivamente deviniendo infotecnológica.

 

Es en relación con esta doble encrucijada política y técnica que debemos medir la fortaleza de nuestros diagnósticos y nuestras capacidades de decisión.



 Big data, algoritmos y el nuevo orden informacional

 

 

Ampliación del campo de batalla biopolítico • Predecir y gobernar las conductas • El Santo Grial: el entrelazamiento de registros biológicos y comportamentales • Los datos nunca están dados • ¿Cuánta es mucha información? • La arquitectura de internet no es horizontal (y no hay ninguna «nube») • «Gubernalmentalidad algorítmica», minería de  datos  y  extractivismo  •  Religión,  color  de  piel,  coeficiente intelectual, género, orientación sexual y preferencia de voto a tan solo 68 «me gusta» • El usuario 1-click

 

Data drive all we do. Cambridge Analytica uses data to change audience behavior. Visit our Commercial or Political divisions to see how we can help you.

 

Texto de presentación en línea de la empresa Cambridge Analytica, 2017

 

Se siente que se elige y se quiere, pero se elige algo impuesto y se quiere algo inevitable.

 

Henri Bergson,

 

El recuerdo del presente y el falso reconocimiento, 1908

 

 

Mientras usted está leyendo esto, en este minuto, hay más de 208 mil personas en todo el mundo participando en videoconferencias a través de la plataforma Zoom —52 mil se conectan por Microsoft Teams— y se están subiendo unas 347 mil historias a Instagram. Hay 28 mil dispositivos conectados a Netflix, cuyos espectadores pueden ser familias enteras.



 

 

 

 

Página 23



 

Llegan 320 nuevos usuarios a Twitter y se envían 350 mil tuits, mientras 2700 dispositivos instalan Tik Tok y se bajan 414 mil aplicaciones por Google Play y App Store de Apple. Dos millones de dedos hacen swip, es decir, se deslizan sobre una pantalla que muestra una fotografía en Tinder, y los usuarios de Linkedin se postulan a 70 mil puestos de trabajo. Se gastan 1,6 millones de dólares en compras en línea y Amazon despacha 6659 paquetes. Todo en un minuto. En este mismo minuto.

 

Escuchamos decir que esta es una época de datos, incluso de datos masivos: los famosos big data. Se habla del capitalismo de datos, de la ciencia de datos, incluso se nos dice que «somos nuestros datos». Esa parece ser la clave de autocomprensión que se nos viene proponiendo desde las últimas dos décadas, cuando buena parte de los esfuerzos gubernamentales públicos y privados se abocaron a desarrollar tecnologías para recolectar, analizar y utilizar datos sobre los seres humanos. Por un lado, datos sobre sus dotaciones biológicas, como en la biometría o en los bancos de información genética. Por otro, datos sobre sus modos de existencia: hábitos de consumo, preferencias estéticas, relaciones afectivas, opiniones e incluso emociones ante diversos acontecimientos, como en la minería de datos orientada al marketing comercial o político.

 

El anudamiento entre ambos registros, el biométrico y el comportamental, el dactilar y el digital, ha sido una de las grandes novedades tecnológicas de la última década. Gracias a él se hizo posible algo deseado pero impracticable aun a finales del siglo xx: el cruce de saberes sobre la población y sobre los individuos concretos; sus comportamientos y sus gustos pero también sus complexiones físicas, en forma global, estadística, y a la vez de manera completamente individual y personal. Un ejemplo es la aplicación Clearview IA, que desde 2019 utilizan tanto el FBI como el Departamento de Justicia de los Estados Unidos pasando por empresas y usuarios privados. A partir de una fotografía que puede tomarse desde un teléfono móvil, rastrea toda la información de la persona retratada con una precisión cercana al 99 por ciento, para lo cual usa una base de datos con más de 3000 millones de imágenes recopiladas de sitios web y redes sociales.

 

No solo se obtienen los datos que están en la red: es posible determinar ciertas preferencias o hábitos de los que las personas no han informado



 

 

 

 

Página 24



 

nada. Un estudio publicado en 2013 por un estudiante de doctorado en Psicometría de la Universidad de Cambridge, el psicólogo polaco Michal Kosinski, mostró que sobre la base de 68 «me gusta» dejados en Facebook era posible predecir con aceptables niveles de precisión su color de piel, su coeficiente intelectual, su filiación política e incluso si sus padres estaban separados.

 

Por otra parte, hace mucho que oímos también que la nuestra es una sociedad de la información. De mucha, muchísima información. En cantidades difíciles de imaginar. Para ayudarnos a hacernos una idea, el investigador Martin Hilbert, asesor informático en la biblioteca del Congreso de los Estados Unidos, brindó una imagen: si se pasara a letras toda la información digitalizada que existía en 2015, podrían hacerse 4500 pilas de libros que llegaran hasta el Sol.

 

 

 

 

 

 

 

 

 

 

Los datos nunca están «dados»

 

 

Conviene, antes de continuar, tener presente que ambos conjuntos de datos, los biométricos y los comportamentales, están lejos de ser simples hechos «dados» en la naturaleza. Como todos los datos que se manejan en el mundo, son el resultado de cuidadosos procedimientos de registro, identificación, representación y selección, a través de los cuales nos volvemos inteligibles y se nos hace comparecer ante un poderoso conjunto de saberes y poderes tecnocientíficos que buscan precisamente descifrar en ellos —en nuestros datos— la clave de cómo somos y qué podemos ser y hacer.

 

Y si esto que afirmo es cierto, convendría formularnos este interrogante: ¿en qué medida es razonable confiarnos a esa cuantificación?

 

Ese cruce de huellas dactilares y digitales se inscribe en la genealogía del biopoder, del que constituye una modulación particularmente novedosa, ya que mantiene con el orden anterior líneas de continuidad



 

 

 

 

Página 25



 

pero también presenta destacables discontinuidades. En su inflexión contemporánea, nos encontramos ante un orden político y epistémico que así como hizo posible el desarrollo del ciberespacio, el comercio electrónico, las redes sociales y la economía de los big data, profundizó la múltiple aceleración técnica y biológica del Tecnoceno. Lo que está en juego en este nuevo orden de base informacional es, precisamente, una poderosa ampliación del campo de batalla biopolítico. Un «golpe desde arriba» que pone en jaque algunas de las conquistas que más apreciábamos de las democracias: el derecho de todos y cada uno de participar, por el solo hecho del nacimiento, en el juego político, y la aspiración a decidir de manera soberana sobre los propios cuerpos y las propias ideas.

 

En efecto, en el escenario actual, el poder sobre la vida actúa en un campo de batalla expandido: ya no se limita a interpelar los cuerpos —de los individuos o de las poblaciones—, sino que, por un lado, comienza a conocer, afectar y manipular los elementos precorporales o infracorporales y la información genética, a la vez que se refiere, cada vez con mayor urgencia, a los medioambientes, los medios en los cuales la vida de las distintas especies conocidas puede desarrollarse. Es decir: abarca tanto el nivel micro —el de los tejidos, las células, las moléculas, los ácidos nucleicos, aquello que es menos-que-un-cuerpo— cuanto el macro del medio y de la relación entre las especies.

 

Por otro lado, además, intensifica su acción no solo sobre la vida biológica, sino también sobre la vida anímica de individuos y poblaciones. Si bien no es el lugar para profundizar en este tema, existe un aspecto de la tesis biopolítica que, aunque explícito, no fue suficientemente subrayado; permaneció acaso sobreentendido en los trabajos del propio Foucault y fue muy poco abordado en las investigaciones posteriores.

 

El biopoder moderno, el poder sobre la vida que se inaugura en Europa entre los siglos xvi y xvii y que se dirige a regular, administrar, modular y conducir la vida de los individuos y las poblaciones, actúa no solo sobre los cuerpos biológicos, sobre sus fuerzas físicas, sus gestos y movimientos, sus rutinas cotidianas, sino también sobre sus creencias, sus deseos, sus intereses, sus estados de ánimo, sus afectos, sus gustos, sus decisiones. Esta intervención sobre la dimensión anímica, incluso espiritual —las propias ideas, las motivaciones y las emociones de los



 

 

 

 

Página 26



 

individuos y de la población interpelada en tanto público— no es, en sí, una novedad de los siglos xx o xxi —a la que cabría denominar «noopolítica», como propuso hace unos años Maurizio Lazzarato, o «psicopolítica», como intentó después Byung-Chul Han—: la arqueología del gobierno de la vida anímica de individuos y poblaciones hunde sus raíces en la biopolítica tal como fue descripta en los cursos foucaultianos de finales de la década de 1970, y no necesita en sí misma otro nombre.

 

Tampoco es novedad que la biopolítica se oriente sobre todo a poblaciones y públicos antes que a individuos —que las disciplinas individualizantes estén subordinadas a la función totalizadora del gobierno de las poblaciones—. Tal como Foucault explica en su artículo «La gubernamentalidad», publicado en 1977 —en el que aborda varios de los temas que retoma ese año lectivo en su curso publicado con el título Seguridad, territorio, población—, en el siglo xviii, a partir de la explosión demográfica vinculada a la afluencia de riquezas de las colonias de América y, a través de ellas, a la abundancia de monedas y al aumento de la producción en el campo —según procesos de mutua influencia que los historiadores conocen bien—, se inaugura toda una novedosa serie de tácticas y tecnologías de poder que buscan abordar una nueva preocupación: precisamente, la población. Es en ese momento cuando la población aparece con fuerza inédita en el escenario político europeo y se vuelve el fin último por excelencia del gobierno, que ya no estará centrado en el territorio ni en la permanencia del Príncipe, tampoco siquiera en la familia y sus integrantes.

 

La familia, de hecho, deja de ser un posible modelo del gobierno — según el cual gobernar un Estado es como conducir un oikos, una casa— y en cambio pasa a ser un elemento, una parte de la población. Es una parte privilegiada, porque si quiere conseguirse que la población cambie algo de su comportamiento con respecto al cuidado de su salud, a sus costumbres sexuales, al número de sus hijos, al consumo de determinado producto, habrá que pasar necesariamente por la unidad doméstica: la familia y los individuos que la componen. Pero ya no será un modelo sino un instrumento para gobernar las poblaciones, para «mejorar su destino, aumentar sus riquezas, la duración de su vida, su salud». Para esta tarea, dice el autor de Vigilar y castigar, el gobierno va a actuar sobre ella



 

 

 

 

Página 27



 

«directamente mediante campañas, e indirectamente mediante técnicas que por ejemplo permitirán, sin que las gentes se den cuenta, estimular la tasa de natalidad o dirigir los flujos de población hacia tal región o tal actividad». La población aparece, así, como sujeto y como objeto del gobierno. Es sujeto de aspiraciones y necesidades; es consciente de lo que quiere cuando demanda a los gobernantes. Pero también es objeto de campañas continuas, y no es siempre consciente de cuánto se le hace hacer y pensar.

 

Nace así todo un arte, agrega Foucault, un conjunto de técnicas absolutamente nuevas; un tipo de intervención característica del gobierno en el campo de la vida de la población en sus dos aspectos: la vida biológica y la vida anímica e intelectual. Por un extremo, la especie y, por otro, el público, que es «la población considerada desde el punto de vista de sus opiniones, sus maneras de hacer, sus comportamientos, sus hábitos, sus temores, sus prejuicios, sus exigencias: el conjunto susceptible de sufrir la influencia de la educación, las campañas, las convicciones». En Seguridad, territorio, población, lo sintetiza así: «La población es todo lo que va a extenderse desde el arraigo biológico expresado en la especie hasta la superficie de agarre presentada por el público».

 

Es justo ese vasto arco el que busca ceñir y penetrar incluso a niveles moleculares el actual orden informacional.

 

 

 

 

 

 

 

 

 

 

La episteme de la información

 

 

Se trata de un orden que emerge de la maceración, a lo largo de varias décadas, de una episteme que tiene uno de sus nudos clave en la «información», y que se apoya, no sin conflictos, en la ambigüedad semántica que ese término ofrece. Tomemos tres de las acepciones más frecuentes: información como noticia, referida a un hecho o un acontecimiento poco probable; información como una medida matemática



 

 

 

 

Página 28



 

para optimizar el pasaje de un conjunto de caracteres de un punto a otro; e información como conjunto de instrucciones contenidas en organismos biológicos. En primer lugar, la información como contenido o mensaje relevante, asociado a la improbabilidad de la ocurrencia de un acontecimiento, como cuando hablamos de noticias: la información como lo opuesto a la redundancia. En segundo lugar, la noción de información que desarrollaron en su teoría matemática de la comunicación Claude Shannon y Warren Weaver en la década de 1940, para quienes la información es un quántum medible, aquí también en relación inversa con la probabilidad de ocurrencia, aunque ya no del acontecimiento o del contenido del mensaje, sino de los caracteres físicos que lo componen. Por ejemplo: en castellano, la letra «ñ» contiene más información que la letra «a», y el término «que» contiene menos información que el término «desoxirribonucleico». Para la teoría matemática de la información, la preocupación es cómo lograr que un conjunto X de signos llegue con rapidez y con la menor pérdida de un extremo al otro de un canal habitualmente imperfecto, no importa qué se diga en ese mensaje. En tercer lugar, la información es también la imagen empleada en genética y biología molecular para referirse a un proceso químico que se interpreta como la transmisión de un conjunto de instrucciones u órdenes que pasan (otra vez: no de manera perfecta) de generación en generación, o de un embrión a un cuerpo desarrollado.

 

Con todo, pese a estas diferencias, la metáfora de la información se ha venido mostrando muy productiva para anudar una trama de disciplinas, de saberes y prácticas, en la que están en juego, siguiendo con la familia semántica, operaciones propias de la información: transmisión, expresión, traducción, emisión, recepción, feedback o retroalimentación. En esta trama se entretejen al menos dos surcos: por un lado, la vía de las grandes infraestructuras de las telecomunicaciones y redes cibernéticas que capturan y procesan las informaciones, los datos que vamos dejando como huellas o rastros a lo largo de nuestros trayectos, nuestras caminatas un poco sonámbulas a través del mundoambiente en red y en el mundo «real» cuando operamos con dispositivos intercomunicados. Y por otro, el desarrollo científico de la posibilidad de desciframiento, que implica también la voluntad de control y manipulación de la información biológica



 

 

 

 

Página 29



 

de los individuos, los datos que se capturan tanto en los registros biométricos como en la información genética de una población o de un individuo.

 

Esta es en efecto una de las verdaderas novedades que trajo en el siglo xxi el desarrollo y uso masivo de tecnologías llamadas inteligentes: el entrecruzamiento y la valorización de los restos, los residuos, las huellas de nuestros trayectos en los espacios real y virtual. La valorización de esquirlas de una acción que, hasta hace muy poco, no tenía traducción alguna en términos económicos.

 

Esto implica tanto la intensificación como la transformación de cinco procesos característicos de nuestro tiempo. En primer lugar, la conversión de lo existente en «dato»: la datificación de aquello que, en la experiencia, existe de manera silvestre; la conversión de un hecho, una mera ocurrencia, en un registro simbólico o físico, esto es, un símbolo o término que implica elaboración conceptual y puede incluirse dentro de una serie para ser analizado, comparado, medido en algún lenguaje. En segundo lugar, la digitalización de esos registros o datos: su pasaje o traducción al lenguaje binario, que actúa como lengua numérica común para poner en correlación fenómenos completamente heterogéneos y hacer posibles intercambios de otra manera impensables; esa es la gran revolución derivada de las ideas de Claude Shannon. En tercer lugar, el más novedoso de este trípode epistémico —que termina de hacer posible el salto de escala hacia la dimensión global o planetaria—: la protocolización, procedimentalización o estandarización de procesos, programas y prácticas, que habilita la interconexión entre plataformas y dispositivos. Lo que el TCP/IP —conjunto de guías generales de operación para permitir que un equipo pueda comunicarse en una red— fue en la década de 1970 para los protocolos de red es lo que de a poco comienza a esparcirse en los diferentes modos y sistemas de la vida social. Será el proceso que nos involucrará en las próximas décadas: protocolos de seguridad, sanitarios, educativos, políticos, encargados de construir la sociedad civil mundial; algo que, desde el punto de vista de los procesos técnicos y financieros, ha comenzado a funcionar hace tiempo y ahora reclama su correlato en otros niveles de la vida en común.



 

 

 

 

 

 

Página 30



 

En cuarto lugar, y como efecto cultural derivado de la expansión del uso de dispositivos de telecomunicación llamados inteligentes, la extensión del fenómeno de la vigilancia hasta constituirse en una experiencia vital generalizada, ubicua, distribuida. Y quinto, como tendencia latente y continua desde al menos el siglo xvi, la mercantilización integral de la existencia, la extensión de la economía monetaria a todos los dominios de la vida, incluso aquellos que hasta hace poco eran considerados no económicos, o no monetarizables, como los minutos de atención frente a una pantalla o los datos que vamos entregando a las aplicaciones gratuitas a partir de nuestras actividades en línea.

 

 

 

 

 

 

 

 

 

 

Sociedades de control y nuevo orden informacional

 

 

«Estamos al principio de algo», escribió Gilles Deleuze a comienzos de 1990 en su célebre Posdata sobre las sociedades de control. Lo que avizoraba en ese principio era, con todo, más bien los signos de un final: el de los mecanismos disciplinarios que habían tenido su auge en el siglo xix y las primeras décadas del xx. Algo que ya había señalado Michel Foucault varios años antes de su muerte. En efecto, avanzada la década de 1970, cuando comenzaba a entrever la profunda reestructuración que significaría el neoliberalismo para la racionalidad política de su tiempo, este autor hizo una breve intervención en la Universidad de Vincennes, publicada en 1978 bajo el título «Nuevo orden interior y control social».

 

Allí señalaba que el estado de bienestar se hallaba ya entonces en una situación crítica en cuanto a su posibilidad económica de gestionar y dominar la multiplicidad de luchas que atravesaban la sociedad; que, hasta ese momento, los países europeos habían vivido «sobre la base de un saqueo energético realizado sobre el resto del mundo» cuya continuación parecía imposible. Entendía, entonces, que un nuevo proyecto civilizatorio



 

 

 

 

Página 31



 

—que hoy, una vez consumado, solemos llamar neoliberalismo— vendría a imponer una serie de restricciones a dicho estado de bienestar, obligándolo a economizar su ejercicio del poder. Y lo haría a través de cuatro líneas.

 

Por un lado, el nuevo orden implicará —dice— realizar un «marcaje, la localización de un cierto número de zonas que podemos llamar “zonas vulnerables”, en las que el Estado no quiere que suceda absolutamente nada». Serían las zonas de máxima seguridad, de «tolerancia cero», como se las llamará décadas después, y que tendrán como contracara —y esta es la segunda línea— una nueva y más amplia zona de tolerancia en la que se relajarán los controles policiales cotidianos. A partir de una evaluación de tipo costo-beneficio, el Estado dejará de intervenir toda vez que la intervención sea demasiado costosa comparada con dejar que ciertos comportamientos se produzcan. Allí la regulación se producirá por la ausencia del Estado y no por su presencia.

 

Pero son sobre todo los siguientes dos elementos los que nos interesan aquí, en la medida en que abren paso a lo que hace unos años he llamado «biopolítica informacional». El tercer elemento es el desarrollo de «un sistema de información general» que no tiene por objetivo fundamental «la vigilancia de cada individuo, sino, más bien, la posibilidad de intervenir en cualquier momento justamente allí donde haya creación o constitución de un peligro, allí donde aparezca algo absolutamente intolerable para el poder». Lo cual «conduce a la necesidad de extender por toda la sociedad, y a través de ella misma, un sistema de información que, en cierta forma, es virtual; que no será actualizado» sino solo en ciertos momentos: «una especie de movilización permanente de los conocimientos del Estado sobre los individuos». Pocos años después, cuando en 1992 el Congreso de los EE. UU. aprobó la posibilidad de realizar actividades comerciales en internet, esos conocimientos dejaron de estar solo en manos del Estado, y muchas veces quedaron fuera de él, como los grandes almacenadores de datos de las empresas de telefonía y de internet.

 

Sobre el final, el cuarto aspecto para que este nuevo orden interior funcione es la



 

 

 

 

 

 

 

 

Página 32



 

constitución de un consenso que pasa, evidentemente, por toda una serie de controles, coerciones e incitaciones, que pasa a través de los mass media, y que, en cierta forma y sin que el poder tenga que intervenir por sí mismo, sin que tenga que pagar el costo a veces muy elevado del ejercicio del poder, va a significar una cierta regulación espontánea que hará que el orden se autoengendre, se perpetúe, se autocontrole a través de sus propios agentes (Foucault, 1991).

 

A esta situación nueva, llena de hostilidades, luchas y contradicciones, la denomina en conjunto «repliegue aparente del poder»; un escenario en el que el Estado se las arreglará para que no caigan sobre él las responsabilidades de los conflictos que deben resolver los propios agentes. No solo los individuos, sino también empresas, corporaciones, grupos de intereses. Con esto Foucault quiere decir que no se trata simplemente de «menos Estado», sino de un nuevo modelo de poder y de Estado, donde entran en juego los mecanismos de seguridad que él mismo describe en Seguridad, territorio, población y que en Nacimiento de la biopolítica complementará con la descripción de la racionalidad gubernamental neoliberal. Entra en juego una nueva matriz normativa de los comportamientos que reclama la prudencia de un homo œconomicus que estará cada vez más concentrado en optimizar su capital humano, y que paulatinamente ve quedar atrás las coerciones pero también los amparos de la pastoral laica del estado de bienestar.

 

Ese escenario, al que Deleuze denominó sociedad de control, tiene como una de sus características el despliegue de tecnologías, empresas, infraestructuras, conocimientos y actores relacionados con la información-comunicación.

 

Ya mencioné que para cuando Foucault sugiere esta tesis hay signos evidentes del nuevo orden. La década de 1970 fue un momento de notable intensificación de este giro informacional de los saberes-poderes que tienen como eje la recolección, el desciframiento y la gestión de las dos clases de información en las que se cifra la esperanza de un nuevo tipo de gobierno de los vivientes: la información sobre la especie y la información sobre los públicos. De lo que se trata en este nuevo orden social es de una ampliación del campo de batalla biopolítico, en el que el poder sobre la



 

 

 

 

Página 33



 

vida comienza a abarcar desde la información genética de los vivientes y su manipulación controlada (transgénicos, síntesis de bacterias para antibióticos) hasta el gobierno de los públicos, de sus comportamientos, sus emociones, afectos, decisiones cotidianas. Y todo esto a distancia, sin necesidad de grandes infraestructuras de encierro, de «secuestro» temporario de los cuerpos.

 

Habitualmente omitida en los relatos sobre internet, una fecha clave en la historia de este nuevo orden fue el 2 de octubre de 1992, día en que el Senado de los Estados Unidos aprobó con enmiendas el Acta sobre Ciencia y Tecnología Avanzada, un texto de poco más de una carilla, que ordenaba al director de la National Science Foundation (NSF) la creación de un programa nacional de capacitación de técnicos para el mundo digital o, en palabras de la ley, el ámbito de las «tecnologías avanzadas». La ley otorgaba recursos financieros y habilitaba a la NSF para educar técnicos, formar profesores que capacitaran a esos técnicos, crear trayectos de formación en universidades públicas o privadas para otorgar títulos asociados y comprar equipamiento. Pero había un detalle más, muy significativo, en el párrafo final:

 

Modifica la Ley de la National Science Foundation de 1950 para autorizar a la NSF a fomentar y apoyar el acceso de las comunidades de investigación y educación a las redes de computadoras, que pueden usarse sustancialmente para fines adicionales si esto tiende a aumentar las capacidades generales de las redes para apoyar la investigación y la educación en la ciencia y la ingeniería.

 

Esta frase era el guiño que la industria de las telecomunicaciones comerciales estaba esperando. Enunciada como al pasar, pero cuidadosamente meditada, la ley admitía por primera vez que la NSF, hasta entonces a cargo de la gestión de la red de investigadores y científicos, hiciera contratos para usos industriales y comerciales; algo que de hecho ya había comenzado de manera incipiente.

 

Signo de que todo eso estaba en el aire fue que, pocos meses antes del

 

Acta, se habían creado dos grandes cámaras empresariales. Una en 1990,

 

Advanced Network and Services (ANS), que al año siguiente creó la



 

 

 

 

 

Página 34



 

subsidiaria ANS CO+RE (por commerce and research, comercio e investigación), integrada por las mismas empresas subcontratistas que proveían a la NSFNet el servicio de infraestructura en el nivel del backbone, esto es, de la «columna vertebral» o red troncal de internet: Merit Network, IBM y Microwaves Communicacions Inc. (MCI). La otra, creada en 1991 por compañías de redes regionales que buscaban entrar al negocio de las comunicaciones de red pero manteniéndose por fuera de las políticas de uso gubernamentales —esto es, de la obligación de orientarse principalmente a la investigación y a la educación: el lado «más libertario» de la pelea—, era la asociación Commercial Internet eXchange (CIX), integrada por General Atomics (CERFnet), Performance Systems International (PSInet) y UUNET Technologies (AlterNet), durante varios años apoyada financieramente por AT&T. En 1995, luego de una competencia áspera, se impuso la opción exclusivamente privada: ANS vendió su negocio de redes a la empresa America Online (AOL) y se convirtió en una organización filantrópica dedicada a promover la educación en tecnología de redes informáticas.

 

En realidad, tal como señala Mariano Zukerfeld en «Todo lo que usted quiso saber sobre Internet pero nunca se atrevió a googlear» (2014), la propiedad de las infraestructuras y los soportes físicos —cables subterráneos, cableado de fibra óptica continental, satélites, servidores, enrutadores— siempre fue mayormente privada. Si uno observa tanto el mapa de los cables submarinos que recorren el mundo como el mapa de la «nube» —la actualización de ambos está en el sitio TeleGeography.com—, puede conocer cuáles son las empresas propietarias de esas infraestructuras. Y no deja de impresionar, aun cuando uno esté avisado, la similitud entre estos tendidos y los de los cables de telégrafos y más tarde teléfonos, cuyo puntapié inicial dio The Atlantic Telegraph Company en 1858 con el primer tendido de cable telegráfico a través del Atlántico.

 

En el cuadro que sigue, realizado por el propio Zukerfeld y apenas intervenido para alguna actualización, aparecen graficados los distintos niveles, estratos o capas que componen lo que habitualmente denominamos «internet». En efecto, como dice este autor, «la arquitectura de internet está compuesta por varios niveles que tienen características disímiles y que, por ende, resisten simplificaciones homogeneizadoras […]



 

 

 

 

Página 35



 

Solemos pensar a internet como una multiplicidad horizontal, pero no como una estratificación vertical». El cuadro se lee desde abajo hacia arriba, ya que comienza con las capas inferiores, las de la infraestructura material más elemental —cables submarinos de fibra óptica, satélites, cableado continental—. Luego sigue el hardware: los grandes hubs y concentradores, los servidores, módems, enrutadores, hasta llegar a las máquinas y dispositivos hogareños. Luego siguen los diversos niveles de software, desde protocolos de intercambio entre computadoras hasta sistemas operativos, navegadores, buscadores, programas de e-mail. El cuarto gran nivel es el de los contenidos concretos. Y luego los sistemas de gestión de contenidos, que conectan diferentes categorías de contenidos y de software y que constituyen el nivel de las plataformas, los portales y las redes sociales.

 

Niveles

Subniveles

 

 

 

e. Sistemas de gestión de contenidos. Portales,

16)

Comunidades

plataformas, redes sociales

15)

Moderadores

 

 

 

d. Contenidos

14)

Imágenes, audios, textos, videos

 

 

 

c. Software

13)

Software de cada página web

 

12)

Buscadores

 

11) Navegadores

 

10) World Wide Web (www)

 

9)

E-mail

 

8) TCP/IP

 

7)

Software de los niveles de infraestructura y

 

hardware

 

 

 

b. Hardware

6)

PC, teléfonos móviles, netbooks, etc.

 

5)

Módems / Routers

 

4)

Servidores de los ISP / Servidores de las

 

distintas empresas basadas en la Web /

 

Infraestructura de Nube / Hubs y concentradores

 

 

a. Infraestructura

3) Tendidos de cables continentales-backbones

 

2)

Satélites

 

1)

Cables submarinos

 

 

 

 

 

El acelerado proceso de concentración en este sector ha hecho que, hoy en día, haya empresas que lideran tanto el nivel de las plataformas como el de las infraestructuras. Es lo que José Van Dijck, Thomas Poell y Martijn De Vaal, en su libro The platform society (2018), denominan «plataformas infraestructurales», en particular las cinco gigantes: Alphabet-Google,



 

 

 

Página 36



 

Amazon, Apple, Facebook y Microsoft, ya que además de ser plataformas de nicho (comercio electrónico, redes sociales) concentran buena parte del ecosistema digital. Una sola empresa como Google ofrece desde servicios de «nube» (Google Cloud Platform) hasta un motor de búsqueda (Googe Search), desde un navegador (Chrome) y un sistema operativo para dispositivos móviles (Android) hasta un sitio para compartir videos (YouTube), una appstore (Google Play), dos sistemas de información geoespacial (Google Street View, Google Maps), dieciséis cables submarinos y redes sociales (Google +). Todo, una sola empresa.

 

En el caso de la internet de la década de 1980, la NSF mantenía un importante control: si bien contrataba empresas privadas que proveían la infraestructura, ella disponía sobre el software y los contenidos, a través de las políticas de uso, las Acceptable Use Policy (AUP), que implicaban un tendido de redes sin fines de lucro, dedicadas solo a la investigación científico-tecnológica y a la educación. Es a estas AUP a las que se refiere el Acta de Ciencia y Tecnología Avanzada de 1992 cuando dice que «modifica la Ley de la National Science Foundation de 1950». Lo que hace es dejar obsoletas estas políticas de uso, que era el objetivo directo que perseguían las compañías de la CIX; y también, a su manera, la ANS CO+RE.

 

Aunque hoy toda esta parte de la trama suele ser omitida en las historias sobre internet, porque se prefieren los relatos épicos sobre la bonhomía de la libre expresión y donde las «traiciones a los buenos principios» aparecen como giros de timón inesperados, en aquel momento fue una movida solapada pero previsible. Desde finales de la década de 1980 la idea de privatizar la red de redes contaba con el favor de los dos grandes partidos políticos de los Estados Unidos. Y la propia NSF venía dando pasos en ese sentido, en buena medida gracias a la intervención de Vinton Cerf, uno de los pioneros de internet, quien en 1972 había encabezado la investigación que condujo al diseño de los protocolos que hoy se conocen como TCP/IP. Entre 1988 y 1989, Cerf impulsó que la NSF permitiera conectar la aplicación comercial de correo electrónico de la empresa MCI —que él mismo había desarrollado años antes mientras trabajaba en esa compañía—. Luego de que en 1989 MCIMail obtuviera el permiso, también los servicios comerciales de e-mail de CompuServe,



 

 

 

 

Página 37



 

ATTMail y Sprintmail (Telemail) obtuvieron luz verde para conectarse a internet. El Acta de 1992, entonces, vino sobre todo a poner en orden esas desprolijidades de hecho, y a dar luz verde para la privatización de la red troncal, que terminó de realizarse en 1995, cuando no solo el backbone de la NSFNet quedó en manos de compañías privadas, sino que, sobre todo, lo hizo sin exigencia alguna relativa a los contenidos ni al software.

 

 

 

 

 

 

 

 

 

 

Del gobierno de los futuros conductuales

 

 

A partir de ese momento se produjo un acelerado proceso de desarrollo de empresas, infraestructura y contenidos, y también de sistemas automatizados de gestión de la información inscrita en esos contenidos. Y de hecho, esa es la historia que más conocemos: la parte visible del despliegue de internet se nos suele aparecer como una lista de empresas, servicios y productos en permanente crecimiento. Veamos solo algunos de estos nombres propios. En 1994 se crean Yahoo y Netscape; en 1995, Amazon y eBay; en 1997, Google y Netflix; en 1998, Celera Genomics, PayPal (hoy de eBay) y la china Jingdong; en 1999, Napster, Blogger, Alibaba, Despegar y la argentina Mercado Libre; en 2001, iTunes; en 2002, el Proyecto Tor, cuyo objetivo es crear una red que encamine los mensajes protegiendo la identidad de los usuarios; en 2003, MySpace y Mercado Pago; en 2004, Facebook; en 2005, YouTube; en 2006, Twitter; en 2007, iPhone y Kindle; en 2008, Airbnb y Waze; en 2009, Whatsapp; en 2010, Instagram y Uber; en 2011, Snapchat y Zoom; en 2013, Tinder, Telegram y Cambridge Analytica; en 2014, Happn; en 2015, Alphabet (ex Google), Discord y Pinduoduo; en 2017, Google Meet; y en 2018, Emerdata Limited.

 

Conocemos menos sobre otros aspectos. Por ejemplo, cómo fueron transformándose varias de estas empresas, en los últimos años, en nodos dentro de la trama de una gubernamentalidad de doble faz, creadora y



 

 

 

 

Página 38



 

acondicionadora de un medio en el que los elementos pudieran desplegarse y circular, orientada a la gestión de poblaciones-públicos, por un lado, y capaz de reconducir desde esos públicos hacia los individuos, hacia sus «perfiles de usuario», sus dobles virtuales, con significativa potencia predictiva e incitativa, por el otro.

 

Cuando hablo aquí de gubernamentalidad me refiero a un modo de ejercicio del poder que no solo es productivo antes que represivo, es decir que produce realidad y subjetividad, sino que además se orienta sobre todo a conducir las conductas. «El poder, en el fondo, es menos del orden del enfrentamiento entre dos adversarios o del compromiso de uno frente al otro que del orden del gobierno», escribía Foucault hacia finales de la década de 1970. Y sintetizaba: «El ejercicio del poder consiste en conducir conductas; actuar sobre las posibilidades de acción de los otros». La etimología emparenta la noción de gobierno con el término cibernética: ambos derivan del griego Κυβερνήτης (kybernetes), que significa «arte de manejar una nave», y que Platón utilizó en La República con el significado de «arte de dirigir a los hombres» o «arte de gobernar». No es casual que cuando Norbert Wiener, el padre de la cibernética, creó el término, tuviera en mente una ciencia basada en la información, cuyo objeto sería «el control y comunicación en el animal y en la máquina», donde el ser humano es un animal más.

 

De allí que la noción de biopolítica todavía nos resulta útil para describir el tipo de poder propio de nuestro tiempo, del Tecnoceno en su fase informacional. Un poder que ha logrado, primero, desarrollar un medio, un mundoambiente del que no podemos salir porque somos cada vez más dependientes de él (la red), y junto con él, en él y a través de él, toda una batería de tecnologías y aplicaciones orientadas a predecir y conducir los comportamientos, las emociones y los apetitos de las personas, para construir y fortalecer lo que Shoshana Zuboff denomina «el mercado de la conducta futura» (2020).

 

El proceso de esta «gubernamentalidad algorítmica», como la bautizaron en 2013 los investigadores Antoinette Rouvroy y Thomas Berns, se despliega a través de seis conjuntos de acciones que van desde el nivel micro del individuo-usuario hasta el nivel macro de la población global, desde el singulatim hasta el omnes, y luego —y esta es la gran



 

 

 

 

Página 39



 

novedad de la última década, la que nos sugiere mantener las alertas con relación a la capacidad de vigilancia personal de estos dispositivos— pueden reconducir al individuo concreto. Es decir, no solo son capaces de verificar o autenticar la identidad (responder a la pregunta: ¿es usted en verdad quien dice ser?), sino incluso de identificar una persona (¿quién es realmente usted?) sin que ella haya dejado sus datos registrados de manera voluntaria.

 

La primera acción en este proceso es la captura de datos a través de sensores que los registran y recogen por medio de diferentes dispositivos: teléfonos móviles, cámaras de seguridad, pantallas hogareñas. La segunda acción es el procesamiento de ese material para diseñar, formatear y editar datos de entrenamiento que pueden ser inputs para diferentes acciones y procesos; esta etapa es clave, y lega una profunda marca humana: la acción de elegir una fuente de datos en lugar de otras deja huellas decisivas en actividades y procesos maquínicos. En tercer lugar está el análisis de los datos y las series, su puesta en correlación para desarrollar saber estadístico: es el momento algorítmico propiamente dicho, de la totalización (el omnes), donde es posible tener una visión del conjunto.

 

En cuarto lugar están los procedimientos para construir, a partir de la serie, perfiles específicos; es cuando se comienza a regresar hacia el individuo, pasando por conjuntos cada vez menores, más delimitados, organizados a partir de las variables que se construyeron y se lograron medir: el targeting, la segmentación y la microfocalización. En quinto lugar está la autenticación, que consiste en verificar si la persona es quien dice ser. Un ejemplo: los empleados de una empresa ingresan sus huellas dactilares en una base de datos; luego, cada vez que quieren entrar en el edificio de la compañía, o acceder a la plataforma virtual, deben demostrar que la impresión de su pulgar se corresponde con la huella archivada. En sexto lugar, y este es el procedimiento más novedoso y reciente: la identificación o individualización, que busca saber quién es una persona aun cuando ella no haya declarado su identidad. Por ejemplo, a partir de un chicle abandonado en una calle, poder identificar cómo se ve la persona que lo masticó (inclusive, quizá, a medida que sigan desarrollándose las bases de datos biométricas, quién es exactamente en términos biométricos y administrativos). Es el caso de aplicaciones como Blippar, que combina



 

 

 

 

Página 40



 

reconocimiento facial y «realidad aumentada»: la aplicación escanea cualquier escena de la realidad, y al activar la cámara apuntando a alguna cosa o persona, muestra toda la información que hay sobre ella en internet.

 

Claro que para arribar hasta aquí ha sido necesaria una conversión masiva de lo viviente, e incluso de lo existente, en «dato»: una datificación sin precedentes, aunque heredera genuina de la conocida vocación del biopoder moderno por cuantificar la mayor parte posible de la experiencia humana para, precisamente, ordenarla, administrarla, regularla, volverla productiva, y —con el correr de los años— optimizarla e incluso programarla.

 

No a otra cosa se refería en 1798 el político escocés John Sinclair cuando, recordando un viaje a Europa septentrional realizado doce años antes, escribió, al finalizar su monumental obra de 21 volúmenes Cuentas estadísticas de Escocia —en la que usa la palabra «estadística» por primera vez en lengua inglesa—: «Por estadística se entiende en Alemania una investigación con el propósito de determinar la fuerza política de un país, o cuestiones relativas a asuntos de Estado; la idea que yo anexo a ese término es la de una indagación sobre el estado de un país con el propósito de determinar la cantidad de felicidad de la que gozan sus habitantes y los medios para mejorarla a futuro». Para realizar esas primeras Cuentas, en 1790 Sinclair había enviado cuestionarios a más de 900 ministros de distintas parroquias de la nación, con 171 preguntas sobre geografía, población, producción agrícola e industrial y un conjunto de interrogaciones misceláneas que, en conjunto, incluían desde estimaciones meteorológicas hasta el precio de la comida, pasando por el modelo de gobierno local, la conformación de las familias (desde la cantidad promedio de hijos por casa hasta la altura y el peso promedios de los miembros del hogar), las enfermedades más comunes, las profesiones y oficios (cuáles, cuántos las ejercen), las creencias religiosas y hasta los rasgos de carácter dominantes en cada parroquia.



 

 

 

 

 

 

 

 

 

 

 

 

 

 

Página 41



 

Big data, perfilado y retroacción predictiva

 

 

Con el correr de los siglos, ese valioso corpus de entrevistas estructuradas tan ricas como artesanales fue perfeccionándose hasta derivar en uno de los fenómenos más complejos que definen la etapa actual del Tecnoceno: la existencia y disponibilidad de los llamados big data o macrodatos. Esto es, la descomunal cantidad de datos e información disponibles para el agregado, el análisis, la correlación de informaciones y la elaboración de conocimiento estadístico. Y algo más: no se trata solo de la cantidad; no son exactamente los mismos tipos de datos que se usaban en el siglo pasado pero en mayor cantidad. Por cierto el volumen es enorme, pero además se producen y procesan a una velocidad gigantesca, lo que los vuelve disponibles casi en tiempo real. Y son muchísimo más variados que sus parientes del siglo xx: producto de la datificación que mencionaba antes, desde una foto compartida en un grupo de whatsapp hasta el trayecto que hacemos para acompañar a nuestros hijos a la escuela, pasando por la velocidad con que respondemos una llamada telefónica y el uso que hacemos del transporte público, son ahora «datos», producidos de manera espontánea por la interacción con dispositivos interconectados.

 

Su importancia se incrementa porque se los puede conjugar con el desarrollo de máquinas y programas que procesan esa información y son capaces de aprender de los resultados (machine learning, traducido como aprendizaje maquínico o aprendizaje automático). Se trata de programas que no solo desarrollan acciones a partir de instrucciones ya contenidas sino que además incorporan nuevas informaciones que aparecen durante el proceso. Un ejemplo nos lo ofrecen los equipos GPS que proponen una ruta y, si el conductor toma un buen atajo, el aparato «aprende» de esta nueva información y afina la próxima sugerencia.

 

Detengámonos por un momento en la frase «descomunal cantidad de información»: ¿qué tan descomunal es, exactamente? En 2017, el académico alemán Martin Hilbert, experto en big data y asesor informático en la biblioteca del Congreso de los Estados Unidos, se refirió en una entrevista a su estudio «How Much Information is There in the “Information Society”?» (¿Cuánta información hay en la «Sociedad de la



 

 

 

Página 42



 

Información»?), que él mismo había realizado en 2012, acerca de la cantidad de información digital y digitalizada disponible en el mundo. Y decía:

 

La última vez que actualicé este estudio, en 2015, había 5 zetabytes de información. Un zetabyte es un 1 con 21 ceros, lo cual no te dirá mucho, pero si tú pones esta información en libros, convirtiendo las imágenes y todo eso a sus equivalentes en letras, podrías hacer 4500 pilas de libros que lleguen hasta el Sol. […] Desde 2014 hasta hoy, 2017, creamos tanta información como desde la prehistoria hasta 2014. Y lo más impresionante, para mí, es que la información digital va a superar en cantidad a toda la información biológica que existe en el planeta.

 

A propósito de esta cita de Hilbert, cabe subrayar al menos dos cosas. La primera: que una asimilación semejante entre información de sistemas cibernéticos e información biológica no es algo obvio. Se busca con ella, mediante la noción de «información», recurrir a una «medida común» capaz de poner en relación, e incluso en intercambio, fenómenos naturales y fenómenos artificiales; individuos vivientes e individuos no vivos. Y la segunda: que en este pasaje desde la «datificación» hasta la «digitalización» (porque solo puede digitalizarse aquello que previamente ha sido convertido en dato), no se trata —como algunos han insinuado— de una duplicación digital del mundo, sino de una microfragmentación y una multiplicación vertiginosa de las posibilidades de operar sobre el mundo, en maneras y cantidades que nos resultan todavía difíciles de imaginar.

 

Por otro lado, recién en los últimos años se están desarrollando las herramientas, los procedimientos, los protocolos de tratamiento adecuados para abordar esa cantidad de información. Y ese proceso está recién en sus comienzos. En este momento, el escenario de los llamados datos masivos es un enorme laboratorio experimental en el que todo o casi todo parece posible, y está en buena medida inexplorado.

 

Otra idea acerca de cuán macro son los macrodatos la proporciona el investigador chileno Andrés Tello en su libro Anarchivismo, de 2018:



 

 

 

 

Página 43



 

La cantidad de información almacenada cotidianamente en las diversas aplicaciones, softwares y web de las grandes compañías de información resulta abrumadora. El panorama hacia el año 2015 según Internet Live Stats no deja de sorprender, pues por cada segundo que pasa, 98 mil y un poquito más de videos son subidos a Youtube, 44 445 búsquedas se ingresan en Google, 2 millones de correos electrónicos son enviados, 1708 llamadas se hacen por Skype, 1923 fotografías se suben a Instagram, 8893 tweets son publicados. Por día hay 4500 millones de publicaciones en Facebook, 27 mil millones de mensajes enviados por whatsapp, y mil millones de documentos cargados en Dropbox.

 

Y esto, en el escenario prepandémico. No poseemos todavía cifras confiables de cuánto han aumentado estos números durante 2020, pero basta tener en cuenta este dato que dio a conocer la organización We Are Social en su informe Digital 2021, publicado en enero de ese año: 1,3 millones de nuevos usuarios se unieron a las redes sociales cada día durante 2020; dos cada tres segundos, 490 millones en total. El número de usuarios de las redes sociales equivale ahora a más del 54 por ciento de la población mundial. No es difícil creerlo: solo teniendo en mente las clases virtuales que de manera precipitada los profesores de buena parte del mundo comenzaron a subir a YouTube para comunicarse con sus estudiantes en los distintos niveles educativos, podemos conjeturar que el crecimiento ha sido muy significativo.

 

Los big data son el resultado de la convergencia y la masividad de las redes informáticas, las telecomunicaciones y los distintos dispositivos de captura de datos. No se trata de un efecto colateral. Es importante recordar que internet tiene un origen bélico, y que desde su inicio durante la Guerra Fría es una máquina de comunicación que incluye en su propia estructura un mecanismo de defensa: frente a la posibilidad de un ataque enemigo a una oficina central, ella descentraliza las comunicaciones. Ya no hay una «cabeza» única, sino varios nodos interconectados; de ese modo, asegura la transferencia de documentos o datos entre diferentes puntos de la red mediante conmutación de paquetes, que diseminan el flujo de informaciones y permiten que, eventualmente, algunas conexiones puedan



 

 

 

 

Página 44



 

salir de funcionamiento sin que el sistema entero se vea afectado, así como que un usuario pueda comunicarse con otro desde cualquier punto de la red.

 

Con el tiempo, el perfeccionamiento de esa defensa se orientó a dar otra vuelta: además de descentralizadas, las comunicaciones debían ser rastreables, en caso de sabotaje interno o externo, y reversibles, ubicando a cada usuario bajo observación real o posible. Si bien esta historia es muy conocida, no está de más recordar —como dice Tiqqun en La hipótesis cibernética— su significación política, íntimamente asociada con la emergencia de la Era Atómica.

 

Los militares estadounidenses buscaban un dispositivo que preservara la estructura de mando en caso de un ataque nuclear. La respuesta consistió en una red capaz de redirigir automáticamente la información aunque casi todos los enlaces estuvieran destruidos, permitiendo así que las autoridades sobrevivientes permanecieran comunicadas y fuera posible la toma de decisiones […] Internet es el resultado de una transformación nomádica de la estrategia militar.

 

[…]   La cibernética deriva de internet y, al igual que ella, es un arte de la guerra cuyo objetivo es salvar la cabeza del cuerpo social en caso de catástrofe.

 

¿De dónde salen estos macrodatos? Ellos incluyen las huellas que dejamos en una red social o en un smartphone, ya sea que se lo use para hablar o porque está conectado a un programa con geolocalización como Waze, Tinder o Google Maps. No solo se puede detectar adónde vamos, sino también cuán rápido nos movemos (lo cual puede informar acerca de nuestra estabilidad emocional, algo que, como veremos enseguida, es más significativo que lo que imaginamos a simple vista). Incluso si escribimos un mensaje en alguna plataforma estando enojados y a continuación borramos lo escrito antes de publicarlo porque razonamos con prudencia que es mejor pensarlo un poco más, el mensaje puede quedar registrado. También son rastreables nuestras trayectorias de compras con tarjeta, y la información que recogen los dispositivos instalados en lugares de trabajo que monitorean desde el consumo de energía hasta la performance de los



 

 

 

 

Página 45



 

trabajadores. Toda esta información es almacenada por diferentes empresas (de telefonía, motores de búsqueda, redes sociales, agencias de vigilancia, proveedores de internet), y puede ser comprada y vendida, con diferencias según las regulaciones de cada nación.

 

Distintas organizaciones pueden hacer uso de esos datos. Una búsqueda rápida sobre «reconocimiento facial» en la web permitía hace ya unos años, en 2017, encontrar más de setenta conjuntos de datos (de entre cincuenta rostros y dos mil) de acceso gratuito que se usan, por ejemplo, para evaluar estas mismas tecnologías y evitar sus principales debilidades: defectos de iluminación, cambios de pose, maquillaje. Las imágenes que constituyen esas bases, según se informa en los mismos sitios, fueron tomadas de páginas de internet: Wikipedia, Flickr, tutoriales de maquillaje subidos por los usuarios a YouTube.

 

Subrayo el hecho de que en los últimos años estos dos tipos de huella han comenzado a entrelazarse. Un caso evidente es el de las imágenes del rostro: cuando subimos fotos a Facebook, esta red social identifica las caras de las personas que están en ellas y nos pregunta si las queremos etiquetar. Es decir, reconoce quiénes están presentes en esas fotos. Esas imágenes incluyen información biométrica que se puede enlazar con los datos comportamentales que dejamos en la red. Lo mismo sucede cuando utilizamos la huella dactilar para desbloquear un teléfono inteligente.

 

Entre otros muchos usos de estas tecnologías en la industria, en 2017, las autoridades de Beijing implementaron en los baños públicos de los espacios más concurridos de la ciudad, como el parque del Templo del Cielo, un sistema de reconocimiento de rostro para expendedoras de papel higiénico, con el objetivo de evitar el robo, o el uso excesivo, de ese producto: el sistema de la empresa Shoulian Zhineng ofrece poco más de medio metro de papel por persona cada nueve minutos tras un escaneo inicial del rostro del usuario. Desde 2018 se expandió en todo el planeta, desde Japón hasta la Argentina, una aplicación de reconocimiento facial para casinos y casas de juegos de azar con el objeto de impedir el ingreso a jugadores compulsivos y a quienes están cumpliendo condenas. Un año más tarde, la empresa Honda presentó un casco de moto con reconocimiento facial para evitar los robos. Durante la pandemia, se



 

 

 

 

 

 

Página 46



 

difundió en todo el mundo un sistema de reconocimiento facial para las bicicletas de uso público.

 

Mención aparte merece la aplicación Clearview IA, que desde 2019 utilizan el FBI, la principal agencia de control de inmigración de los Estados Unidos, el Departamento de Justicia y otras dependencias de aplicación de la ley, así como empresas e incluso usuarios privados, en Estados Unidos y otros países de Europa, América del Sur, Asia y Medio Oriente, de acuerdo con un informe de BuzzFeed News de febrero de 2020. A partir de una sola fotografía, la aplicación rastrea en internet las imágenes y toda otra información relevante de la persona con una precisión cercana al 99 por ciento —aunque se ha dicho que no es tan certera en mujeres como en varones, y que se comporta de manera diferente ante distintos grupos raciales y demográficos—. Pese a esto, se trata de una precisión mucho mayor que las aplicaciones conocidas hasta el momento, ya que utiliza una base de datos con más de 3000 millones de imágenes recopiladas de Facebook, Instagram, Twitter, YouTube y otros sitios web y redes sociales. Tras la revelación del modus operandi de Clearview, las grandes empresas de internet enviaron a la aplicación cartas para que «cesara y desistiera» de usar sus fotografías, aunque todavía sigue funcionado y ofreciendo en línea sus servicios, especialmente dedicados a «investigadores y unidades de delitos mayores; para las unidades de lucha contra el terrorismo; para los servicios de conservación y preservación; para las unidades de Inteligencia y análisis de delitos; para las operaciones de patrulla y seguridad; para las agencias de cumplimiento de la ley, y para las verificaciones de antecedentes» (véase clearview. ai).

Clearview fue desarrollada por el ex modelo, emprendedor autodidacta y militante pro blanco australiano Hoan Ton-That y el político Richard Schwartz, quien fue ayudante del entonces alcalde de Nueva York Rudolph Giuliani, creador del eslogan «tolerancia cero». Contó además con el respaldo financiero del empresario libertariano Peter Thiel, cofundador de PayPal junto con Elon Musk y uno de los primeros inversores de Facebook, cuyo Consejo de Administración todavía integra.

 

A comienzos de 2020, en medio del revuelo por los miles de millones de datos utilizados sin permiso por la aplicación de reconocimiento facial, Hoan Ton-That explicó que Clearview solo estaba dirigida a agencias de



 

 

 

 

Página 47



 

cumplimiento de la ley en EE. UU. y Canadá. Con todo, el 5 de marzo de ese mismo año The New York Times reveló que un pequeño grupo de multimillonarios también venía teniendo acceso a ella. El diario divulgó que en octubre de 2018 John Catsimatidis, el propietario de la cadena de supermercados Gristedes, estaba cenando en el exclusivo restaurante Cipriani, en el barrio del SoHo de Nueva York, cuando vio entrar a su hija con un hombre a quien él no conocía. Le pidió al mozo que fotografiara con sigilo a la pareja, y enseguida subió la imagen a Clearview AI, que en segundos le informó que la cita de su hija era un capitalista de riesgo de San Francisco. «Quería asegurarme de que no era un charlatán», se ufanó Catsimatidis, mientras le enviaba a su hija un mensaje de texto con la biografía de su comensal. Un año más tarde, en febrero de 2021, el organismo canadiense de vigilancia de la privacidad dictaminó que el uso de Clearview IA en el país es ilegal incluso para el refuerzo de las funciones de seguridad, y exigió a la empresa que dejara de ofrecer sus servicios en todo el territorio.



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Página 48



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Parte del material de marketing que Clearview proporcionó a las fuerzas del orden. Fuente:

 

Clearview

 

Volvamos ahora a nuestro argumento. ¿Cuánto dicen de nosotros esas huellas? Tomemos solo el caso de los rastros que dejamos en Facebook, una empresa de datos que tiene 2740 millones de usuarios activos por mes, según el informe de la agencia We Are Social de enero de 2021. Mas de un tercio de la población mundial. No solo es mucha más cantidad de personas que las que habitan el Estado hoy más poblado del mundo, China, con unos 1400 millones de habitantes: es muchísima más información sobre cada persona, y mucho más completa y detallada, que la que cualquier censo o estadística de un Estado nación pudo obtener jamás, en línea, en tiempo real y con la posibilidad de reconducir de forma directa a los individuos concretos. Nos encontramos así frente a un escenario nuevo, un salto de escala en nuestra relación con las tecnologías y con quienes pueden hacer uso de nuestras informaciones, que ya no son solo los Estados, sino también organizaciones y empresas diversas.



 

 

 

 

Página 49



 

En 2013, un equipo liderado por el psicólogo polaco Michal Kosinski, entonces estudiante de doctorado en Psicometría de la Universidad de Cambridge, demostró que, sobre la base de un promedio de 68 «me gusta» dejados por un usuario de Facebook, era posible predecir su color de piel (con 95 por ciento de precisión), género (93 por ciento), orientación sexual (88 por ciento en varones; 75 por ciento en mujeres) y filiación política (85 por ciento). También podían determinarse su coeficiente intelectual, su religión, si usaba drogas o alcohol e incluso si sus padres estaban separados. Luego, en otro artículo de 2015 escrito junto con sus colegas Wu Youyou y David Stillwell, mostró que fue capaz de predecir a una persona, y hacerlo mejor que sus amigos, sobre la base de setenta «me gusta»; 150 fueron suficientes para superar lo que sabían los padres, y 300 «me gusta», lo que sabía su pareja. Según cuentan Hannes Grassegger y Mikael Krogerus en la revista suiza Das Magazin, el día en que Kosinski publicó sus primeros hallazgos recibió dos llamadas telefónicas: una amenaza de demanda legal y una oferta de trabajo. Ambas, de Facebook.

 

Kosinski llegó a estos resultados sobre la base de tres elementos. Por un lado, una encuesta psicométrica de personalidad basada en el modelo O. C. E. A. N. o de los Cinco Factores, que es desde hace dos décadas el estándar de la psicometría. Su nombre es un acrónimo de lo que esta tesis entiende que son las cinco dimensiones centrales de la personalidad: Openness o apertura a experiencias nuevas (a veces se lo denomina también intelecto); Conscientiousness o responsabilidad, Extroversion o extroversión, Agreeableness o afabilidad y Neuroticism o inestabilidad emocional. El centro de psicometría de la Universidad de Cambridge dispone de una gran cantidad de pruebas en línea basadas en este modelo, en el que recoge datos que, afirmaban hasta 2017 sus políticas de privacidad, podían ser «recolectados y utilizados para propósitos académicos y de negocios, y también pueden ser revelados a terceros, por ejemplo (pero no limitado a) institutos de investigación». Poco después esas políticas cambiaron, posiblemente para ajustarse al Reglamento General de Protección de Datos (RGPD) de la Unión Europea, y hoy solamente pueden utilizarse con fines de investigación. Es posible ver en línea tanto el test de personalidad clásico como el diseñado por Kosinski y las políticas de privacidad generales del sitio.



 

 

 

 

Página 50



 

Ese fue el primer criterio para clasificar a los usuarios a partir de una serie de factores o componentes, tal como establece la técnica llamada de descomposición en valores singulares (SVD). Esta técnica fue la base a partir de la cual el equipo Pragmatic Chaos de BellKor, integrado por investigadores de AT&T, ganó en 2009 el Premio Netflix, dotado en un millón de dólares, para el mejor algoritmo de filtrado colaborativo capaz de predecir las calificaciones de los usuarios de las películas. Este concurso, que la empresa lanzó cuando todavía se dedicaba a enviar DVD por correo, buscaba premiar a quien lograse mejorar el sistema para predecir las calificaciones que ya tenía la empresa, llamado Cinematch, en al menos 10 por ciento. Más de una década después de cerrado el concurso del Premio Netflix, los métodos basados en SVD, o modelos relacionados para datos implícitos, siguen siendo la herramienta elegida por muchos sitios web para predecir lo que los usuarios harán.

 

Por otro lado, Kosinski utilizó una pequeña aplicación de Facebook desarrollada por su colega David Stillwell denominada MyPersonality (mypersonality.org/wiki), donde los usuarios podían completar cuestionarios psicométricos que incluían varias preguntas de la encuesta O. C.E. A.N. y recibir una valoración, o un perfil de personalidad. Para sorpresa de Kosinski, no respondieron al test unas pocas decenas o centenas de personas, sino más de 58 000: tenía de pronto en sus manos la encuesta más grande de la historia de la psicometría.

 

En tercer lugar, analizó los resultados mediante un trabajo comparativo entre los datos obtenidos en esas encuestas y las huellas cibernéticas que habían dejado las personas examinadas en el propio Facebook: qué habían «megusteado», qué habían compartido o qué habían posteado en su Facebook, todo ello clasificado por género, edad, ubicación, entre otras variables. Hasta que se conocieron las investigaciones de Kosinski, la configuración por defecto de Facebook permitía que cualquiera pudiera ver los «me gusta» de otro usuario.

 

Los investigadores empezaron a encontrar de este modo correlaciones aún no razonadas ni hipotetizadas, sino que simplemente «se daban». Y notaron que podían extraer deducciones e incluso predicciones solo observando el comportamiento de las personas en línea. Por ejemplo, individuos con alto coeficiente intelectual gustaban de la saga



 

 

 

 

Página 51



 

cinematográfica El Padrino, mientras que los de bajo coeficiente habían preferido la marca Harley Davidson. Oscar Wilde y Sylvia Plath eran preferencias de personas «abiertas a la experiencia», mientras que las más conservadoras preferían ESPN2. Uno de los mejores indicadores de heterosexualidad en los varones era haber dado «me gusta» a X Games, y en las mujeres, a Adidas Originals. Haber dado «me gusta» al sitio Tatoo Lovers era habitual en quienes bebían alcohol, mientras que gustar de Honda lo era entre no fumadores.

 

Como es posible entrever, esta investigación inspiró de manera directa la creación de la empresa Cambridge Analytica, en la que Kosinski se opuso a participar. Fueron sus colegas Aleksandr Kogan y Joseph Chancellor, también investigadores de la Universidad de Cambridge en aquella época, quienes empezaron a utilizar datos de Facebook como parte de una colaboración con Strategic Communication Laboratories (SCL), la empresa matriz de Cambridge Analytica, cuyo CEO era Alexander Nix. Kogan invitó a Kosinski y a Stillwell a unirse a su empresa Global Science Research (GSR), la firma que recopiló los datos y se los vendió a la empresa de Nix, pero esa invitación no prosperó. A mediados de 2021, Kogan seguía trabajando en la Universidad Cambridge, y Chancellor en el departamento de investigaciones de Facebook, como psicólogo social cuantitativo.

 

Como Kosinski, Stillwell y Graepel señalan en su estudio, no se trata solamente de Facebook. Es más: en otras plataformas puede ser peor, ya que al menos en FB somos conscientes de que alguien verá nuestros «me gusta». En cambio, en otros tipos de registros digitales hoy generalizados, como los historiales de navegación o de compra y las consultas de búsqueda, no asumimos que podemos estar siendo observados y es posible que brindemos información que nos deje todavía más expuestos. Como sostienen los investigadores en las conclusiones de su trabajo: «La amplia variedad de atributos predichos por este estudio indica que, con un tratamiento apropiado de datos, también es posible revelar muchos otros atributos».



 

 

 

 

 

 

 

 

 

 

Página 52



 

Minería de datos, extractivismo y anticipación

 

 

Llegamos así a otro rasgo de este nuevo orden: el que se refiere al modo de tratar estos datos, la llamada minería de datos aplicada a big data, que implica toda una adaptación de las técnicas tradicionales de datamining debido a las tres «v» características de los grandes datos: volumen, velocidad y variabilidad. Como acabamos de ver, una de las formas de abordar estas cantidades masivas de datos es la que hace emerger entre ellos correlaciones para elaborar predicciones. Al hacerlo, se encadenan y comprimen en el procedimiento maquínico al menos tres decisiones metodológicas importantes: usar el análisis cuantitativo sobre el análisis cualitativo; usar modelos probabilísticos y no otros, como por ejemplo simulaciones, y usar modelos predictivos y no explicativos.

 

Como describe el investigador Momin M. Malik, del Centro Berkman Klein sobre Internet y Sociedad de la Universidad de Harvard, al elegir el análisis cuantitativo, «sacrificamos la capacidad de tener una comprensión narrativa de la creación de significado, y elegimos trabajar con representaciones en lugar de construcciones reales de interés, con el riesgo de deslegitimar la experiencia vivida». Cuando elegimos un modelo basado en la probabilidad, «restringimos nuestra visión del mundo como compuesto por entidades fijas con ciertas propiedades, y priorizamos el uso de una tendencia central sobre la participación con individualidades», y al priorizar la predicción, «creamos modelos que no son confiables para obtener información sobre el sistema subyacente».

 

Este triple acoplamiento en el nivel metodológico que queda inscripto en el software es lo que intuyen Rouvroy y Berns cuando afirman que a esta nueva estadística algorítmica no le interesa rastrear el «hombre medio», a la manera de la estadística tradicional, sino captar la «realidad social» como tal, de manera automatizada y directa, sin pasar por ninguna relación con la «media» o con lo «normal», sin partir de hipótesis y sin someter esos datos a una interpretación basada en el significado. Se trata de una estadística no normativa, que establece correlaciones a partir de informaciones no seleccionadas, perfectamente heterogéneas.



 

 

 

 

 

Página 53



 

En efecto, el objetivo de las estadísticas ha sido tradicionalmente utilizar datos para comprender algo sobre procesos subyacentes, mientras que el aprendizaje automático, si bien utiliza gran parte de la maquinaria matemática y modelos estadísticos, busca diseñar asignaciones de entrada-salida confiables, que puedan predecirse —no necesariamente interpretarse ni comprenderse.

 

Por otro lado, estos sistemas automáticos de modelización de lo social a partir de comportamientos, en su mayoría reacciones emocionales, a distancia y en tiempo real permiten incluso automatizar la «personalización» de interacciones. Una personalización que es contraintuitiva, ya que la propuesta «personalizada» emerge de poner un número limitado de opciones personales en relación con una serie estadística de gran escala.

 

Con el uso de estos datos, los perfiles no solo pueden armarse, sino que también es posible actuar retrospectivamente a partir de ellos sobre el universo de los usuarios y, por ende, buscar y encontrar conjuntos de rasgos específicos (mujeres proclives a votar al candidato X; inestables emocionales a los que les gusta Hello Kitty) para «personalizar» mensajes, esto es, para incitar determinadas conductas en aquellas personas de las que se obtuvieron los datos. (En particular, sobre los más influenciables, que suelen ser los «inestables emocionales»). Es lo que Rouvroy y Berns denominan la «aparente individualización» de la estadística algorítmica. No se trata de un efecto colateral, sino de uno de los Santos Griales del orden informacional: una estadística que no solo recoge datos de los individuos y los pone en correlación para establecer patrones generales (y diseñar políticas o campañas), sino que gracias a la enorme escala de la información recibida y a la capacidad de las máquinas de procesar automáticamente esos volúmenes de datos sin limitarse a variables preestablecidas, puede regresar al nivel de los individuos para predecir sus posibles interacciones o para tratar de incidir en sus comportamientos esperables.

 

Esta medición no se apoya únicamente en lo que los actores dicen sobre sí mismos en relación con un tema, sino que además puede inferir gustos y afinidades políticas, religiosas, gastronómicas o de otra índole a partir de indicadores en principio no relacionados en absoluto con el



 

 

 

 

Página 54



 

tópico buscado. Como Kosinski y su equipo señalan en las conclusiones de su trabajo de 2013:

 

Es importante destacar que, dada la cantidad cada vez mayor de rastros digitales que las personas dejan, se hace difícil controlar cuáles atributos están revelando. Por ejemplo, simplemente evitar el contenido explícitamente homosexual puede ser insuficiente para impedir que otros descubran su orientación sexual.

 

De allí que afirmen en ese mismo documento que es posible que la capacidad de predecir los atributos individuales a partir de los registros digitales de comportamiento tenga implicaciones negativas, ya que puede aplicarse con facilidad a un gran número de personas sin que se den cuenta. «Uno puede imaginar situaciones en las que tales predicciones, aunque sean incorrectas, podrían representar una amenaza para el bienestar, la libertad o incluso la vida de un individuo».

 

El tercer rasgo que vale la pena resaltar tiene que ver con la dimensión temporal: el uso de estos saberes probabilísticos estadísticos tiene la finalidad de anticipar, predecir y, en definitiva, inducir comportamientos de individuos o grupos remitiéndolos a perfiles delineados sobre la base de las correlaciones que surgieron del proceso de minería de datos. Eso sucede en las esferas más diversas: para la obtención de un crédito, para la toma de decisiones en una intervención quirúrgica, para la clasificación del tipo de usuario que somos y, por ende, las ofertas que nos acercará — por ejemplo— una aseguradora, para poner precio a los pasajes que queremos comprar, etcétera.

 

Se trata de una acción vigilante que se orienta al futuro; que busca no solo —y no tanto— conocer lo que las personas hacen y por qué, sino sobre todo intervenir en sus posibles conductas, ya no persuadiéndolas de los motivos por los cuales les convendría hacer tal o cual cosa, sino induciendo su comportamiento con distintas técnicas, como segmentar cada acción en microsecuencias con el objetivo de interceptar la atención del usuario en cada paso y orientarla en el sentido esperado, tratando de lograr la clausura parcial de las posibilidades que se abren en cada interacción. Al respecto, este nuevo orden de la gubernamentalidad



 

 

 

 

Página 55



 

algorítmica propicia aquello que, en términos de Gilbert Simondon, llamaríamos las amplificaciones moduladoras o reproductivas allí donde habrían podido darse amplificaciones transductivas, creadoras o transformadoras.

 

 

 

 

 

 

 

 

 

 

Vigilancia (im)personal y la ideología de lo «ágil»

 

 

El cuarto rasgo es algo ya mencionado: a las redes de vigilancia y gubernamentalidad algorítmica no les interesan los motivos por los cuales una persona hace tal o cual cosa, como tampoco se preguntan por qué determinadas características (por ejemplo, gustar del film El Padrino y nadar) quedan estadísticamente asociadas a otras (simpatizar con el partido X y no tomar alcohol). Interesa, en cambio, que la curva de ocurrencia de esas cuatro características tienda a coincidir más que a diferir, para establecer una correlación. Luego, que cierto número de individuos sea sensible a la inducción anticipatoria y despliegue el comportamiento esperado, coherente con la serie.

 

La disciplina suponía sujetos que, en el mejor de los casos, asumirían la tarea de vigilarse a sí mismos y controlar sus acciones para responder al patrón normador (bajo la pena de un posible castigo: prisión, sí, pero también desempleo o subempleo, enfermedad, hospicio, rechazo social). Y en el peor, que deberían ser vigilados de manera continua en instituciones de encierro porque no serían capaces de ejercer sobre sí ese ininterrumpido trabajo vigilante (en última instancia, serían abandonados hasta por estas mismas instituciones).

 

La gubernamentalidad de nuestro tiempo ya no requiere un sujeto reflexivo. Por un lado, porque ella es desarrollada por agencias que no solo, ni principalmente, exigen o incentivan la productividad directa del individuo, sino su productividad indirecta en términos de «prosumo», de acuerdo con la expresión acuñada por Alvin Toffler que refiere a la acción



 

 

 

 

Página 56



 

de los consumidores que, mientras consumen, producen valor (como los televidentes que, al estar frente a un programa, producen rating). En parte son consumidores: las empresas de bienes y servicios buscan seducirlos o rechazarlos como clientes y, por qué no, votantes. En parte, insumos de un producto que es precisamente un conjunto de datos. Sus reacciones, sus relaciones interpersonales, su «capital social» devenido ahora además «capital informacional», su funcionamiento afectivo-emocional incorporado en una base de datos de gran volumen que se vende a otras agencias: empresas de bienes y servicios, de aplicación de la ley, de diseño de políticas.

 

Por otro lado, podemos conjeturar que la gubernamentalidad algorítmica no supone sujetos reflexivos porque esto significaría ralentizar los intercambios, y la velocidad de las interacciones con los dispositivos interconectados es una variable clave en la economía digital. Hoy los procesos se han acelerado doblemente: en primer lugar, por la cantidad de información por segundo que necesitamos procesar para desarrollar actividades de todos los días. El multitasking, la multitarea, no es solo una cualidad maquínica, sino que también se exige a los humanos —siempre la ejercimos, es cierto, solo que no para estas actividades—. Por otro lado, es evidente que los procesos automatizados no han desaparecido: se siguen realizando, inscriptos en los procedimientos algorítmicos. Esto quiere decir que los menús de opciones prediseñados involucran decisiones asumidas por programadores, lo cual implica agilizar, pero también dificulta la posibilidad de evaluar y analizar procesos de decisión.

 

Es llamativo que, justo en medio de la pandemia, hayan proliferado las acciones por parte de algunos de los países más poderosos para movilizar a las naciones hacia la ideología, y la praxis, de lo «ágil». En efecto, el 25 de noviembre de 2020, en un panel establecido por la Organización para la Cooperación y el Desarrollo Económicos (OCDE) y el Foro Económico Mundial, los gobiernos de Estados Unidos, Canadá, Gran Bretaña, Dinamarca, Italia, Japón y Singapur firmaron el primer acuerdo mundial de «Naciones Ágiles», al que pocas semanas después se sumó Emiratos Árabes Unidos. En su Carta Fundacional, los participantes sostienen que «los avances tecnológicos dentro y a través de las esferas digital, biológica y física están presagiando una Cuarta Revolución Industrial, impulsando



 

 

 

 

Página 57



 

una ola de innovación y espíritu empresarial». Por eso mismo ellos se comprometen a «desbloquear el potencial de innovación» de las nuevas tecnologías en esos tres campos, a fin de «evitar divergencias innecesarias en las normas que inhiben la innovación transfronteriza y dificultan la acción conjunta para abordar riesgos comunes». Esto es: se orientan a protocolizar y estandarizar regulaciones «innovadoras» para dar vía libre a los mecanismos automatizados de toma de decisiones. Su objetivo es «fomentar la cooperación en la elaboración de normas» para que las empresas dentro de sus jurisdicciones «introduzcan y escalen innovaciones en sus mercados». Y también, «unificar las regulaciones, estándares y arquitectura digital a través de las cuales los gobiernos y las industrias imponen requisitos a las empresas».

 

Se comprometen para ello a «permitir a las empresas poner a prueba y experimentar innovaciones de una manera que respalde la competencia justa y abierta». Llamativamente, sin embargo, entre las empresas invitadas a participar en la reunión estaban nada menos que IBM y Facebook; en este último caso, su representante Markus Reinisch, vicepresidente de Asuntos Públicos de FB en Europa, Medio Oriente y África, se ofreció a «lanzar una convocatoria de investigación, supervisada por un comité independiente de expertos en el campo del derecho, la regulación y el espíritu empresarial, sobre qué enfoques de la reglamentación son los más efectivos para la Cuarta Revolución Industrial». Y asegura que invitará a otras empresas «a copatrocinar esta iniciativa y a aventurar sus propias ideas» para apoyar el trabajo de las Naciones Ágiles.

 

Convendría observar este interés por normalizar y protocolizar la toma de decisiones a escala planetaria a la luz de la agilidad y la aceleración que reclaman los términos y condiciones de las aplicaciones: es excesivamente farragoso detenerse a aceptar esos términos letra por letra, aplicación por aplicación, sitio web por sitio web. Según el análisis realizado por dos investigadores de la Universidad Queen Mary de Londres, si el comprador de un simple termostato Nest —un producto de la familia Google—, que busca bajar sus gastos domésticos mediante un artefacto que registra cuándo no hay nadie en su casa para ajustar la temperatura y derrochar menos gas o electricidad, se propusiera entender qué es realmente lo que



 

 

 

 

Página 58



 

está firmando cuando acepta los términos y condiciones de cada uno de los dispositivos y aplicaciones conectadas al pequeño aparatito que adquirió por internet, tendría que revisar cerca de mil de esos llamados «contratos».

 

Con todo, aun si lo hiciéramos, no sería suficiente: en especial después de la pandemia del covid-19, ya no podemos negarnos a aceptarlos. Muchas de las actividades cotidianas del ámbito comercial o bancario, de entretenimiento, educativas o administrativas, como inscribirse en una escuela, solicitar permiso de circulación o pedir un turno para tramitar el documento nacional de identidad, solo pueden hacerse a través de todo un conjunto de proveedores de internet, sistemas operativos, plataformas de red y aplicaciones cuyas condiciones no es posible rechazar, a menos que aceptemos quedarnos fuera del ámbito de la ciudadanía, esto es, excluido de los circuitos que ella misma requiere.

 

Cabe reflexionar un instante más en la afirmación según la cual la vigilancia algorítmica no supone un sujeto reflexivo que asume las matrices normativas de la vigilancia en su proceso de subjetivación. Esto está implícito en la polémica afirmación de Rouvroy y Berns, según quienes la gubernamentalidad algorítmica «no produce ni incentiva una subjetivación», sino que «sortea y evita a los sujetos humanos reflexivos, se alimenta de datos infraindividuales, insignificantes por sí mismos, para crear modelos de comportamiento o perfiles supraindividuales, sin apelar jamás al sujeto».

 

Consideremos esta tesis. Si aceptamos que, como dicen Rouvroy y Berns, estos procedimientos algorítmicos no incentivan una forma particular de subjetivación, podríamos preguntarnos si podrían resultar prácticas desubjetivantes. Y es posible, en cierta medida.

 

En 2019, exponiendo en un coloquio sobre estas cuestiones, un artista me preguntó: «¿Y quién dice que queremos seguir haciendo esos esforzados e infructuosos ejercicios de autodesciframiento?». Se refería así a una nueva posibilidad que brindarían estos dispositivos, incluidos tanto las redes sociales como las técnicas psicométricas y los test dentro y fuera de línea, para la «asistencia», como la llama el investigador Eric Sadin (2017), en conocerse a uno mismo. Una delegación, un vicariato que implica cierto desasimiento, un relajamiento en los controles con respecto a ese debido cuidado de sí que otras tecnologías del yo reclaman y exigen



 

 

 

 

Página 59



 

del sujeto. Quizás un deseo de ser exonerado de un peso, de una culpa (¿por existir?) y de una responsabilidad. Tal vez un deseo de abandonar el yo, de olvidarse de uno mismo por un rato —algo que los psicoanalistas conocen y valoran bien—, solo que delegando esa tarea en mecanismos de los que no podemos decir que van a realizar la tarea por nosotros de manera satisfactoria. Si atendemos al problema de los sesgos tan discutido en la literatura sobre algoritmos, no parecen ser muy sutiles.

 

Por otro lado, también cabe pensar que el hecho de que los procedimientos algorítmicos se «salteen» al sujeto, desconozcan e incluso omitan sus motivaciones, no significa que no produzcan, de todos modos, alguna forma de subjetivación. Más bien por el contrario, el modelo de la gubernamentalidad algorítmica no parece «olvidar» al sujeto, sino que lo interpela tal como la teoría cibernética lo ha definido hace más de setenta años: como una «caja negra» de la que solo es posible conocer el input y el output. Por eso la gubernamentalidad algorítmica se concentra en sus funciones comunicativas e interactivas: hacer clic, reaccionar, intervenir, comunicar. Incentiva la producción de un usuario 1-click que emite señales continuamente, un homo comunicans que participa, como desconcertado donador, del ritual sacrificial de su propia autonomía.

 

Con todo, sin embargo, el sujeto supuesto por los dispositivos jurídicos y técnicos del gobierno algorítmico de las conductas es un homo œconomicus prudente que sabe, o debería saber, ponderar los riesgos de sus acciones y reacciones, de sus comentarios, de su red de amigos (a quiénes pide «amistad», a quiénes acepta o rechaza). Un supersujeto multitasking capaz de evaluar los «términos y condiciones» de cada dispositivo, que sabe elegir el software adecuado, que encripta y desencripta mensajes, que abre las cajas negras de la tecnología y se maneja entre ellas como un ingeniero, un especialista en seguridad, un lingüista, un contador, un experto en leyes y un militante social, todo al mismo tiempo, antes de empezar a hablar de sus intereses específicos. Pero como vimos, hoy eso es imposible. Y todos lo saben.

 

En este nuevo orden informacional, los dispositivos de captura se dirigen al viviente humano en un doble juego. Por un lado, apuntan a ese «sujeto supuesto saber» que es el «usuario prudente», que de tecnologías y dispositivos en realidad sabe poco y nada, pero al que interpelan los



 

 

 

 

Página 60



 

protocolos regulatorios, los términos y condiciones, todo el aparataje contractual que simplemente está allí para proteger a las empresas. Y por otro lado, se dirige el estado metaestable emocional y afectivo de un viviente humano al que se lo bombardea con propuestas, muchas de ellas atractivas y convenientes, y se lo interpela y confronta con el fantasma de «su» perfil personalizado, al que se lo incita a parecerse. No una representación sino una simulación algorítmicamente lograda de aquello que podría ser su identidad, que se le propone como espejo, no demasiado confiable pero operativo, de sí mismo.



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Página 61



 

 

 

 

 

 

 

 

 

 

 

Hacktivismo, biometría y vigilancia genética

 

 

Ciencia forense y civilización de las costumbres: de cómo educar a dueños «incívicos» de perros • ¿Y si alguien tira un chicle o una colilla de cigarrillo? • Nuevas tecnologías para el viejo identikit • Sesgos, racismo, imprecisión y vulnerabilidad de la evidencia de ADN

 

•  Estrategias artísticas de anonimización en la «vida real» • «Como un pariente lejano» • La cultura de la vigilancia: las personas le temen, la reclaman y se divierten con ella • Chelsea Manning, los desaparecidos de Ayotzinapa y un desfile de moda en París

 

La lucha por la subjetividad moderna pasa por una resistencia a las dos formas actuales de sujeción: una que consiste en individuarnos según las exigencias del poder, otra que consiste en vincular a cada individuo a una identidad sabida y conocida, determinada de una vez por todas. La lucha por la subjetividad se presenta, pues, como derecho a la diferencia y derecho a la variación, a la metamorfosis.

 

Gilles Deleuze,

 

Foucault, 1986

 

 

Noticia 1. En mayo de 2016, el Ayuntamiento de Mislata, en Valencia, España, promulgó una ordenanza que obliga a los vecinos a realizar una extracción de material genético a sus perros para crear un banco de datos de ADN canino. El propósito es sancionar a quienes no levanten los excrementos que dejan sus mascotas en la vía pública. Para eso, la empresa concesionaria de limpieza recoge muestras de los excrementos hallados en las calles y las envía a un laboratorio, donde son confrontadas con el banco genético del Censo Municipal para determinar la identidad



 

 

 

 

Página 62



 

del perro y de su dueño. Así, los propietarios «incívicos», como los llama la prensa, deben pagar multas de hasta 200 euros por excrementos no levantados, y 300 euros si los perros no están censados. Desde entonces, casi treinta ciudades españolas han replicado esa metodología, con sanciones que van de los 60 euros a los 600, y en algunos casos, 1500.

 

La práctica no es del todo nueva: la firma de biotecnología que patentó el sistema, llamada Poo Prints (literalmente, «huellas de caca») y fundada en 2008, asegura que para 2021 hay más de 5000 comunidades en Gran Bretaña, Canadá y los Estados Unidos que utilizan el método.

 

 

 

Noticia 2. La primera vez que se recurrió al análisis de material genético como parte de una investigación criminal fue hace unos treinta y cinco años. En 1986, Dawn Ashworth, una joven de 15 años, fue violada y asesinada en Leicestershire, Inglaterra. Tres años antes se había cometido en una localidad cercana un crimen similar, el de la también quinceañera Lynda Mann. El análisis de ADN realizado a partir de muestras de semen hallado en los cuerpos mostró que el autor de ambos crímenes era el mismo, pero su comparación con el perfil genético del único sospechoso —quien, además, había confesado su culpa en el segundo asesinato— no indicó coincidencia. La prueba, en su estreno judicial, sirvió para dar fe de la inocencia del imputado.

 

Para resolver el caso se realizó un análisis de perfiles genéticos de 5000 varones adultos residentes en la zona. Este trabajo duró seis meses, pero no produjo resultado alguno. Poco después, el empleado de un bar oyó a un hombre llamado Ian Kelly jactándose de haber obtenido 200 libras por haber donado una muestra haciéndose pasar por su amigo Colin Pitchfork, panadero de la localidad. El 19 de septiembre de 1987, Pitchfork fue arrestado. En el interrogatorio posterior el panadero admitió su culpa en ambos crímenes, y luego de cotejar las muestras de ADN, resultó ser el primer violador serial identificado por un estudio genético tras una búsqueda masiva.



 

 

 

 

 

 

 

 

 

 

Página 63



 

¿Qué tienen en común estos dos casos tan distintos? Vemos, por un lado, la presencia de rastros genéticos, y por otro, la preexistencia de una base de datos o, en su defecto, un relevamiento que permite la creación de una base semejante para, a partir de ella, establecer una comparación. Pero ¿qué sucede si esa base no existe, y los relevamientos orientados a construirla fracasan? Esto ocurre muchas veces, ya que en el mundo «real», el de la vida biológica, no existen por ahora almacenes de datos suficientemente exhaustivos. Ese fue el caso en 2011, cuando Candra Alston y su hijita Malaysia Boykin fueron asesinadas en su departamento de Columbia, en Carolina del Sur, Estados Unidos. Nadie registró el hecho, ni hubo cámaras que pudieran dar pistas del asesino. En aquel momento, la policía recolectó ADN de más de 150 personas, pero la investigación quedó en nada.

 

La genética forense siguió trabajando para superar esta limitación, y desde hace más de diez años vienen desarrollándose técnicas que permiten especular con la posibilidad de reconstruir un rostro a partir de restos de ADN. La técnica se denomina fenotipado o fenotipificación de ADN (FDP, por sus siglas en inglés). El FDP difiere de la tipificación de ADN tradicional, o genotipado, en varios aspectos. En primer lugar, esta última no revela información personal, sino que determina si dos muestras pertenecen a la misma persona; o si hay probabilidades confiables de filiación entre dos personas. El FDP, en cambio, parte del ADN que queda en un escenario cualquiera para crear una posible descripción de la apariencia o identikit de quien estuvo allí. A diferencia de la tipificación o genotipado de ADN, que confirma la identidad dentro de un universo de personas posibles, el FDP busca predecir la apariencia de una persona que no se conoce o no se encuentra.

 

La primera aparición pública de esta técnica en el ámbito de la aplicación de la ley fue en enero de 2015, precisamente para reabrir el caso de Alston y su niña. Ese año la policía de Columbia adquirió los servicios de la empresa Parabon-NanoLabs, gracias a cuyo programa Snapshot pudo desarrollar y dar a conocer un posible identikit del atacante. (El documento de difusión de Parabon-NanoLabs puede consultarse en el sitio web de la empresa).



 

 

 

 

 

 

Página 64



 

Las indagaciones con este método permiten obtener datos probabilísticos sobre sexo, color de ojos, color de cabello y un polémico «rango de etnicidad» o «ancestría», elemento que causa gran inquietud porque señala el retorno de la noción más o menos encubierta de raza que parecía haber quedado atrás desde las Cuatro declaraciones sobre la cuestión racial de la Unesco, redactadas por especialistas de distintas disciplinas científicas en 1950, 1951, 1964 y 1967, como parte de un programa de dicho organismo para fomentar el conocimiento de nociones científicas sobre la raza y combatir los prejuicios raciales.

 

Esas búsquedas no permiten definir la edad, porque, como indicaba en 2010 el biólogo molecular Manfred Kayser, de la Escuela de Medicina de la Universidad Erasmus de Rotterdam, Holanda, y uno de los grandes precursores en la investigación de la técnica de FDP para la ciencia forense, no hay marcadores de ADN para la edad. «Nos encontramos frente a un problema —explicaba Kayser a la revista MIT Technology Review—, porque normalmente el ADN no cambia con los años. […] De allí que tenemos que buscar otra vía de acceso». Para eso Kayser, uno de los desarrolladores de la prueba de ADN HIrisPlex, que permite predecir el color de cabello y de ojos, desarrolló un método basado en el sistema inmunitario para establecer la edad a partir de rastros de sangre con un margen de error de nueve años.

 

 

 

 

 

 

 

 

 

 

Identificaciones genéticas

 

 

Si atendemos a uno de los rasgos más significativos de nuestro tiempo, que es la condición transdisciplinar y multiescalar de la tendencia técnica orientada por la digitalización —una de cuyas manifestaciones es la investigación de ciertos temas y problemas en ámbitos de aplicación completamente distintos, así como su desplazamiento rápido a diferentes esferas de la vida social y cultural—, no debería sorprendernos saber que



 

 

 

 

Página 65



 

esta tecnología, que se desplegó de manera pionera tanto en un laboratorio privado de los Estados Unidos como en una universidad europea para usos forenses, también fue desarrollada en los mismos años por una joven artista en un laboratorio de «biología de garaje» o «DIYbio» (por Do It Yourself, Hágalo Usted Mismo).

 

Se trata de Heather Dewey-Hagborg, una graduada en Artes de la Información con conocimientos avanzados en programación de computadoras, quien por entonces venía llevando adelante algunas piezas críticas de la tecnología, como por ejemplo la obra de arte público Who owns you? (2008-2011), instalada en el marco del proyecto Billboard Art Project. En una sutil pero evidente crítica al gigante tecnológico, Dewey-Hagborg usó la tipografía y los colores del logo de Google para escribir «¿Quién es tu dueño?» en una cartelera electrónica gigante ubicada en la ruta de acceso a Utica, estado de Nueva York.

 

A partir de 2012, Dewey-Hagborg comenzó a explorar las prácticas de biohacking en el laboratorio Genspace, de Brooklyn: el primer laboratorio de biología comunitaria del mundo, fundado en 2009, donde las personas, sin necesidad de títulos previos, pueden aprender técnicas y procedimientos de las ciencias de la vida.

 

La artista decidió explorar las posibilidades de la identificación y autenticación, ya no en el espacio cibernético, sino en el físico, el de la información biológica. Y para esto llegó a desarrollar la técnica de fenotipado, con métodos muy similares a los que comentamos antes, y a utilizarla en el campo artístico al mismo tiempo, e incluso un poco antes, que científicos, empresarios y agencias de gobierno. Expuso sus primeros resultados en la serie Stranger Visions (2012-2013; la documentación de la pieza está disponible en la página web de la artista), en la que Dewey-Hagborg creó retratos esculpidos en tres dimensiones a partir del análisis de material genético extraído de restos recogidos en lugares públicos, como chicles, pelos o colillas de cigarrillo. Primero obtuvo y documentó el hallazgo de esos materiales de desecho; luego procesó los restos de ADN encontrados en ellos para concentrarse en las cadenas que proveen información sobre sexo, color de ojos, de piel y de cabello, «rango de etnicidad», además de ciertos rasgos faciales como el ancho de la nariz y la boca. Volcó esos datos en un programa informático y, tras compararlos



 

 

 

 

Página 66



 

con bases de datos disponibles en la red, produjo una predicción o estimación especulativa de los posibles rasgos faciales de la persona a la que ese material pertenecía. Como la técnica no permite conocer la edad, los retrató de unos 25 años (¿algo así como la nueva edad de los ángeles?), y los imprimió en una impresora 3D a color en tamaño natural.

 

En 2015, ella contó esa experiencia en el texto «Sci-fi crime drama with a strong black lead» (Drama criminal de ciencia ficción con un fuerte protagonismo negro):

 

Entre 2012 y 2013, coleccioné obsesivamente pelos caídos, colillas de cigarrillos, chicles masticados tirados en el piso y pedacitos de uñas para investigar cuánto podía aprender sobre las personas que los habían arrojado al piso. Lo que descubrí fue que al combinar un arsenal de investigaciones publicadas, bioinformática y herramientas de aprendizaje maquínico, podía hacer inferencias o predicciones estadísticas sobre cómo se veían y actuaban estas personas, qué tipo de afecciones tenían e incluso cuáles eran sus apellidos. En mi proyecto Stranger Visions me apropié de estas técnicas e interpreté un subconjunto de ellas para crear retratos en 3D a todo color de tamaño natural de los extraños cuyo ADN había recopilado.

 

Dewey-Hagborg expuso Stranger Visions a partir de 2012. Como derivado de esa misma acción, e ingresando en la línea activista del bioarte, o arte realizado a partir de técnicas y materiales biológicos, al año siguiente comenzó a trabajar en técnicas de «contravigilancia», promoviendo el ocultamiento de sus propios rastros de ADN, en una estrategia que recupera, para la protección de la información biológica, el tópico de la anonimización en la jerga informática (hay que recordar que Dewey-Hagborg se formó como artista de la Información). La primera pieza en esa línea fue DNA Spoofing o Falsificación de ADN, un video donde muestra maneras de ocultar las huellas genéticas. En la página web de la artista dedicada a esta pieza puede leerse:

 

Así como la suplantación de IP hace posible la navegación anónima en internet, la falsificación de ADN amplía este potencial al codificar



 

 

 

 

Página 67



 

material genético, permitiendo trayectorias físicas anónimas igual que las navegaciones ocultas en el mundo digital. En este espíritu, nuestro trabajo ofrece algunas técnicas DIY para contrarrestar la vigilancia genética.

 

En 2014 la artista desarrolló el proyecto-producto Invisible, que funciona como ocultador de ADN. Invisible incluye un kit con dos envases de aerosol, uno llamado «Borrar» y otro «Reemplazar». «Borrar» elimina el 99,5 por ciento del material de ADN sobre cualquier superficie, mientras que «Reemplazar» oculta el restante 0,5 por ciento rociando una capa de material genético arbitrario. No es difícil imaginar que este producto podría ser utilizado para ocultar un crimen real. En una comunicación personal con la artista, le pregunté cómo interpretaba estos potenciales usos no deseados de la pieza, y ella respondió: «Se trata, en realidad, de un aspecto secundario del trabajo». El punto central, agregó, es «llamar la atención sobre la vulnerabilidad de la evidencia de ADN. Cuestionar su autoridad como “estándar de oro” de la ciencia forense. Si el ADN puede ser pirateado, creado y “plantado” como cualquier otra evidencia, ¿merece el elevado estatus que se le confiere?».

 

Al año siguiente, fue una de las principales promotoras del colectivo de artistas Biononymous.me, que integran también, entre otros, el crítico Brian Holmes y la escritora y artista Dorothy Santos, y que se define como «un centro para la investigación comunitaria en vigilancia biológica». Por vigilancia biológica el grupo entiende «el medio por el cual se utiliza la ciencia biológica para rastrear, monitorear, analizar y convertir cuerpos en datos», desde la extracción de ADN y microbios de nuestra piel, uñas, cabello y fluidos corporales hasta el análisis para identificar partes del cuerpo, como rostros, huellas dactilares e iris, pasando por «el seguimiento de la vida misma mediante el calor corporal, el pulso, la transpiración y los movimientos involuntarios: es la vulnerabilidad a la que nos enfrentamos todos los días por la propia situación de ser humanos, simplemente por tener un cuerpo».

 

En el sitio web de Biononymous.me pueden encontrarse distintos recursos para burlar los sistemas de identificación digital de huellas



 

 

 

 

 

 

Página 68



 

dactilares o instrucciones relativamente sencillas, a veces incluso candorosas (maquillaje, peinados), para evadir el reconocimiento facial.

 

Biononymous es un proyecto precursor, no el único, que registró la vulnerabilidad que implica, con relación a derechos fundamentales de las personas, la combinación entre datificación, digitalización y datos masivos.

 

En efecto, desde que la técnica del reconocimiento facial comenzó a utilizarse de manera intensiva, a comienzos de la década de 2010, atrajo el interés de los defensores de la privacidad, como el Dazzle Club, un colectivo de artistas con sede en Londres cuyos integrantes usan maquillaje para camuflarse mientras hacen caminatas silenciosas para protestar contra el uso de cámaras de reconocimiento facial por parte de la policía metropolitana. Se trata de unas pocas pero efectivas líneas en colores primarios, o contrastantes, que cruzan el rostro; a veces en forma de Y invertida, otras atraviesan de manera horizontal frente, ojos, nariz y boca; otras cruzan el ojo de arriba abajo.



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Página 69



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Imagen de los diseños antirreconocimiento facial de Dazzle Club.

 

No solo los artistas reaccionaron frente a los sistemas de vigilancia biológica. En 2017, el ingeniero ruso Grigory Bakunov, director de tecnología en Yandex, el equivalente de Google para el público en Rusia, desarrolló un algoritmo que puede eludir algunos sistemas de reconocimiento facial con unas simples líneas de maquillaje en la cara. En este caso cabe interpretar que está en juego, también, cuál será la potencia que lidere la captura y el procesamiento de esos datos. Aquí una vez más, lo personal —los propios datos— es geopolítico.

 

Poco después, en otoño de 2020, durante los preparativos para el desfile en París de su propia marca, Atlein, el diseñador francés Antonin Tron solicitó a la maquilladora Fara Homidi que creara un estilo que estuviera en consonancia con el algoritmo antirreconocimiento facial de Bakunov. El resultado fue una «versión ligeramente más simple y desordenada» de los diseños futuristas del experto ruso, según comentó Homidi, con formas de color negro azabache y cobalto atravesando la



 

 

 

Página 70



 

nariz y un ojo. «Es en gran medida un maquillaje-declaración, y funciona como equipamiento de batalla moderno», explica Homidi en su sitio de Instagram. «Con las cámaras de los teléfonos móviles en todas partes — agrega—, no es difícil imaginar que un algoritmo de reconocimiento facial pueda usarse contra cualquiera que participe en protestas, incluso si tiene derecho a hacerlo».

 

Más recientemente, en enero de 2021, el artista estadounidense residente en Berlín Adam Harvey desarrolló, junto con Jules LaPlace, el proyecto Exposing.ai, fundado en años de investigación sobre los conjuntos de datos de entrenamiento que se usan para perfeccionar las tecnologías de reconocimiento facial y otros métodos de análisis apoyados en la biometría. Después de rastrear y examinar cientos de conjuntos de datos, surgió un patrón: esos conjuntos estaban integrados por millones de imágenes descargadas de flickr.com, donde las licencias de contenido son muy permisivas y abundan los datos biométricos. Uno de los objetivos del proyecto es «contar cómo las fotografías de ayer se convirtieron en datos de entrenamiento de hoy», explican Harvey y LaPlace.

 

El sitio de Exposing.ai (exposing.ai) proporciona un motor de búsqueda que permite que los usuarios verifiquen si sus fotos personales de Flickr, subidas entre 2004 y 2020, están dentro de los conjuntos de datos de acceso público creados para entrenar, probar o mejorar tecnologías de vigilancia a través del reconocimiento biométrico, que luego se utilizarán en aplicaciones académicas, comerciales o de organismos de Defensa.

El propio Harvey trabaja, desde 2017, en el despliegue de la plataforma VFRAME (Visual Forensics and Metadata Extraction, Extracción Visual de Metadatos y Análisis Forense), que desarrolla tecnologías de visión por computadora para apoyar a investigadores de derechos humanos y a periodistas que trabajan en zonas de conflicto. Su tarea consiste en ayudarlos a procesar grandes conjuntos de datos de video o imágenes, o a detectar por computadora material peligroso disperso en el territorio.

 

Uno de los proyectos que integra VFRAME es el «Detector de municiones en racimo», donde se desarrollan algoritmos de entrenamiento para descubrir objetos, con el propósito de localizar municiones ilegales en



 

 

 

 

Página 71



 

zonas de conflicto a partir de visión computarizada. Otro proyecto consiste en desarrollar inteligencia artificial para procesar los videos compartidos en línea, que son la base de la documentación de violaciones a los derechos humanos. Dado que la revisión manual de estos videos es costosa, y dado que cada vez se publican más y más videos, es necesaria mucha colaboración —o inteligencia artificial— para interpretar estos grandes conjuntos de datos. VFRAME trabaja actualmente con las organizaciones Syrian Archive y Yemeni Archive desarrollando herramientas de visión por computadora que les permita abordar estos desafíos.

 

Otro trabajo que resignifica el uso de la técnica de vigilancia es Nivel de confianza, del artista mexicano Rafael Lozano-Hemmer: se trata de una obra de arte interactivo en cuyo archivo interno están registrados los rostros de los 43 estudiantes desaparecidos de la escuela normalista de Ayotzinapa en Iguala, México, en septiembre de 2014. La pieza consta de una cámara de reconocimiento facial que «lee» los rostros de los visitantes o espectadores que se enfrentan a ella, y utilizando algoritmos de reconocimiento facial, mide cuánto se parecen a los rasgos de los estudiantes, generando un «nivel de confianza» que muestra cuán cercana es esta coincidencia, expresada como porcentaje. La pieza fue presentada el 26 de marzo de 2015, exactamente seis meses después de que ocurrieron las desapariciones forzadas. Como se lee en la explicación que proporciona el artista, ella «nunca encontrará una coincidencia exacta, ya que sabemos que los estudiantes seguramente fueron asesinados y quemados. Sin embargo, el lado conmemorativo de este proyecto es la búsqueda incesante de los estudiantes y su superposición con los rasgos faciales del público». Cualquier institución, centro cultural, galería o universidad puede descargar gratuitamente el software del proyecto y ponerlo en funcionamiento. Por otro lado, si un coleccionista quisiera adquirirlo, el artista estipuló que los ingresos que provengan de su exhibición o venta vayan a la comunidad afectada y se inviertan en ella, en forma de becas de estudio, entre otras posibilidades.

 

Vale la pena detenerse por un momento en esta pieza memorial, que por un lado denuncia el múltiple abandono del que fueron objeto estos 43 estudiantes, primero llevados a la fuerza a participar de un mitin político,



 

 

 

 

Página 72



 

luego asesinados por un grupo todavía no determinado, presuntamente quemados y nunca encontrados (solo los restos de uno de ellos fueron reconocidos). Y por otro, se pregunta y nos pregunta por qué, existiendo estos mecanismos cada vez más sofisticados de identificación, la violencia política en su país y mucho más allá de él no es de una vez enfrentada con decisión y justicia.

 

Antes de continuar, quisiera llamar la atención sobre el hecho de que, al menos en los países centrales de Occidente, están siendo los artistas, los diseñadores y las organizaciones no gubernamentales quienes más han visibilizado la pregunta por los usos abusivos de estas tecnologías, frente al comparativo silencio de las principales autoridades políticas, académicas y científicas. Se trata de un elemento importante a tener en cuenta cuando buscamos interpretar el papel de las manifestaciones culturales y artísticas en relación con el campo social y político. Como decíamos en la introducción, este síntoma nos da pistas acerca del papel no subordinado de estos campos respecto de las zonas «duras» de la realidad; son, por el contrario, un motor de interrogación, desafío e imaginación alternativa.

 

 

 

 

 

 

 

 

 

 

«interpretaciones especulativas»

 

 

Volviendo a Dewey-Hagborg, a partir de su primera exploración en Stranger Visions continuó trabajando con la técnica del fenotipado, cada vez más consciente de los peligros y las controversias que ella implicaba, tanto con relación a la privacidad de las personas cuyo ADN se investigaba sin permiso como respecto de los riesgos asociados a los sesgos y a las deficiencias en las interpretaciones de los datos.

 

En 2013, la artista fue convocada por Hal Brown, del Instituto de Medicina Legal de Dalware (EE. UU.), para trabajar en el caso de una mujer no identificada que había muerto hacía veinte años. Después de ver



 

 

 

 

Página 73



 

la muestra de la artista, Brown la contactó y le preguntó si ella podía hacer un retrato-imagen tridimensional de esta mujer, para ayudar a los investigadores a identificarla, y Dewey-Hagborg aceptó el desafío. En declaraciones a Matthew Herper, de la revista Forbes, la artista señaló que solo aceptó este caso, entre otras propuestas de organismos de aplicación de la ley, porque no era un asunto penal sino un caso de identificación de restos: «Me molesta que esta tecnología se utilice en investigaciones penales, cuando sigue siendo tan especulativa. […] El único uso potencial que veo para esta tecnología hoy es la colaboración que he mantenido, trabajando en restos no identificados. […] tengo serias dudas sobre el uso de esta tecnología en la búsqueda de sospechosos. Los científicos tienen razón en preocuparse», expresó.

 

En los últimos años, la artista realizó dos piezas de intervención con Chelsea Manning como protagonista. Manning, registrada al nacer como Bradley Edward, es ex soldado y analista de inteligencia del ejército de los Estados Unidos que cobró notoriedad por haber filtrado a WikiLeaks cientos de documentos clasificados sobre las guerras de Afganistán y de Irak. Esto incluyó el controversial video conocido como Collateral Murder (Asesinato colateral), que expone detalles acerca de un presunto ataque aéreo en Bagdad del 12 de julio de 2007, cuando dos helicópteros estadounidenses abrieron fuego contra un grupo de civiles. En el episodio murieron doce personas, incluidos dos colaboradores de la agencia Reuters.

 

Manning fue detenido en 2010 y, tres años después, condenada por un tribunal militar a cumplir una pena de 35 años de prisión. En enero de 2017, el presidente Barack Obama conmutó el resto de la pena y Manning salió de la cárcel el 17 de mayo de ese mismo año. Mientras estuvo presa, sin que prácticamente nadie pudiera visitarla, Manning le envió a Dewey-Hagborg hisopos con muestras de piel de su mejilla y algunos recortes de cabello. Con ese material, la artista realizó en 2015 dos retratos: uno andrógino y otro «femenino». Al colocar uno al lado del otro, puso en evidencia el reduccionismo de fijar el género de una persona a partir de una lectura simplista del sexo genético, una práctica rutinaria en el análisis forense del ADN. Ella explica así, en su sitio, la pieza que ambos retratos componen, y a la que bautizó Radical Love:



 

 

 

 

Página 74



 

Encarcelada desde su transición de género y convertida en invisible para el público debido a la política prohibitiva sobre los visitantes, nadie excepto su familia, viejos amigos y abogados ha visto a Chelsea Manning. Además de llamar la atención sobre el borramiento de Chelsea Manning del ojo público, la obra destaca la combinación forense de género y sexo asignado al nacer, presentando un díptico de retratos para representar a Chelsea: uno con un género algorítmicamente neutral y el otro femenino asignado. La exhibición de estas dos caras posibles, una al lado de la otra, llama la atención sobre el problema de utilizar cromosomas o el sexo fijado en el nacimiento para asignar el género, así como un tema más amplio de lo que significa confiar en ideas estereotipadas acerca de cómo «se supone» que una cara de tal o cual género tiene que lucir.

 

Las impresiones 3D que componen Radical Love se exhibieron en el Foro Económico Mundial en enero de 2016, brindando visibilidad a alguien que se había vuelto, en cierto sentido, invisible.

 

En una segunda pieza, titulada Probably Chelsea (Probablemente Chelsea), de 2017, la artista fue aún más allá. La obra consiste en treinta posibles retratos diferentes de Manning generados algorítmicamente a partir del análisis de su ADN. Como dice Dewey-Hagborg, «los datos genómicos pueden contar una multitud de historias diferentes sobre quién y qué eres. Probably Chelsea muestra de cuántas formas puede interpretarse el ADN como datos, y cuán subjetivo es realmente el acto de leer» el material genético.

 

Como ya se habrá notado, el método artesanal (DIYbio) que permitió a la artista desarrollar las distintas obras y reflexiones inauguradas por la pieza Stranger Visions se desarrolló en simultáneo —e incluso con cierta anticipación— respecto de los procedimientos que tuvieron su origen en ámbitos científicos y que fueron imaginados para uso forense. Y sugestivamente, también en paralelo a los trabajos sobre psicometría, big data y predicción del comportamiento que llevaron adelante Michal Kosinski y sus colegas de la Universidad de Cambridge: aquellos que permitieron revelar que con apenas 68 «me gusta» dejados por un usuario de Facebook era posible predecir con altos grados de fiabilidad su color de



 

 

 

 

Página 75



 

piel, su género, su orientación sexual y su filiación política, entre otros datos. No es completamente fortuito: la trama del nuevo orden informacional favorece la sincronización de las acciones en áreas y campos disciplinares muy diferentes, acelerando no solo los procesos de compatibilización de los vivientes humanos con las tecnologías digitales, sino también de transposición y migración de saberes, prácticas y sentidos entre muy diferentes campos.

 

Para seguir ilustrando esto, permítanme mencionar un caso más. En un uso que no tiene que ver tanto con la criminalística cuanto con el afán civilizador de las costumbres —más en la estela de Poo Prints que de la criminología—, la empresa transnacional de publicidad Ogilvy asesoró en 2015 a las autoridades de Hong Kong, quienes, utilizando los servicios de la compañía Parabon-NanoLabs, lanzaron en abril de ese año una campaña medioambiental titulada The Face of Litter (El rostro de la basura). El objetivo: reducir los desechos callejeros utilizando el viejo recurso de la vergüenza pública. Combinando la técnica de fenotipado de ADN, la investigación demográfica local y acaso inspirada por la serie Stranger Visions, la campaña utiliza muestras de ADN encontradas en desechos para, a partir de ellas, predecir los rostros de quienes los han arrojado en las calles y, supuestamente, avergonzarlos en público divulgando sus retratos en afiches publicitarios, redes sociales y publicaciones impresas.

 

Digo supuestamente porque, al menos en el estado actual de desarrollo de la técnica, tal como vimos hace un momento, el FDP dista de poder representar con certeza el rostro del portador del ADN encontrado. Según ha señalado Dewey-Hagborg en diferentes oportunidades, las caras producidas a partir de estas tecnologías son «levemente parecidas a cómo podrían ser» los reales consumidores de los chicles o cigarrillos encontrados. Hay entre ambos apenas «un aire de familia», asegura la artista, «como si fuera un primo lejano».

 

Algunos críticos de Stranger Visions objetan que la serie puede estar transgrediendo límites éticos e incluso jurídicos, al usar información genética personal sin consentimiento informado. Otros apuntan al creciente movimiento DIYbio o biología de garaje: les preocupan las consecuencias no deseadas de experimentos no regulados llevados a cabo en laboratorios no tradicionales. Otros se concentran en la técnica de



 

 

 

 

Página 76



 

fenotipado y advierten que es todavía demasiado inexacta para producir resultados fiables, algo que la propia Dewey-Hagborg suele señalar.

 

En 2015, la artista publicó en The New Inquiry el documento ya mencionado «Sci-Fi crime drama with a strong black lead»: una suerte de memoria del trabajo donde aclara, además, algunas de las ambigüedades que le fueron señaladas. Allí cuenta:

 

Mi objetivo inmediato con este proyecto era crear un diálogo público sobre la posibilidad emergente de la vigilancia genética. En ese momento, muchos de los medios de comunicación descartaron esta idea como ciencia ficción, pero ya no es un futuro especulativo, es un presente que preocupa. A medida que estas tecnologías pasan rápidamente de la investigación a las agencias de aplicación de la ley en todo el mundo, merecen escrutinio incluso a nivel algorítmico.

 

Para Dewey-Hagborg, hay al menos tres riesgos en estos procedimientos. El primero es la imprecisión: «¿Qué tan válidos son estos retratos derivados del ADN? ¿Cuánto se asemejan a la persona real?», se pregunta la artista. Y enseguida responde: «No mucho. Más precisamente, esas representaciones predictivas pueden llegar a ser exactas en la medida en que el individuo se asemeja a una representación promedio de sus rasgos genéticos y ancestrales tal como han sido representados dentro de los datos de rutina». Y esto es así porque el FDP no puede representar la edad, ni la influencia ambiental en la expresión de los genes, ni las decisiones voluntarias respecto de la propia apariencia: dieta, color del pelo, maquillaje, cirugías. Y agrega:

 

Realmente, no sabemos cuán exacto es. Ni siquiera tenemos una manera precisa de probar su exactitud. Una de las razones por las que es difícil estar seguro de la precisión de esta tecnología es que su fuente es completamente opaca. Aunque ha anunciado planes para colaborar en un estudio de validación revisado por pares, hasta ahora Parabon no ha revelado ni publicado ninguna de sus investigaciones. Solo puedo suponer que se basan en publicaciones y marcos existentes definidos por científicos como Manfred Kayser y biólogos



 

 

 

 

Página 77



 

como Mark Shriver, que han publicado ampliamente sobre el tema[2]. En la actualidad parece que no hay normas legales que rijan el uso de tecnologías forenses no validadas en la fase exploratoria de una investigación. Parabon afirma que es «más exacto de lo que uno podría pensar», pero ¿podemos realmente tomar su palabra?

 

A esta observación de la artista se agregan otros elementos. Por un lado, un corolario de lo que acabamos de leer. Los retratos obtenidos a partir del FDP, al menos en el momento actual de la técnica, son —aunque suene paradójico— retratos de individuos singulares que no obstante tienen algo de genéricos: retratan aquello que quizá podríamos haber sido si no hubiésemos estado expuestos a… la vida. Son la lectura de una serie de probabilidades estadísticas sin la actualización concreta y efectiva de aquellas posibilidades. Y aun cuando logre ser mucho más precisa de lo que es hoy, solo se referirá a una potencia biológica genérica, no actualizada. Dewey-Hagborg lo expresa así, retomando el paralelismo entre informática y biología:

 

Como una analogía, piense en un fenotipo predicho como su perfil de gustos en Netflix, Spotify o un servicio de contenido similar. Ambos utilizan estadísticas y herramientas de aprendizaje automático a partir de una base de datos que agrupa, clasifica y hace predicciones sobre los usuarios. Dependiendo de lo que el servicio ofrece, el contenido deseado puede o no estar presente. En la medida en que su gusto se desvíe de algunas normas o patrones predecibles, el servicio puede hacer sugerencias que a usted no le interesen. De manera similar, con el fenotipo, en la medida en que el aspecto de un individuo se desvíe del género predecible y de los tipos ancestrales definidos en los datos de entrada utilizados para crear el modelo, será difícil de predecir. No es tanto que la tecnología sea inexacta, sino que es reductiva, como tantos algoritmos que configuran nuestras vidas hoy en día. En la medida en que un individuo tiene alrededor de 30 años y mira al espectador como la representación genérica de su sexo, ancestros y rasgos tal como están representados en el software, puede que se parezca mucho a su fenotipo de ADN. Y puede que no.



 

 

 

 

Página 78



 

Otro punto que inquieta a la artista es cuán invasivos podrían ser estos procedimientos para la privacidad y los datos personales; sobre todo, en caso de perfeccionarse la técnica. ¿Hasta qué punto puede permitirse a las autoridades investigar, por ejemplo, la propensión a una enfermedad o a un rasgo caracterológico? Y la tercera gran preocupación es que se utilice la autoridad de la ciencia y la genética para producir lo que el sociólogo Troy Duster (2015) llama la «reinscripción molecular de la raza»; esto es, la restauración de estereotipos de género y raza en la investigación científica y criminológica. Dewey-Hagborg dedica muy buena parte de su texto a este asunto.

 

 

 

 

 

 

 

 

 

 

Elementos para el debate

 

 

Llegados hasta aquí, me detendré solo en algunos de los muchos temas que este panorama necesariamente reducido propone al pensamiento.

 

Así como es innegable que la nuestra es, al menos en parte, una «cultura de los datos», ¿qué está en juego en la apuesta por comprendernos (y en la incitación a autocomprendernos) como «conjunto de datos»? Mi respuesta provisional es que estos intentos de identificación y desciframiento no necesitan —aunque lo pretendan— postular una nueva definición científica, filosófica, antropológica o psicológica del hombre. Ni dicen «la verdad» sobre lo que somos —si bien pueden sacar a la luz, como en la inteligencia de los espías, aspectos ocultos incluso para mostros mismos—. Esos dobles digitales constituyen, como decía Michel Foucault en Nacimiento de la biopolítica en referencia a la figura del homo œconomicus, «la superficie de contacto entre el individuo y el poder que se ejerce sobre él» (Foucault, 2007). Son aquello que hace posible a los poderes actuar sobre acciones o reacciones. No nos definen, no nos representan fielmente, mucho menos abarcan la totalidad de aquello que somos o podemos ser: simplemente (y desde ya, nada de todo esto es



 

 

 

 

Página 79



 

simple) funcionan. Es decir: funcionan prediciendo e induciendo nuestros eventuales comportamientos, revelando nuestros datos a posibles interesados e identificando nuestro paradero con nuestro consentimiento o sin él.

 

En segundo lugar, en cuanto al desarrollo de técnicas de vigilancia biológica, la obtención y el procesamiento de material genético se suman a las informaciones biométricas y constituyen uno de los soportes centrales de la dimensión individualizadora e identificadora en el marco de lo que en otros trabajos denominé biopolítica informacional o de vigilancia distribuida, como la llama la investigadora brasileña Fernanda Bruno. Ellas constituyen parte del herramental necesario para el momento en que, como afirmaba Foucault en la conferencia «Nuevo orden interior y control social», ese sistema de información general relativamente invisible y virtual requiera ser actualizado para identificar a determinado individuo.

 

Tercero: como vimos, una de las fuentes de imprecisión de la técnica de FDP —además de que no pueden deducirse de un perfil genético los modos en que los genes van a actualizarse o expresarse a lo largo de una vida— es el hecho de que las estadísticas poblacionales a partir de las cuales se proyectan posibles variaciones como el ancho de la cara o el color de la piel eran, hasta ahora, relativamente restringidas. Es dable imaginar que en poco tiempo el volumen de datos biométricos y genéticos dará un salto cualitativo, no solo por la información que está siendo reunida por Estados, agencias de gobierno e institutos científicos o de la salud, sino también por la disponibilidad de imágenes y datos que las mismas personas entregan con consentimiento, más aún a partir de la pandemia. Es importante entonces no hacer depender las evaluaciones solo sobre la imprecisión, sino también sobre la valoración social y debidamente informada acerca de los beneficios y riesgos de utilizar la técnica, para qué fines y con qué limitaciones, aun cuando sea mucho más precisa.

 

Cuarto: es muy relevante que las personas no participen siempre por obligación, sino también de manera voluntaria, en el desarrollo de bases de datos. Según David Lyon, pionero en los estudios sociales de la vigilancia, tras los atentados a las Torres Gemelas el 11 de septiembre de 2001 se ha promovido una nueva «cultura de la vigilancia», en la que ser observados



 

 

 

 

Página 80



 

puede significar un riesgo para la intimidad o la privacidad pero también una ayuda o una «asistencia» permanentes, muy bienvenidas incluso en la vida cotidiana. Las personas ya no solo están familiarizadas con la vigilancia: al mismo tiempo le temen, la reclaman y hasta se divierten con ella. Lyon pone el acento en aquellas prácticas que incluyen la participación en la entrega de datos personales «por nuestro propio bien», en un vaivén entre «seguridad» y «privacidad», entre exposición y anonimato. Incluso más: esta vigilancia parece estar siendo —de una manera diferente pero no del todo escindida del panoptismo— una incitación, una provocación tecnológica a decir una verdad acerca de nosotros mismos en la que se enlazan mecanismos de identificación y dispositivos de subjetivación. Pensar las relaciones, las distancias y las cercanías, las implicaciones y las diferencias entre ambos será parte de nuestra tarea en los próximos años.

 

Quinto: vale tener en cuenta que la utilización forense y con posibles propósitos de vigilancia no son los únicos usos que se les ha dado a las tecnologías de identificación que utilizan la información obtenida a partir de nuestro material genético. Estas tecnologías se desarrollaron desde los años ochenta del siglo pasado en al menos cinco campos: la investigación criminalística, la determinación de paternidad, la identificación de rastros cadavéricos, las catástrofes masivas y el esclarecimiento de delitos de lesa humanidad. En la Argentina, este último uso tuvo un desarrollo particularmente significativo gracias a la organización Abuelas de Plaza de Mayo, que trabajó duramente para obtener un método que permitiera determinar la filiación de nietos mediante el análisis de material genético de los abuelos o abuelas, en ausencia de sus padres, que habían sido secuestrados y desaparecidos por el terrorismo de Estado entre marzo de 1976 y diciembre de 1983. Muchos niños nacieron en cautiverio durante esos años, en centros clandestinos de detención, o fueron secuestrados y luego apropiados por personas que, en muchos casos, les ocultaron su identidad. La creación de la técnica nació de la mano del genetista argentino exiliado en Estados Unidos Víctor Penchaszadeh, quien luego de años de que las Abuelas de Plaza de Mayo intentaran por todos los medios ser escuchadas, en noviembre de 1982 las puso en contacto con Eric Stover, director del programa de Derechos Humanos de la Asociación para



 

 

 

 

Página 81



 

el Avance de las Ciencias (AAAS) de ese país y posteriormente, en 1983, con Fred H. Allen, director del Banco de Sangre de Nueva York. Ellos las recibieron y comenzaron a trabajar en la búsqueda de fórmulas estadístico-matemáticas para establecer la filiación sin contar con alguno de los progenitores inmediatos. Fue gracias al científico chileno Cristian Orrego, del Instituto Nacional de Salud (NIH) estadounidense, y al equipo de la genetista Mary-Claire King, de Berkeley, California, que se encontró una fórmula estadística que, a partir de material genético, establece el parentesco con un 99,99 por ciento de fiabilidad. Este «índice de abuelidad» se presentó ante la comunidad médica internacional en el Simposio Anual de la AAAS ese mismo año, y constituyó una herramienta clave para el esclarecimiento de delitos de lesa humanidad en la Argentina y en otras partes del mundo. La primera restitución de identidad que incorporó dicho análisis como prueba fue en 1984 en el caso de la nieta recuperada Paula Eva Logares. Para 2021 ya se identificaron 130 nietos.

 

Sexto: volviendo a nuestros casos, llamo la atención una vez más en la simultaneidad temporal, y en la cadena equivalencial, que conecta y desdiferencia políticas de la vida, tecnociencia, criminología, negocios científicos, publicidad, activismo ciudadano, esfuerzos civilizatorios de las costumbres y estrategias de conmoción y concientización provenientes del campo artístico. Esta desdiferenciación, este encadenamiento entre esferas y prácticas tan disímiles, es correlativa a la inmanentización, al «aplanamiento» o pérdida de profundidad de nuestra autocomprensión en tanto vivientes humanos, que tiene lugar sobre la base de una emergente formación epistémica y política para la cual naturaleza y cultura, humanos y máquinas, vivientes y no vivientes, pero también biología, arte y tecnología, negocios, entretenimiento y políticas públicas, entran tendencialmente en fusión y confusión. Trazar mapas que permitan identificar esas tendencias, para restituir a los procesos su densidad histórica, con el objetivo de ser capaces de ejercer su crítica y entrever las posibilidades de transformación, de justicia que habitan en y a pesar de ellas, es una de las tareas más urgentes de nuestro tiempo.

 

Por último, en séptimo lugar, para hacer frente a estos procedimientos, los artistas han buscado desarrollar diferentes tácticas. En las páginas precedentes entrevimos algunas: la apropiación crítica de las tecnologías



 

 

 

 

Página 82



 

para explorarlas y resignificarlas, incluida la anonimización de trayectorias en línea y en el mundo «real»; así como la «profanación» del dispositivo a través de usos no esperados. En un caso, la apropiación crítica de las tecnologías sirve para volcarlas contra su uso, real o potencial, en manos de los poderes tecnológicos y gubernamentales, propiciando la «apertura de la caja negra» de sus procedimientos, o bien utilizando las propias posibilidades técnicas para develar los mecanismos de captura de individuos e individuaciones. Lo hacen incluso a costa de asumir nuevos riesgos, respecto de los cuales será importante seguir reflexionando.

 

En cuanto a las estrategias de anonimización, buscan construir una nueva práctica y una nueva pedagogía de la distancia y la disidencia respecto de los intentos de captura y apropiación de lo que hoy se llaman «huellas», marcas singulares de nuestros modos de estar en el mundo. Y en las estrategias de reapropiación del dispositivo tecnológico, la intención es abrir a partir de él la posibilidad de algo nuevo: para recuperar la potencia de los cuerpos y del pensamiento, algo nunca enteramente disponible en «bases de datos», para interrogarnos, una y otra vez, cuál es, más allá y más acá de nuestros datos, la singularidad de lo viviente.

 

Profanar, nos recuerda el filósofo Giorgio Agamben, significaba para los juristas romanos devolver al uso libre de los hombres lo que había sido retirado en una esfera separada. Profanar el dispositivo técnico desafiando aquellos discursos y prácticas que nos incitan a autocomprendernos como conjuntos de datos, como soportes de información predecible, modulable, operacionalizable, es —parecen sugerir estas piezas— una de las tareas inescapables para el pensamiento de nuestro tiempo. Como dijo Michel Foucault en Obrar mal, decir la verdad, el curso que dictó en Lovaina en 1981: nuestra tarea es «estudiar la sujeción en cuanto procede, allá, de un forzamiento objetivo, y aquí, de una recuperación subjetiva; captarla en el punto preciso donde, debido a esa recuperación, la servidumbre se torna voluntaria. Para abrir así un pasaje que conduzca del embuste de la recuperación a la exigencia del desasimiento, de la docilidad a la indocilidad reflexiva y de la servidumbre a la inservidumbre voluntaria».



 

 

 

 

 

 

 

 

 

 

Página 83



 

 

 

 

 

 

 

 

 

 

 

Formas de vida infotecnológicas

 

 

Las  tecnologías  se  hacen  «cuerpo»  y  «carne»  •  «Individuos somáticos» orientados a la optimización, la programación biológica y la prevención de las suceptibilidades • Entre el capital humano y el transhumanismo  •  El  cuerpo  como  dispositivo  obsoleto  •  El «imperativo hedonista»: eliminar no las causas, sino las sensaciones físicas del dolor • Aplanamiento, estetización, aceleración • Ser significa ser visto • La creación de la propia audiencia • Cables submarinos, satélites, edificios, servidores… ¡el ciberespacio no es inmaterial! • 24/7: el fin de los tiempos muertos

 

La Tierra es la cuna de la humanidad; pero uno no puede vivir en la cuna para siempre.

 

Konstantín Tsiolkovski,

 

La filosofía cósmica, 1935

 

 

¿Qué tienen en común los ciento treinta y dos embriones interespecie que combinan células de mono y de humano, producidos en 2019 para explorar la creación de órganos para trasplante, y el artista Stelarc, quien en 2007 se implantó una tercera oreja de tejido cultivado en su brazo izquierdo, con un sensor, una microantena wifi y un micrófono que permite grabar y transmitir sonidos? ¿Qué vincula al filósofo transgénero Paul Preciado, registrado al nacer como Beatriz, quien se declara «ni hombre, ni mujer, ni heterosexual, ni homosexual, sino un disidente del sistema sexo-género», con Jamie Whitaker, el niño concebido por fecundación asistida en 2003 cuyo embrión fue seleccionado para que sus tejidos fueran compatibles



 

 

 

 

 

 

Página 84



 

con los de su hermano Charlie, quien padecía la demoledora anemia de Diamond-Blackfan?

 

El punto de conexión entre estas personas y estos acontecimientos, tengo para mí, es la emergencia de aquello que, apoyándome en la formulación del sociólogo británico Scott Lash, denomino «formas de vida infotecnológicas». Este término refiere a un nuevo modo de habitar el mundo que implica dos grandes transformaciones: en el plano de nuestra manera de comprender y significar, interpretamos el mundo por medio de sistemas infotecnológicos. Y en el plano de la ontología, los sistemas infotecnológicos se han superpuesto en buena medida a los sistemas biológico-naturales, y en algunos casos incluso se han fusionado con ellos.

 

En Crítica de la información (2005), Lash habla de «formas de vida tecnológicas» en oposición a las «formas de vida modernas». Por mi parte, prefiero «formas de vida infotecnológicas» dado que toda forma de vida humana incluye desde siempre una dimensión tecnológica ineludible, por elemental o rudimentaria que pueda parecernos —la primera de esas tecnologías es, como sabemos, la lengua materna—, y porque identifico en las tecnologías de la información y en su principal proceso asociado, la digitalización de lo existente, el punto de discontinuidad entre las formas de vida contemporáneas a nosotros, que leemos esto, y las inmediatamente anteriores en términos analíticos y también —al menos para Occidente— cronológicos: las formas de vida de la modernidad temprana en las que predominaban las tecnologías analógicas.

 

El proceso de infotecnificación atraviesa nuestras formas de vida en dos sentidos: el primero, más general, se refiere al crecimiento exponencial de los parques tecnológicos, la automatización de los procesos productivos, la «massmediatización» de las relaciones sociales, el desarrollo de dispositivos móviles para captar, producir y transmitir informaciones, la industrialización de la medicina —así como de la vida y la muerte de los animales—, la producción de software para trazar mapas de nuestras acciones y hasta de nuestras emociones en tiempo real. Y el segundo llega al sentido más restringido y literal del término vida, que se refiere al proceso por el cual la tecnología, en el límite, se hace «cuerpo» y «carne»: se incorpora y encarna en el viviente humano a través de implantes, trasplantes, intervenciones quirúrgicas, terapias génicas, en un



 

 

 

 

Página 85



 

movimiento que abre la interpelación al propio cuerpo como una suerte de proyecto inconcluso, un borrador que es posible y hasta deseable corregir según los gustos, las necesidades, las exigencias sociales o una mezcla de los tres.

 

Algo menos nítido, aunque sin duda operativo, es el elemento político, biopolítico, que intercepta y modula estas posibilidades de intervención. Ese elemento es una matriz de disposiciones móviles, pero no completamente arbitrarias, que ofrece las imágenes de lo deseable y lo temible, las reglas no escritas, los sistemas de adecuaciones, de premios y castigos, a través de los cuales se nos incita a entender, codificar y experimentar la tecnificación. A la matriz predominante en el momento actual, muchos investigadores biopolíticos la denominan «gubernamentalidad neoliberal», para referir a un modo particular de gobierno de las conductas que tiene como base la tesis neoliberal según la cual —tal como expone uno de sus referentes más destacados, el estadounidense Gary Becker, en su influyente libro El capital humano, de 1964— es posible extender el dominio del análisis económico a un amplio rango de conductas, incluyendo aquellas que no tienen en principio relación con el mercado. Según este autor, lo que distingue a la economía de otras ciencias sociales no es tanto el objeto propio, sino su perspectiva o acercamiento, que consiste en asumir que un gobierno, un individuo, una empresa o un sindicato se conduce de manera maximizadora con el objeto de lograr más utilidad o mayor bienestar. Y eso supone interpretar todas las acciones humanas bajo el prisma de la relación costo-beneficio.

 

Ahora bien: si observamos con atención las racionalidades, los sistemas de creencias e incitaciones que acompañan el proceso de tecnificación, advertimos que ellos buscan extender sobre la vida y sobre el cuerpo los principios de autonomización de procesos, mejoramiento, optimización y responsabilización por el cuidado de la dotación psicofísica. Esos principios son propios de una particular combinación entre el código técnico del capitalismo industrial y las modalidades de subjetivación que promueve desde la década de 1960 la teoría neoliberal. Respecto del primer término, el filósofo de la técnica canadiense Andrew Feenberg señala que el código técnico del capitalismo industrial consiste en garantizar la autonomía operacional de los procesos de producción y



 

 

 

 

Página 86



 

consumo, expropiándoles a los productores y consumidores el control de dichos procesos; básicamente, el «control desde afuera» del proceso de producción, de trabajo, de acción en y sobre el mundo (poco cambiará las cosas, asegura Feenberg, que el sujeto revolucionario controle los medios de producción si al mismo tiempo reproduce el código técnico a partir del cual se produce).

 

En cuanto a la teoría política neoliberal, como decíamos recién, se trata de la modalidad intensificada de la tesis liberal que supone analizar el comportamiento humano como el resultado de una «programación estratégica» en términos costo-beneficio económico. La tarea de la economía, sobre todo a partir de la teoría del capital humano, es desentrañar cuál ha sido el cálculo —que puede ser inconsciente, o aun irrazonable, pero es estratégico— por el cual, dada la escasez de algún recurso, un individuo o más deciden destinarlo a un fin y no a otro.

 

La interpretación que hacen los neoliberales de esa interrogación produce un vuelco fundamental en la lectura que podemos hacer de la vida social y personal, ya que ella dice que el sujeto que trabaja para percibir un salario no lo hace porque esa es la única manera que tiene de vivir — vender su fuerza de trabajo en el mercado—, sino porque tiene un capital del cual desea obtener un rendimiento. ¿Qué tipo de capital? Su capital es el conjunto de sus componentes físicos y psicológicos, dice esta teoría; es decir, su «capital humano», integrado por aspectos innatos o hereditarios y aspectos adquiridos. Entre los factores innatos del capital humano está, por supuesto, la dotación genética. Entre los factores adquiridos, la teoría toma particularmente en cuenta la educación, las «asociaciones matrimoniales» y los comportamientos que se orientan al cuidado de la propia vida.

 

Un capital así considerado tiene dos características destacables. Una, que los factores físicos y psicológicos se convierten en «bienes», partes de un capital. Dos, que este capital es indisociable de su poseedor. De allí que la figura dominante ya no es el ciudadano trabajador sino el «empresario de sí». Desde la perspectiva neoliberal, la sociedad está constituida por la agregación de unidades-empresas: un conglomerado de empresarios en el que cada uno es su propio capital, su propio productor y la fuente de sus ingresos.



 

 

 

 

 

 

Página 87



 

Un ejemplo de esta visión orientada no al trabajo ni a la educación sino al contrato matrimonial lo brindó en el año 2000 David Friedman, otro entusiasta seguidor de las tesis neoliberales en los Estados Unidos, quien en su libro Law’s Order. What economics has to do with law and why it matters escribió:

 

Si bien en general pensamos que nuestros esposos o esposas son personas que se ajustan a ese rol de manera única y excepcional, esto no es cierto; si fuera así, la probabilidad de encontrarlas sería muy remota. Una vez hice un cálculo más o menos grueso en relación con este tema y concluí en que mi esposa es una entre doscientos mil posibles encuentros. […]

 

[Otras mujeres podrían haber cumplido bien el rol de mi esposa pero] habría sido tonto de mi parte ponerme a investigar cada caso. Una vez que una pareja está casada durante un cierto tiempo, ha hecho una serie de inversiones específicas para la relación y afronta una serie de gastos que producirán sus frutos solo si permanece unida. Cada uno de sus integrantes se ha convertido, a un costo considerable, en un experto en cómo continuar junto al otro. Ambos han invertido, tanto en lo material como en lo afectivo, en los hijos que tienen en común. Aunque ambos han partido de un mercado competitivo, ahora están encerrados en un monopolio bilateral con costos de negociación asociados. Una manera de reducir esos costos es llegar a un contrato de largo plazo, hasta la muerte de una de las partes.

 

La teoría del capital humano admite que los agentes que toman las decisiones no necesariamente son conscientes de su esfuerzo por maximizar, ni siempre pueden explicar por qué lo hacen, pero asume que la perspectiva económica se aplica a toda la conducta.

 

Y algo más, importante para nuestro análisis, que observa Foucault en Nacimiento de la biopolítica. Si el homo œconomicus liberal era aquel a quien había que dejar hacer porque —aun de manera involuntaria, guiado por una «mano invisible»—, siguiendo su interés de forma espontánea, beneficiaría a todo el mundo, el homo œconomicus neoliberal, en cambio,



 

 

 

 

Página 88



 

es alguien completamente diferente. Gary Becker lo describe como aquel que «acepta la realidad y actúa de acuerdo con ella», y por ende es alguien eminentemente gobernable. Dado que responde en forma sistemática a las variaciones del medio, es posible conducir sus conductas mediante el control de ese medio, de sus peligros, sus riesgos, sus accidentes, sus promesas.

 

Se trata, así, del desciframiento y la consecuente programación en clave económica de toda una serie de comportamientos no económicos. No porque el hombre entero se pueda reducir a la economía, sino porque esa clave constituye la grilla de inteligibilidad que va a proponerse sobre el comportamiento del individuo para poder gobernarlo. Es decir que si es posible ejercer alguna influencia sobre el individuo, si se lo puede gobernar, será en la medida en que puede identificarse con este nuevo homo œconomicus.

 

 

 

 

 

 

 

 

 

 

La «preparación cultural» para la tecnificación

 

 

Hecha esta aclaración, volvamos ahora a la tecnificación. Para entrever cómo es que llegamos hasta aquí, vale la pena tener en mente que nuestro presente es resultado de aquello que Lewis Mumford, en 1934, llamaba la «preparación cultural» que hizo que el mundo maquínico pudiera ser acogido con beneplácito en Occidente. Ya a comienzos del siglo pasado era evidente que esa preparación cultural había sido un proceso de muy largo aliento, que no se remontaba solamente a la máquina a vapor y los telares mecánicos de finales del siglo xviii, sino que había llevado al menos ocho siglos.

 

Ella había implicado una nueva experiencia del tiempo sincronizado y sincronizable a partir de la invención del reloj mecánico en los monasterios benedictinos del siglo xi; una cierta experiencia del espacio geográfico a partir de los grandes «descubrimientos» ultramarinos y



 

 

 

 

Página 89



 

también una cierta percepción del espacio representado, gracias a la técnica de la perspectiva. Mumford sigue enumerando: tendencia a la experimentación y la invención; redescubrimiento de la naturaleza con respecto a lo sobrenatural; desarrollo del capitalismo, con el correspondiente pasaje desde una economía del trueque y de escala doméstica hacia una economía monetaria con estructura de crédito internacional, y donde el dinero comienza a operar como «nivelador (o mediador) universal».

 

Menciona también el acostumbramiento de los humanos a participar en megamáquinas sociales como los ejércitos o las corporaciones sacerdotales, entre varios otros acontecimientos que detalla con exquisita erudición en los dos volúmenes de Técnica y civilización. Y aunque no suele reconocerse de manera suficiente, la noción de megamáquina será clave para toda la filosofía de la técnica posterior; es, de hecho, la fuente a través de la cual Gilles Deleuze y Felix Guattari, tanto en el Anti-Edipo como en Mil mesetas, piensan la máquina social como entidad colectiva.

 

Ese proceso de tecnificación —que como acabamos de vislumbrar, se inició mucho antes pero se desplegó de manera acelerada desde la segunda mitad del siglo pasado— se manifiesta hoy en una miríada de acontecimientos que se constituyen como el mundoambiente, el medio o milieu de nuestra experiencia cotidiana: la expansión de las tecnologías infocomunicacionales, que atraviesan los ámbitos del trabajo, el ocio y hasta las relaciones afectivas; el desarrollo de un modelo productivo de «acumulación flexible», que implica dispersión territorial, descentralización productiva, tercerización, predominio del trabajo llamado inmaterial; la difusión de prácticas de manipulación y automanipulación de lo viviente en general y de los cuerpos humanos en particular (biotecnologías, cirugías, trasplantes, implantes, body-sculpting); el desarrollo de nuevos soportes tecnológicos para antiguos y novedosos objetos culturales, lo que implica a su vez el armado de nuevos marcos jurídicos, así como la aparición de nuevos actores y pulseadas en torno a esos objetos.



 

 

 

 

 

 

 

 

 

 

Página 90



 

Optimización

 

 

Ahora bien, ¿qué implicaciones ha tenido todo esto en nuestro habitar el espacio, en nuestra experiencia del tiempo, en nuestra relación con nosotros mismos?

 

Según la tesis de Scott Lash, esa nueva modalidad de habitar el mundo con la asistencia e intervención de infotecnologías implica transformaciones tanto en el plano de nuestro modo de comprender y significar como en el plano ontológico. Si pensamos, por ejemplo, en la manera de entender el propio cuerpo, existen métodos y dispositivos que nos brindan la información sobre lo que somos en niveles ya no molares —como en la medicina del siglo xix, basada en el cuerpo orgánico individual del paciente— sino moleculares. El empleo de técnicas como el screening genético prenatal, los test diagnósticos presintomáticos, el escaneo cerebral, los medicamentos que mejoran la memoria, la concentración y el humor, las drogas que incrementan el rendimiento, entre muchas otras, nos emplazan hacia modos de concebir la propia vida y actuar sobre ella, interpelándonos —tal como afirma el sociólogo británico Nikolas Rose— como individuos somáticos, como seres profundamente materiales y biológicos, orientados a la optimización de nuestros recursos o de nuestro «capital humano»; incluso, como se insiste más recientemente, nuestro «capital mental». Seres expuestos a susceptibilidades (no tanto, o no solo, a enfermedades o riesgos ciertos, sino a problemas potenciales) y dispuestos a programar o reprogramar aquello que aparece no del todo eficiente, satisfactorio o adecuado.

 

Veamos estas tendencias más de cerca. Por optimización Rose entiende un proceso por el cual las tecnologías contemporáneas de la vida ya no están limitadas por los polos de la salud y la enfermedad. Esos polos siguen existiendo, pero además, «muchas intervenciones procuran actuar en el presente con el fin de asegurar el mejor futuro posible para quienes se someten a ellas. Por lo tanto, esas tecnologías encarnan visiones de lo que puede ser, de hecho, un estado óptimo, en lo que respecta a la vida humana tanto individual como colectiva», sostiene en su libro Políticas de la vida (2012). En el pasado, así como la vida parecía incontestablemente



 

 

 

Página 91



 

ligada al funcionamiento natural de los procesos vitales, la medicina se orientaba a limitar la anormalidad, «a restablecer la norma vital natural y la normatividad del cuerpo que le daba sostén», dice Rose. Pero hoy estas normas naturales no nos parecen ya tan ineludibles, y mucho menos deseables; las normatividades biológicas nos resultan una limitación que podríamos alterar.

 

En la medida en que vemos los cambios producidos por los psicofármacos en las formas de manifestación de los estados de ánimo o en la capacidad de sostener una actividad; o cuando se ven las normas de la reproducción y la fertilidad alteradas por las tecnologías de reproducción asistida; cuando el envejecimiento se ve postergado por terapias de reemplazo hormonal o por drogas como el viagra, lo normal-natural de cada una de estas situaciones aparece menos como un marco al cual tender que como un campo de opciones, al menos para las clases prósperas de Occidente. Las antiguas líneas «que separaban tratamiento, corrección y mejora» ya no se sostienen, afirma Rose.

 

Las nuevas tecnologías ya no se limitan a tratar de curar el daño o la enfermedad orgánicos; tampoco a mejorar la salud, como es el caso de los regímenes alimenticios o los programas orientados a lograr un buen estado físico, sino que cambian aquello en lo que consiste ser un organismo biológico haciendo posible refigurar —o abrigar la esperanza de refigurar— los procesos vitales mismos, con el fin de maximizar su funcionamiento y mejorar sus resultados. Su característica fundamental es su visión de futuro: estas tecnologías de la vida buscan redefinir el futuro vital actuando en el presente vital.

 

Importante es retener aquí el horizonte de «maximización de funcionamiento»: a eso llamamos optimización. No es solo «mejoramiento», porque no se trata de mejorar una función defectuosa en relación con el orden de la normatividad natural, sino que se trata de optimizar o maximizar los rendimientos y funcionamientos más allá de las capacidades naturales.

 

Para ilustrar esta tendencia a la optimización, vale recordar la campaña que llevaron adelante en 2014 las empresas Facebook y Apple con



 

 

 

 

Página 92



 

respecto a sus empleadas mujeres: les ofrecieron pagarles un tratamiento para congelar sus óvulos, de manera que invirtieran más tiempo de su edad fértil trabajando en esas empresas sin que ello significara renunciar a sus deseos de convertirse en madres. Y de paso, madres de bebés «de calidad», cabría agregar, ya que esta segunda frase forma parte evidente del razonamiento optimizador aplicado en este caso: si solamente postergaran la maternidad, es esperable que después de varios años los óvulos no resulten tan «buenos» como los congelados en la juventud temprana. Cuando la empresa contratada para este servicio diseminó la noticia de que «Silicon Valley» —en realidad no era todo Silicon Valley, sino dos empresas— estaba dando este «beneficio» a sus empleadas y a las cónyuges de los empleados varones, tanto Facebook como Apple explicaron que lo hacían porque ellas y ellos lo solicitaban. Apple dijo también que quería asegurarse de que sus empleadas pudieran «hacer el mejor trabajo de sus vidas». No se trata, entonces, solamente de mejorar las condiciones de vida, sino de calcular posibles intervenciones que puedan saltearse la normatividad natural y hacer que las cosas «funcionen» de una manera aún más conveniente que como lo harían en el mejor escenario natural posible.

 

En el cruce de esta biomedicina técnica con la racionalidad biopolítica neoliberal, la tendencia hacia la optimización se ensambla con la idea de capitalización; la optimización del «capital humano», que últimamente se polariza en algo aún más específico: el «capital mental». Esta tendencia permea incluso las acciones de gobierno en un país que, como la Argentina, está todavía fuertemente influido por el psicoanálisis. En efecto, entre los años 2016 y 2019 funcionó en la provincia de Buenos Aires, gobernada entonces por la dirigente de centro-derecha María Eugenia Vidal, la Unidad de Coordinación para el Desarrollo del Capital Mental en el ámbito del Ministerio de Coordinación y Gestión Pública, cuyo Comité Consultivo Científico lideraban el neurólogo Facundo Manes y el nutricionista Esteban Carmuega, e integraban también Andrea Abadi, Christian Plebst y Miguel Larguía. Según un documento elaborado por la Unidad en 2016, el capital mental se define como «la totalidad de recursos cognitivos, emocionales y sociales con los que una persona cuenta para desenvolverse en la sociedad, adaptarse al entorno e interactuar con los



 

 

 

 

Página 93



 

demás y con el medio ambiente». Dicho capital «puede desarrollarse, fortalecerse y potenciarse, así como también deteriorarse o empobrecerse en función de la estimulación y la dinámica entre la persona y el contexto social», y comprende «una nutrición adecuada, capacidad cognitiva, inteligencia emocional, capacidad de aprendizaje flexible y eficiente, y capacidad de adaptación. […] trabajar desde el capital mental es aplicar los avances científicos sobre el cerebro y las personas para mejorar la calidad de vida de nuestra sociedad». Es relevante notar aquí que no se trata de prácticas, habilidades o funciones nuevas; la noción de capital humano no muestra algo de la realidad que antes no veíamos, sino que renombra acciones y prácticas ya existentes y les da una nueva legibilidad, las interpreta en clave estrictamente económica.

 

En una entrevista publicada en el diario La Nación en julio de 2016, el especialista en nutrición infantil Esteban Carmuega expresó que «existen decenas de experiencias exitosas que nos muestran un camino para invertir en el capital mental de nuestra sociedad». Aludió a un estudio de largo aliento en Guatemala, en el que «una intervención nutricional temprana demostró, cuarenta años más tarde, un incremento del salario de más del 25 %», estableciendo así una relación que instruye acerca de la construcción del argumento: la supuesta prueba del éxito de una intervención nutricional se refiere, no a la posibilidad de una mejora de las condiciones de vida, tanto efectivas como proyectadas, de esas niñas y niños, ni en relación con los parámetros de salud deseables para la población objeto de la política, sino a un potencial incremento en el porcentaje de salario esperable… cuarenta años después. Es decir, proyectado a un momento con respecto al cual resulta incierto conocer con un mínimo de fiabilidad cuáles serán las posibilidades de empleo asalariado para aquellos a quienes se dirige la política.

 

 

 

 

 

 

 

 

 

 

Susceptibilidad y programación



 

 

 

 

 

Página 94



 

En cuanto a la susceptibilidad, ella abarca los dilemas provocados por los intentos de «identificar y tratar, en el presente, a personas a quienes se les pronostica algún mal futuro», según la sencilla formulación de Rose. Para este autor, la preocupación contemporánea respecto de la susceptibilidad genética reelabora creencias de larga data acerca de que las debilidades se heredarían como predisposiciones —que podían pasar inadvertidas hasta que ciertos hechos externos, que iban desde el exceso de alcohol hasta el paso del tiempo, las dispararan— y que podrían conjurarse o atenuarse adoptando un estilo de vida moderado y «saludable».

 

Al menos desde el siglo xviii, en Europa se entendía que una predisposición era una falla o imperfección heredada que se manifestaría, en determinadas circunstancias, como enfermedad o patología. Y que en la semántica eugenésica y racista que operó en la Metrópoli durante siglos, la cesura entre «vida digna» y «vida que no merece ser vivida» se asociaba con la noción de degeneración, que para algunos estudiosos era el resultado del efecto nocivo de la vida en la ciudad o de la débil constitución de los inmigrantes y de la frágil descendencia que estos procreaban.

 

Esa preocupación respecto de la susceptibilidad genética también reelabora e incorpora algunas tecnologías de evaluación, así como de predicción y gestión de riesgo que ya estaban consolidadas. Su formulación contemporánea remite a multitud de proyectos biomédicos que procuran identificar y tratar personas asintomáticas con el objetivo de prevenir enfermedades o patologías que podrían manifestarse en el futuro. De allí que vemos a nuestro alrededor el despliegue y la expansión de la figura del «portador asintomático»: aquella persona que, sin estar efectivamente enferma, sabe que tiene posibilidades de desarrollar tal o cual enfermedad.

 

Uno de los casos más resonantes de la expansión de la figura del «portador asintomático» ha sido, en los últimos años, el de la actriz Angelina Jolie, quien en 2013, después de hacerse diferentes pruebas de diagnóstico molecular y genético, decidió someterse a una doble mastectomía al conocer que sus genes BRCA1 y BRCA2 presentaban ciertas mutaciones que estadísticamente indican la posibilidad de elevar el riesgo de desarrollar tumores de mama y de ovarios.



 

 

 

 

Página 95



 

Según Rose, el interés creciente por las susceptibilidades genéticas es una de las consecuencias derivadas del alejamiento del determinismo biológico: en efecto, ya no estamos determinados por nuestros genes, ellos no son un destino, sino que podemos repensarlo e incluso transformarlo. ¿Para qué? Primero, desde ya, para evitar el sufrimiento innecesario, el dolor que excede las dificultades más o menos razonables asociadas al hecho de estar vivo. Pero claro, ¿cuánto es «razonable»? Una pregunta que la optimización contemporánea, sostenida en la racionalidad neoliberal, parece responder atendiendo a las posibilidades económicas del consumidor: si puede pagar por evitarlo, es razonable que lo haga.

 

Finalmente, la programación se refiere a la posibilidad de intervenir en el genoma para reprogramarlo, tanto para alterar una codificación defectuosa como para restablecer una codificación virtuosa que, por accidente, se vio alterada. El caso del embrión seleccionado para que sus tejidos fueran compatibles con los de su hermano Charlie fue el primero pero no el único. Como también la selección del sexo del embrión en el contexto de un tratamiento de fecundación in vitro, que en algunos países se permite por razones médicas (por ejemplo, una pareja con antecedentes familiares de hemofilia podría solicitar la selección de embriones del sexo femenino, ya que las mujeres son portadoras, pero no padecen la enfermedad, mientras que los varones sí la desarrollan) y en otros, como los Estados Unidos, puede hacerse simplemente por preferencia de los progenitores.

 

 

 

 

 

 

 

 

 

 

Transhumanos

 

 

Por otro lado, en el plano de la ontología, los sistemas tecnológicos se han superpuesto a —y en algunos casos incluso fusionado con— los socioculturales y los biológico-naturales, de modo tal que las personas habitamos y enfrentamos el mundo no solo desde los habitus



 

 

 

 

Página 96



 

interiorizados mediante las experiencias acumuladas, sino también desde una interfaz, que en muchos casos implica incorporación, con los sistemas tecnológicos. Y esto se refiere al uso tanto de aparatos técnicos complejos —como el auto sin conductor— como de medicamentos para incrementar nuestro rendimiento o cambiar nuestro estado de ánimo.

 

Una de las racionalidades que fundamentan esta autotransformación por medio de la tecnología es la hipótesis transhumanista, aquella según la cual «el cuerpo humano es un dispositivo obsoleto». Entre sus referentes más conocidos está el científico, empresario e inventor Raymond Kurzweil, autor de libros como La era de las máquinas inteligentes (1990) y La Singularidad está cerca (2005); cofundador en 2008 de la Universidad de la Singularidad en Silicon Valley, patrocinada por Google y por la NASA, y desde 2012 director de Ingeniería en Google. Kurzweil es una figura clave de nuestro tiempo por su versatilidad, por la vastedad de sus ideas y empresas, y por un ethos tan controversial como enérgico en su voluntad de poder.

 

Es la clase de «visionario» que anticipa en sus libros de predicción aquello que performa o actúa como empresario. En su libro de 1999, La era de las máquinas espirituales, predijo que los ordenadores demostrarían algún día ser superiores a las mejores mentes del mundo financiero en la toma de decisiones sobre inversiones. Ese mismo año, creó un fondo de inversión libre llamado FatKat (Acelerador de Transacciones Financieras de las Tecnologías Adaptativas de Kurzweil): un software destinado a reconocer patrones en las fluctuaciones y tendencias de los títulos del mercado financiero. Lo mismo sucede con sus emprendimientos de alimentación saludable: escribió junto a su médico, Terry Grossman, dos libros sobre cómo llevar una larga vida, a la vez que lanzó una compañía de alimentación saludable, Trascend, que produce los suplementos dietarios que recomienda en el libro. En la década de 1970 fue un pionero en el desarrollo de software de reconocimiento de caracteres (OCR). Esto le valió una larga amistad con el popular músico ciego Steve Wonder, quien lo inspiró para desarrollar, en 1984, el sintetizador Kurzweil 250 (K250), uno de los primeros instrumentos por ordenador capaz de reproducir de manera realista el sonido de otros instrumentos de una orquesta. Es conocido por la llamada «ley de rendimientos acelerados»,



 

 

 

 

Página 97



 

que extiende la ley de Moore para describir un crecimiento exponencial del cambio tecnológico.

 

A diferencia de la imagen más o menos corriente de un progreso lineal, Kurzweil asegura que en los próximos cien años no veremos un despliegue tecnológico similar al del último siglo, sino que se parecerá más bien a 20 000 años de desarrollo. «En unas pocas décadas —afirma en La ley de rendimientos acelerados, de 2001—, la inteligencia de las máquinas sobrepasará la inteligencia humana, llevándonos a la Singularidad: cambios tecnológicos tan rápidos y profundos que representen una ruptura en la estructura de la historia humana». De eso se trata, en efecto, su libro La Singularidad está cerca, de 2005, que describe el advenimiento hipotético, en pocas décadas, de una inteligencia artificial «general» o «superinteligente» muy superior tanto en velocidad como en capacidades concretas, al intelecto humano. Esta «Singularidad tecnológica» implicaría cambios sociales inimaginables, imposibles tanto de comprender como de predecir, a partir de una combinación inédita entre tecnología y biología que, afirma, «se expandirá por el universo». Y puede llevar a la humanidad a la extinción o a la inmortalidad. (Los transhumanistas lo dicen así, «desdramatizando» el asunto).

 

Los transhumanistas no solo creen en la posibilidad de perfeccionamiento a través de las tecnologías —la informática, la robótica, la biología molecular, la química y la farmacología, las ciencias cognitivas, la ingeniería genética, la nanotecnología y la neurocirugía—, sino que sostienen «una nueva forma de pensar más allá de la premisa de que la condición humana es esencialmente inalterable». Para ellos, «alterar fundamentalmente la condición humana a través de la razón aplicada, especialmente utilizando la tecnología» para acabar con el envejecimiento e incrementar las capacidades intelectuales, físicas y psicológicas del ser humano no solo es posible sino muy conveniente. Si bien reconocen que las perspectivas que se abren gracias a estas nuevas tecnologías «van desde un futuro ilimitadamente promisorio a posibilidades extremas como la extinción de la vida inteligente», aseguran que el futuro se vislumbra en general de manera extraña o confusa, pero sin dudas está «lleno de posibilidades muy excitantes».



 

 

 

 

 

 

Página 98



 

Suele afirmarse que el primero en usar el término «transhumano» fue, en 1953, el biólogo Julian Huxley, el hermano de Aldous, a su vez autor de Un mundo feliz (1932). Julian Huxley, primer secretario de la Unesco, abogaba por la aplicación de las tecnologías para mejorar la condición humana. A finales de la década de 1960 lo retomó el escritor futurista de origen persa Fereidoun M. Esfandiary, quien a los cuarenta años logró cambiar su documento para llamarse FM-2030, como símbolo de sus convicciones más esperanzadas: que al cumplir cien años la tecnología le permitiría vivir para siempre. Según sus seguidores, FM-2030 predicaba el transhumanismo en sus clases sobre «Nuevos conceptos de lo humano», que dictaba en la New School for Social Research de Nueva York. En ellas sostenía que el organismo tal como lo conocemos es una «camisa de fuerza biológica» de la que hay que deshacerse lo antes posible. El cuerpo, afirmaba, es estructuralmente un mal robot: rígido y poco flexible, cuyo diseño hay que rehacer por entero. «Excepto el cerebro —aseguraba—, todo lo demás es primitivo y se está volviendo superfluo».

 

Años más tarde, retomaron y expandieron esas consignas el filósofo sueco Nick Boström y el británico David Pearce, fundadores en 1998 de la Asociación Transhumanista Mundial, cuyas dos primeras tareas fueron la redacción de la Declaración Transhumanista, publicada ese mismo año, y las Preguntas Frecuentes sobre Transhumanismo, al año siguiente. En esas primeras definiciones —que hoy no es fácil encontrar en internet, ya que en marzo de 2009 el documento original fue transformado por el consejo de directores de Humanity+ en una lista de siete puntos muy simplificada — se afirmaba:

 

El transhumanismo desecha el postulado de que la «condición humana» es constante; que todo puede cambiar —la economía, la cultura, la política— pero que la naturaleza humana sigue siendo siempre la misma. […] El transhumanismo supone que la condición humana no es inalterable y aboga por el uso de tecnologías que superen nuestras limitaciones biológicas y transformen esa condición.

 

[…]     Entre esas posibilidades figuran, por ejemplo, las «máquinas superinteligentes» —capaces de superar a los mejores cerebros humanos en prácticamente cualquier disciplina—; el «control de los



 

 

 

 

Página 99



 

centros del placer» a partir de nuevas drogas y/o fármacos que prometen que la gente podrá optar por reducir drásticamente la incidencia de emociones negativas en su vida, sin efectos colaterales y sin provocar adicción; las «píldoras de la personalidad», nuevas drogas que, con el apoyo de la terapia genética, permitirían modificar la personalidad y ayudar a resolver problemas como la timidez o los celos, incrementar la creatividad y aumentar la capacidad emocional; la colonización del espacio exterior; la ampliación radical de la expectativa de vida; la clonación, la tecnosexualidad, las redes neuronales, la ingeniería neuromórfica, etcétera (Declaración Transhumanista, de 1999; la traducción es mía).

 

En una entrevista publicada en 2006 en The Guardian, Boström, ya por entonces director del Instituto del Futuro de la Humanidad en la facultad de Filosofía de la Universidad de Oxford —tarea que desarrolla todavía hoy—, explicaba que el transhumanismo se dedica a analizar e investigar las posibilidades y las implicaciones éticas de «modificar las capacidades humanas, por ejemplo, interviniendo el proceso de envejecimiento, o bien haciéndolo más lento o revirtiéndolo». Y agregaba:

 

Para el caso del envejecimiento, lo que necesitamos es, o bien hacer más lento el proceso de acumulación de daños, o bien, una vez que el daño ha sido hecho, ir y repararlo. Las células madre, por ejemplo, pueden utilizarse para hacer crecer de nuevo las células que hemos perdido. Y podemos desarrollar nuevas enzimas que sean capaces de proteger al cuerpo de aquellas sustancias con las que él no puede vérselas.

 

Por su parte, David Pearce es un militante del llamado utilitarismo negativo, que propone revocar mediante las biotecnologías la mayor cantidad de «sufrimiento innecesario». Expone sus tesis en el manifiesto titulado El Imperativo Hedonista: la exigencia ética de abolir el sufrimiento; no las causas del sufrimiento, sino las sensaciones biológicas que provoca. Pearce, vegano moral, explica en su «manifiesto abolicionista» que la desaparición del dolor puede lograrse a través de tres



 

 

 

 

Página 100



 

posibles soluciones técnicas. Dos de ellas son parciales: la estimulación cerebral de los centros del placer y el uso de drogas de diseño; la tercera, en cambio, es la que propone como la más adecuada: «cambiar la naturaleza humana literalmente reparando nuestro código genético». La clave del argumento es que lo que falla es la dotación biológica, ya que los «estados de conciencia desagradables existen porque fueron adaptativos genéticamente».

 

Si bien estamos algo lejos de ver realizadas estas ideas, ellas orientan desde hace décadas el trabajo de científicos, ingenieros y tecnólogos. Y algunos artistas colaboran realizando prototipos vivientes, como es el caso del artista chipriota-australiano Stelarc. Desde la década de 1970, Stelarc ha venido realizando una larga serie de piezas que exploran la posibilidad de un cuerpo protésico, extendido, aumentado, con el objetivo de «suplir tecnológicamente las limitaciones biológicas». Entre diferentes experimentos performáticos, utilizó máquinas de suspensión antigravitatoria, operó con su cuerpo una prótesis de seis patas mecánicas gigantes y en 2007 se hizo implantar en su antebrazo izquierdo aquella «tercera oreja» hecha de células cultivadas que mencionamos más arriba, que tiene un sensor y una antena wifi que transmite los sonidos que ella misma «escucha». En una entrevista con Paolo Atzori y Kirk Woolford para la revista CTheory en 1995, él explicaba así su idea del cuerpo «incompleto» o «insuficiente»:

 

Para mí, el cuerpo es una estructura objetiva, evolutiva e impersonal. Habiendo pasado dos mil años pinchando y hurgando en la psiquis humana sin cambios reales discernibles en nuestra perspectiva histórica y humana, tal vez necesitemos adoptar un enfoque fisiológico y estructural más fundamental, y considerar el hecho de que solo a través de un rediseño radical del cuerpo seremos capaces de tener pensamientos y filosofías significativamente diferentes. Creo que nuestras filosofías están fundamentalmente limitadas por nuestra fisiología. Y que una inteligencia verdaderamente otra se producirá a partir de un cuerpo otro o de la estructura de una máquina. No creo que a los seres humanos se les ocurran filosofías fundamentalmente nuevas. […] El deseo de unidad bien puede ser el resultado de



 

 

 

 

Página 101



 

nuestro sistema sensorial bastante fragmentario, donde observamos el mundo en paquetes de modos sensoriales discretos y diferentes. Así que nuestro impulso de fusionarnos, de unirnos, esa unión religiosa, espiritual, muy bien podría deberse a una insuficiencia o incompletitud en nuestra fisiología.

 

Es importante retener esta dimensión imaginaria y utópica del transhumanismo, porque es el germen de mucha de su carga libidinal. El deseo de superar los males que nos aquejan como vivientes no puede ser minimizado como fuerza vital y como potencia de transformación.

 

También es importante saber que no se trata de una perspectiva unilineal: la utopía transhumanista tuvo fuentes rusas a finales del siglo xix, soviéticas más tarde, y está encarnada en la contracultura de la experimentación californiana de la década de 1960, que es una de las raíces de la ciberdelia de la década de 1990. De esta emerge el movimiento ciberpunk liderado por William Gibson, inventor del término «ciberespacio» y autor de novelas como Neuromante y Conde Cero; la revista Wired y muchas de las ideas que aparecen objetivadas en films de ciencia ficción que hoy consideramos clásicos, como Blade RunnerMatrix o Brazil.

 

Podemos rastrear aquellas ideas en la Rusia zarista. El filósofo cristiano ortodoxo Nikolái Fiódorov conectó, sobre finales del siglo xix, dos tópicos que raramente habríamos imaginado juntos: «resurrección de la carne» y «carrera espacial». Fiódorov buscaba crear materialmente, por medios científicos y técnicos, la vida eterna. La misión de los sabios, sostenía, era colaborar con la tarea de Dios en la Tierra; no solo propiciar la prosperidad y la paz, sino también desarrollar las herramientas tecnológicas para realizarlas, de modo que la inmortalidad de las almas fuera un hecho palpable. Su motivación misericordiosa era completamente universal: la salvación debía ser para todas las almas; las del presente, las del futuro, y también las de los antepasados. En esto Fiódorov era un igualitarista rabioso: junto con la inmortalidad, había que garantizar la vuelta a la vida de los ya fallecidos. Claro que, una vez dominado el tiempo, ¿dónde ubicar a tanta gente? Conocer y ocupar el cosmos, el imperativo literal de «tomar el cielo por asalto», pasó a ser un requisito



 

 

 

 

Página 102



 

derivado del sueño de alcanzar la gran promesa cristiana de la resurrección de la carne para toda la eternidad.

 

Las ideas cosmistas de Fiódorov, que hoy pueden parecer maximalistas, fueron celebradas en círculos influyentes de su país a finales del siglo xix y principios del xx: atrajeron a Tolstói, a Dostoievski, a Maiakovski. Su seguidor más destacado en la ciencia rusa fue el físico soviético Konstantín Tsiolkovski, uno de los pioneros de la cosmonáutica mundial. De él se sabe que en la niñez quedó prácticamente sordo debido a la escarlatina, por lo que no pudo asistir a la escuela; se formó entonces como autodidacta en la Biblioteca Estatal de Moscú bajo la guía del entonces bibliotecario, que era, precisamente, Fiódorov. Entre sus muchos aportes, Tsiolkovski diseñó una nave a retropropulsión para viajes interplanetarios, y sus ideas hicieron posible que el ser humano pusiera en órbita el primer satélite artificial.

 

 

 

 

 

 

 

 

 

 

Aplanamiento

 

 

Sigamos caracterizando estas nuevas formas de vida infotecnológicas. Para eso vamos a considerar tres rasgos principales, insinuados en la primera formulación de Lash: que en estas formas de vida se da un proceso de aplanamiento o, como podemos denominarlo también, inmanentización. Que su existencia se da principalmente «a distancia»; es decir, que son formas de vida mediales y mediadas. Y que son no lineales, lo cual significa un triple proceso según el cual se aceleran, se comprimen y a la vez —sin que esto implique contradicción, sino juego complejo— se expanden.

 

En cuarto lugar, podemos añadir que estas formas de vida se «desmaterializan» o se «virtualizan» solo aparentemente; más bien, su condición de posibilidad es la existencia de nuevos espacios y materialidades, tanto por los componentes que requieren muchos de los



 

 

 

 

Página 103



 

dispositivos que permiten los intercambios infocomunicacionales —que van desde las placas de vidrio hasta elementos químicos como el silicio y el litio, pasando por metales como el cobalto, la tantalita y la columbita— como por las infraestructuras que esas telecomunicaciones requieren, así como por los restos y desechos que sus dispositivos, ya sea en su producción o en su obsolescencia planificada, dejan en la atmósfera, en el suelo y en los océanos. En quinto lugar, finalmente, dependen de y dan lugar a saberes y prácticas hiperespecializados, lo que implica tanto la multiplicación de disciplinas y saberes expertos cada vez más cerrados sobre sí mismos, como el ocultamiento de procesos internos, a la manera de una caja negra, de los distintos procedimientos integrados en las infraestructuras y los dispositivos.

 

Veamos todo esto más en detalle. En cuanto al aplanamiento, tal como afirma Lash, las formas de vida modernas se atenían a un esquema espacial vertical y dualista. El suyo era un dualismo de la profundidad basado en un término trascendental y otro empírico o de superficie, con sus respectivos significados: uno «verdadero» pero oculto y otro más superficial que funcionaba, en general, como reflejo o síntoma del primero.

 

En las formas de vida anteriores, el término trascendental subyacía al empírico: el inconsciente en el psicoanálisis; la infraestructura en el marxismo; el significado oculto de la intención expresiva del artista en ciertas teorías del arte. En suma, las «estructuras profundas» operaban sobre las superficies, que constituían, a su vez, las puntas del iceberg de la verdad. En las formas de vida infotecnológicas, en cambio, el término trascendental y el empírico entran en aplanamiento o desdiferenciación. El dualismo se disuelve en un monismo radical. Este aplanamiento alcanza la supuesta interioridad tanto del sujeto como del objeto del sentido, erosionando el límite entre ellos. Ahora, dice Lash,

 

el inconsciente sale a la superficie en lo cotidiano, así como lo trascendental de la economía se disuelve en la cultura de la vida diaria, y el arte se convierte en un modo más de comunicación. Las formas de vida tecnológicas no sugieren positivismo, que es el pensamiento clasificatorio del tipo sujeto-objeto, sino empirismo, en



 

 

 

 

Página 104



 

el cual el observador no es, en principio, fundamentalmente diferente de lo observado.

 

Otro aspecto de ese aplanamiento que describe Lash se manifiesta en el debilitamiento tendencial de la distancia —que era también una jerarquía

 

— entre el cuerpo y la conciencia; lo que alguna vez fue el alma, más tarde el «yo». En efecto, en la era de las formas de vida infotecnológicas, comienza a reducirse la distancia entre ambos, y el cuerpo biológico comienza a recobrar el terreno perdido o avasallado durante siglos: la cualidad de constituir plenamente al sujeto.

 

Es significativa en esta transformación la tendencia a definir el propio «yo» por elementos cada vez más externos (la apariencia física, la performance social) y, al mismo tiempo, íntimos en sentido biológico (los genes, las neuronas, la síntesis de serotonina). El homo psychologicus de la era industrial, que buscaba dentro de sí un sentido que parecía ocasional o fatalmente perdido, se ve tendencialmente reemplazado por un ser inquieto por eventuales disturbios neuroquímicos, fallas genéticas, inadecuaciones estéticas o «errores de programa», cuyo remedio ya no está en el recurso introspectivo, sino en la intervención tecnológica.

 

Esto se hace posible por la conjunción de al menos tres factores. En primer lugar, por el desarrollo de las neurociencias, que hacen de la conciencia un epifenómeno de las variaciones químicas y eléctricas del organismo, y en los últimos años, puntualmente del cerebro. Como escribió el investigador Vernon Mountcastle, reconocido por haber descubierto en 1957 que la corteza cerebral se estructura en columnas de neuronas cuyas conexiones forman circuitos locales, considerados la unidad funcional del cerebro, en su artículo «La ciencia del cerebro en el final del siglo», publicado en 1998 por la revista científica Dædalus (y retomado por Rose en su libro Neuro, de 2013):

 

El medio siglo de acumulación de conocimiento sobre la función del cerebro nos ha puesto ante la pregunta acerca de qué significa ser humanos. No pretendemos que existan respuestas disponibles, pero aseveramos que lo que hace que el hombre sea humano es su cerebro



 

 

 

 

 

 

Página 105



 

[…]    Las cosas de la mente, de hecho las mentes, son cualidades emergentes del cerebro.

 

Es decir, en un tiempo relativamente corto se fue llegando a la idea, suscripta por buena parte de quienes trabajan en neurociencias, de que existe una base física de la mente en el cerebro. Dicho de otro modo, la mente es aquello que el cerebro realiza, en la medida en que los procesos mentales surgen de los procesos físicos del cerebro.

 

El segundo factor es la industria de medicamentos, que financia investigaciones en áreas «de punta» y presiona para obtener resultados que permitan introducir en el mercado productos para alterar funciones y estados anímicos. Los psicofármacos, que evolucionaron desde los antipsicóticos típicos de la década de 1950, como la clorpromazina, hasta los llamados «tranquilizantes menores», como la clozapina, pasando por los ansiolíticos, los antidepresivos y, a finales de los años 80 del siglo pasado, los inhibidores selectivos de la recaptación de serotonina, como la fluoxetina, fueron ingresando de a poco en la vida cotidiana. Primero se utilizaban en el tratamiento psiquiátrico en hospitales y clínicas especializadas, pero poco a poco pasaron a ser parte del botiquín cotidiano de las clases medias.

 

Estas drogas encarnan uno de los ideales de la «sociedad del rendimiento», como la llama el ensayista surcoreano Byung-Chul Han, en tanto se ofrecen como métodos para eliminar sin mayores esfuerzos los estados de dolor y displacer, y para responder a los mandatos de éxito y productividad propios de la competencia desenfrenada entre individuos solos y profundamente atemorizados que está en la base de la gubernamentalidad neoliberal. Esta carrera sin fin es el correlato de la libertad paradójica de los nuevos «empresarios de sí», que se autoexplotan alternando la estimulación con la depresión, la motivación con la frustración, la eficacia con la mortificación.

 

Curiosamente, estos psicofármacos han comenzado a encarnar la promesa de que son capaces de hacer que las personas vuelvan a ser «ellas mismas». Como estudiaron Nikolas Rose y Joelle Abi-Rached en Neuro, en un primer momento estaban asociados con la idea de poder hacer frente a las dificultades —ayudaban a enfrentarse a las presiones y las exigencias



 

 

 

 

Página 106



 

de la vida—, pero con el tiempo «la promesa fue haciéndose más positiva: volver a ser uno mismo», dicen estos autores. Quienes las utilizan abrigan la esperanza de recobrar la autonomía, el dominio y control de la propia vida.

 

Finalmente, el tercer factor que favorece la autopercepción de los sujetos como «individuos somáticos» son los discursos y las prácticas asociadas al fitness; no solo la disciplina física sino el conjunto de prácticas y aprestamientos corporales relativos a la apariencia, a lo «externo» del cuerpo, que tradicionalmente se consideraba secundario en el desarrollo de una identidad personal, pero que en la era de las formas de vida infotecnológicas adquiere un nuevo e inusitado peso, en la medida en que se propone que una intervención quirúrgica o una ejercitación continua del cuerpo tendrán efectos visibles y relativamente inmediatos en la complexión psíquica.

 

Un ejemplo de esto lo proporcionaba pocos años atrás la ONG Agita Mundo, patrocinada por la Organización Mundial de la Salud y con representaciones en treinta y tres países (entre ellos: la Argentina, Alemania, Cuba, España, Estados Unidos, India, Irán, Malasia y Suiza). La Declaración de San Pablo, su documento fundacional, afirma que uno de los principales motivos para impulsar la actividad física a nivel mundial son «los beneficios psicológicos [que ella promueve], incrementando la autoimagen, la autoestima, el bienestar general, la agilidad mental, disminuyendo la soledad, el estrés, la ansiedad y la depresión».

 

Estos procesos, unidos a todo un nuevo conjunto de conocimientos expertos, de tecnologías y prácticas de evaluación e intervención, orientan nuestros modos de autocomprendernos hasta considerarnos —como dice Rose— «seres cuya individualidad se encuentra anclada, al menos en parte, en la existencia carnal, corporal, y que se experimentan, se expresan, juzgan y actúan sobre sí mismos, en parte, en el lenguaje de la biomedicina». «Soy celíaca», «soy obeso», «soy bipolar», «soy ansioso» son maneras de autocomprensión que implican, además, toda una biosocialidad: grupos de ayuda mutua, de intercambio de experiencias, recetas y consejos, salidas en común y mucho más.

 

Es posible hablar, así, de un verdadero «régimen somático» propio de las formas de vida infotecnológicas, que conlleva un modo de



 

 

 

 

Página 107



 

interpretación del cuerpo biológico en su doble faz: el molecular interno y el aparencial o externo, como sede parcial pero cada vez más significativa de la subjetividad. Como algo modelable, operable, intervenible, modificable, en tanto obra a realizar de manera responsable. En definitiva, como lo que Foucault denominaba la «sustancia ética», es decir, la materia —o la parte de sí mismo— sobre la cual el individuo ejercita su conducta y a la cual da forma para convertirse en un sujeto ético. Esta doble dimensión del cuerpo es, entonces, la materia del trabajo de autorregulación que realiza el individuo para tratar de equilibrar y orientar los imperativos éticos y estéticos de la «autopoiesis», la creación de sí como una suerte de obra, contemporánea.

 

 

 

 

 

 

 

 

 

 

Estetización

 

 

Es importante resistir la tentación a considerar la dimensión estética como un fenómeno de superficie y, por lo tanto, trivial. La relevancia del cuerpo-signo está conectada de manera íntima con las necesidades que la propia época activa, en términos de comunicabilidad de sí, de legibilidad en un mundo globalizado (mostrarme de manera rápidamente identificable ante los otros, señalar mi pertenencia a determinada tribu urbana o juvenil) e incluso de capitalización. En el capitalismo espectacular, el cuidado de la propia apariencia no es algo que podemos elegir no hacer: no prestarle atención a cómo nos presentamos ante los demás es, también, una decisión e involucra un mensaje.

 

En 2008, el teórico del arte alemán Boris Groys comentaba en una entrevista concedida al diario El País de Madrid esta instructiva anécdota:

 

Cuando Alexander Shaburov, un amigo artista, empezó su carrera en los años noventa, fue saludado con muy buenas críticas. Pero no tardaron en advertirle que tenía un problema muy grave: una mala



 

 

 

 

Página 108



 

dentadura. Sin embargo, tuvo suerte, y le concedieron una beca para que se arreglara los dientes. Y lo hizo. Y le ha ido bien. Hoy no se puede ser un buen artista si algo va mal a la hora de sonreír.

 

Por supuesto que no se trata solamente de lucir bien ante las cámaras. Tal como explica con gracia el mismo Groys en su artículo «La obligación del diseño de sí», incluido en el volumen Volverse público (2014), el sujeto de los siglos xx y xxi, esto es, el sujeto posterior a la muerte de Dios —que había sido hasta ese momento el único «Observador del alma»—, se ve en la necesidad de expresar su interior a través de su exterior:

 

La única manifestación posible del alma empieza a ser la apariencia de la ropa que usa una persona, las cosas cotidianas que la rodean, los espacios que habita. Con la muerte de Dios, el diseño se volvió el medio del alma, la revelación del sujeto oculto dentro del cuerpo. Por eso el diseño adoptó una dimensión ética que no tenía antes. […] El sujeto moderno tenía ahora una nueva obligación: la del autodiseño, la presentación estética como sujeto ético. […] Al diseñarse a sí mismo y al entorno, uno declara de alguna manera su fe en ciertos valores, programas e ideologías. De acuerdo con este credo, uno es juzgado por la sociedad y este juicio puede ser, por cierto, negativo e incluso amenazar la vida y el bienestar de la persona involucrada.

 

De allí que, dice Groys, el diseño moderno transformó todo el espacio social en un ámbito de exhibición en el que los individuos aparecen como «artistas y obras de arte autoproducidas». Basta pensar en el uso de un pañuelo de color para transmitir la pertenencia a uno u otro grupo en el debate por los derechos reproductivos y la despenalización del aborto para ver la fuerza política del diseño. Porque también hay intensas tensiones por el diseño en los movimientos políticos, centrales o alternativos, en las que reaparece la antigua discusión sobre la convivencia compleja —no imposible, pero sí laboriosa— entre vanguardia política y vanguardia artística.

 

En este sentido, resulta muy provocativo e iluminador a la vez lo que comenta el crítico británico Mark Fisher en su artículo «Deseo



 

 

 

 

Página 109



 

postcapitalista», de 2012. Para Fisher, uno de los mayores problemas de los movimientos alternativos y anticapitalistas de las grandes ciudades ya entrado el siglo xxi es su conservadurismo estético y formal, así como su ideal de «retorno» a un pasado mítico que —afirma— los deslibidiniza por completo. En lugar de abrazar el «éxodo» de las formas visibles y semióticas de la mercancía, como proponen los ascetismos políticos de la imagen, que están más bien a la defensiva frente al capital y sus estrategias, Fisher sostiene que es necesario comprender el «cambio de régimen libidinal» que acompaña al pasaje de las sociedades disciplinarias a las sociedades de control. Y agrega: «concretamente, se intensifica el deseo por los bienes de consumo». Pero frente a esto ya no puede oponérsele, dice, «la afirmación de la antigua disciplina de clase», porque sencillamente ya no somos ese tipo de sujetos disciplinarios. No es que nos falte disciplina o voluntad, dice Fisher, sino que cambió totalmente el régimen de producción, la biosfera que habitamos está siendo tendencialmente reemplazada por la tecnosfera y, con estos (y otros) cambios, han variado también las subjetividades emergentes. De allí que tratar de volver atrás, «reducirnos al mínimo» o «desaparecer de la visibilidad pública», como una suerte de principio de quiescencia budista, es una estrategia demasiado débil. Mucho más importante, sostiene, es buscar nuevos motivos libidinales, nuevas imágenes que les permitan a las personas vislumbrar un futuro utópico atractivo, alegre y vital, antes que, como lo decía Fredric Jameson, «hacer juicios moralizantes o practicar la nostalgia regresiva».

 

De allí que los retos del autodiseño, de convertirse en una obra viviente, implican entonces un enorme esmero relacionado con comprender las «reglas del arte»: ¿qué puedo ser? (o en qué tribu me inscribo), ¿qué puedo innovar-transgredir-aportar? (o cuál es mi singularidad), son algunas de las muchas preguntas que nadie atento a estas señales de la época puede soslayar.

 

Veamos tres modos en que distintos artistas han aceptado este reto del autodiseño. El primer caso es muy conocido: se trata de la artista francesa Orlan, quien desde 1965 realiza piezas que tienen como eje su propio cuerpo. Sus primeros trabajos fueron instalaciones, esculturas, performances y ejercicios de travestismo y striptease. Desde 1990 y a lo



 

 

 

 

Página 110



 

largo de varios años llevó adelante una provocativa cruzada por convertirse en una escultura maleable, una «obra de arte total», empleando como soporte su propia carne y, como técnica, la cirugía plástica. Según afirmaba, su intención era denunciar el peso represivo que los ideales de belleza femenina ejercen sobre las mujeres. La pieza con la que inauguró el género que ella misma bautizó «arte carnal» es la operación-performance La reencarnación de santa Orlan, una obra en cinco tiempos que consistió en transformarse en un collage de rasgos célebres: entre 1990 y 1995, los cirujanos fueron trasladando al rostro de la artista la frente de la Gioconda, los ojos de la Psique de Gérome, la nariz de una Diana de la escuela de Fontainebleau, la boca de la Europa de Boucher y el mentón de la Venus de Boticelli. Cada operación era difundida en directo; paciente y médicos llevaban trajes diseñados por Paco Rabanne, Frank Sorbier, Issey Miyake y Lan Vu. Mientras duraba el procedimiento, Orlan leía en voz alta textos de Antonin Artaud y Julia Kristeva, entre otros. En 1999 la artista lo recordaba y lo explicaba así: «Mi trabajo es una lucha contra lo innato, lo inexorable, lo programado, la Naturaleza, el ADN (que es nuestro rival directo como artistas de la representación) y contra Dios». Y agregaba: «Mi cuerpo se ha convertido en un lugar de debate público que presenta preguntas cruciales para nuestra época».

 

En efecto se trata de un caso límite de artista experimental, de experimento con el propio cuerpo y con la forma de vida, en la que la existencia corporal se convierte, con intensa ironía, en laboratorio de pruebas y preparación para un futuro mutante. La artista sacrifica, para eso, su presencia pública y social convirtiéndose en prototipo defectuoso, incluso risible. Pero justamente en ese gesto, Orlan atestigua la potencia que aún conserva el arte para provocar un shock tanto en la mirada como en el pensamiento.

 

El segundo ejemplo es la paradójica pieza Savon de Corps, que la artista plástica rosarina Nicola Costantino presentó en 2004 en el Museo de Arte Latinoamericano de Buenos Aires (Malba). Esta consistía en cien jabones con forma de espalda, cintura y cadera femeninas, que contenían un tres por ciento de grasa del propio cuerpo de la artista, obtenida de una liposucción a la que se sometió para llevar adelante este proyecto —y de paso, para mejorar sus formas—. La obra incluía las piezas de una



 

 

 

 

Página 111



 

supuesta campaña publicitaria que decía: «Prends ton bain avec moi» (báñate conmigo), junto a una imagen de Costantino en traje de baño a punto de sumergirse en una pileta. Al mismo tiempo autora, modelo de campaña y materia prima del producto. «La mirada ácida de Costantino sobre la industria del cuerpo —se puede leer en el sitio web de la artista— toma forma en un jabón con el que no compramos la imagen identificatoria del cuerpo de la modelo, sino que compramos “el cuerpo de la modelo”, en una nueva concepción de consumo. El eslogan es la clave donde reside el concepto del trabajo».

 

Inmediatamente después de la apertura de la muestra, se hicieron escuchar las voces críticas a la pieza. Particularmente duro fue el artículo que escribió el historiador y crítico del arte argentino José Emilio Burucúa en el diario Página/12, quien llamó públicamente a no asistir a la exposición y escribió:

 

Aun cuando la artista asegura tener una especie de nihil obstat de quienes pudieran sentirse afectados por la metáfora inevitable que liga la operación realizada por Costantino a su equivalente del pasado, atribuida a los nazis y realizada con grasa que no era la de esos verdugos sino la de sus víctimas, es decir, los judíos internados en los campos de concentración durante la Segunda Guerra Mundial, aunque tal dispensa existiese, ello no quita que Nicola ha buscado provocar un estremecimiento en el público, atenuado quizás por las refracciones que la violencia simbólica del acto de extracción de la grasa ha experimentado a través del mundo amable de lo cotidiano, pues esto es lo que implica el haber perfumado y haber dado formas sugerentemente eróticas a los jabones. Tal producción de un cierto temblor interior, finalmente edulcorado por una estetización ramplona, parecería vincular el arte de Costantino con el kitsch.

 

Pero claro, el kitsch proyectado sobre la muerte engendra conglomerados significantes y emocionales que, gracias a los estudios de Saul Friedlander, hoy descubrimos íntimamente asociados a las prácticas culturales nazis.



 

 

 

 

 

 

 

 

Página 112



 

Sin dudas, aquella resonancia sombría se mantiene activa en esos jabones esculpidos. Pero al menos tan importante como aquella es la tensión que la pieza provoca por medio de la ambivalencia radical en la que la propia artista se sumerge cuando vuelve exiguo su lugar, cuando exagera la ambigüedad de su trabajo. Quizás en ese gesto de demolición está el núcleo de esta pieza. La denuncia de una praxis social extendida de autolaceración que se lleva a cabo con dos de los elementos más cargados de sentido de la época: material biológico y estetización.

 

El tercer caso puede resultar dislocador dentro de este conjunto, pero me interesa ese potencial desconcierto para analizar las posibilidades políticas del gesto de estetización. Se trata de la serie Fábulas para mirar, realizada entre 2012 y 2013 por la artista brasileña Virginia de Medeiros. Ella retoma la tradición nordestina de la fotopintura, una técnica casi extinta, cuya característica central es retocar la imagen fotográfica con tinta de color incorporando accesorios —como joyas, maquillajes, adornos, vestidos, flores—: detalles que procuraban dar cierto prestigio a los personajes. «Extraña magia —dice la artista en el texto de catálogo— que hacía despertar en el retrato una latencia en lo real». Rescató este oficio artesanal en una experiencia que realizó con veinte personas en situación de calle, a quienes entrevistó durante un mes y medio, fotografío en blanco y negro, y les hizo una pregunta clave que direcciona el sentido de la serie: «¿Cómo le gustaría ser visto por la sociedad?».

 

Para realizar cada una de esas imágenes deseadas invitó al fotopintor cearense Mestre Júlio Santos, artista que trasladó la fotopintura al mundo de la tecnología digital consiguiendo preservar los signos y las texturas de la técnica tradicional. En su texto la artista explica:

 

Cruzar esta técnica en retratos de personas que viven en situación de calle, donde la miseria material es confundida con la miseria subjetiva y existencial, es una forma de retirar esta imagen del sistema de información haciendo que ella se abra al mundo de una forma que no conocíamos de antemano. La pregunta abre el campo de subjetividad de los individuos retratados que, fabulando su condición, se transforman por un momento, y adviene un instante en el que lo real y lo imaginado se vuelve indiscernible.



 

 

 

 

Página 113



 

Las personas retratadas ya no son solo objetos de la mirada escrutadora de la sociedad, sino sujetos que se proyectan y crean un mundo imaginario, transitorio, precario, pero no por eso menos real. El conjunto resulta de una doble estetización: la que se realiza a través de la fotografía y de la técnica de la fotopintura, y la que convierte estos retratos en «obra artística» de grandes dimensiones, que se presentan junto con breves pero conmovedores relatos de sus vidas, cuidadosamente recogidos por De Medeiros y exhibidos en marcos de madera antiguos. Y mediante ese doble procedimiento, disloca el sentido práctico de la estetización oportunista y conduce a los observadores hacia la escena política primaria de la división de lo sensible; para decirlo en términos de Jacques Ranciére: ¿podemos imaginar, a través del arte, un mundo más justo?

 

 

 

 

 

 

 

 

 

 

Creadores de la propia audiencia

 

 

«La subjetividad expresiva del artista, el analizante, el filósofo, la interioridad de la conciencia proletaria, sufren una erosión», afirma Lash en Crítica de la información para referirse a este complejo aplanamiento de la profundidad subjetiva que veníamos describiendo. Y agrega: «La subjetividad expresiva suponía la conciencia como un monólogo interior. En cierto modo, el significado estaba en la conciencia. Uno lo construía para sí». Hoy, en cambio, «la creación de sentido es para otros».

 

De esto habla también el escritor italiano Alessandro Baricco en su ensayo Lo que estábamos buscando (2020), sobre la pandemia como mito construido cuidadosamente con la materia de nuestros temores y de nuestros deseos más íntimos. En el fragmento 10, Baricco señala que la profundidad también es, como la pandemia, como el inconsciente, una criatura mítica:



 

 

 

 

 

 

 

 

Página 114



 

Rara vez hemos construido [mitos] mejores y más eficientes. En una sola palabra se fijaba la eventualidad de un lugar que daba sentido a mil presentimientos, un entero sistema ético y una precisa idea de alma. Por al menos dos siglos ha guiado casi todo nuestro sentir. No obstante ahora la estamos abandonando, porque no es adecuada para descifrar el mundo contemporáneo. Es un mito que se está disolviendo. Cuando todavía se usa para describir lo real, sugiere mapas que, tomados al pie de la letra, generan situaciones fastidiosas, no pocas veces incluso cómicas. Convencidos de tener que escalar paredes escabrosas, nos encontramos frente a praderas. Donde la distancia está trazada en el orden de las horas, se alcanza la meta en algunos minutos. Diseñados con minucia admirable e inmutable belleza, pueblan aquellos mapas ríos disecados, confines abolidos, magníficas ciudades ahora en ruina y misterios ya hace tiempo develados. Es el continente de la profundidad. En los espacios blancos, allí donde aparece escrita la espléndida expresión hic sunt leones, nosotros nos hemos ido a vivir (la traducción es mía).

 

En las formas de vida infotecnológicas se desdibuja tendencialmente esa constitución minuciosa del «sí mismo» introspectivo, silenciosa y muchas veces solitaria que modeló los procesos de individuación en la modernidad ilustrada, y que era promovida por tecnologías del yo como la rememoración o el examen de conciencia. En su lugar adquieren mayor relevancia la aparición en público y la creación de sentido orientada hacia los otros. El sentido se construye como comunicación, por medio de comentar las actividades cotidianas, mostrarlas, exponerlas ante diferentes auditorios, desde las redes sociales hasta los reality shows y, en otra esfera, los grupos de autoayuda que proponen, como parte de la posibilidad de «regreso a sí», el intercambio de experiencias y refuerzos junto a otros que padecen o han padecido lo mismo.

 

Desde esta perspectiva, la reflexividad comienza a volcarse hacia una práctica comunicativa a través de la cual el yo se expone y, exteriorizándose, se organiza a sí mismo. En este contexto, decir que la reflexividad se produce como práctica comunicativa es advertir que las tecnologías del yo contemporáneas se apoyan más en dispositivos de



 

 

 

 

Página 115



 

visibilidad y en relatos de corta duración que en dispositivos de introspección y relatos de larga duración como la autobiografía o la construcción psicoanalítica de una «novela familiar».

 

Estamos ante una nueva cultura del yo que se exhibe ante los demás; un sujeto que, así como asume la individualidad somática, se reconoce también como emisor continuo de señales, como obra viviente, que se experimenta, se expresa, se juzga y actúa sobre sí, en parte, en el lenguaje del espectáculo. Y que se entrena como creador de su propia audiencia.

 

En La intimidad como espectáculo (2008), la antropóloga Paula Sibilia analiza, desde una perspectiva muy crítica inspirada en las tesis de Guy Debord, dos tendencias complementarias de la contemporánea «cultura del yo»: la exhibición de la intimidad y la espectacularización de la personalidad. Por exhibición de la intimidad se refiere a nuevos hábitos asociados con poner en el espacio público materiales, informaciones, fotografías, imágenes que hasta hace poco se entendían como correspondientes a la esfera de la intimidad, a través de redes sociales o de medios de comunicación masivos, lo que incluye la participación de profesionales del espectáculo, pero también de políticos, intelectuales e incluso personas no necesariamente conocidas por haber realizado obra alguna, en shows donde se interviene narrando la propia biografía; la exhibición de la propia casa o de la vida familiar en revistas de actualidad; la asistencia a eventos sociales donde se sabe que será filmado y reproducido.

 

Sibilia señala, con agudeza, la paradoja de que en nuestra época se protegen cuidadosamente ciertos datos personales —en especial bancarios y comerciales— contra posibles invasiones de la privacidad mientras por otro lado «se promueve una verdadera evasión de la privacidad en campos que antes concernían a la intimidad personal». El género típico de esta nueva era es el «diario éxtimo», los fotologs, las páginas personales de las redes sociales, las fotografías y videos subidos a sitios como YouTube (un servicio nacido en abril de 2005 cuyo eslogan era, significativamente, Broadcast yourself), y que ha dado lugar a un verdadero entrenamiento en la exposición. Incluso, con los años, se han desarrollado subgéneros novedosos como el de la humillación en cámara. No me refiero tanto a la humillación involuntaria (las «cámaras sorpresa» de la década de 1990 ya



 

 

 

 

Página 116



 

no concitan tanta atención), sino sobre todo la intencional: los certámenes en los que los participantes son conscientes de que saben poco y nada acerca de la habilidad exigida, y participan alegremente frente a la burla de jurados y presentadores, como en la competencia de pasteleros aficionados Nailed It! de Netflix; o como los desafíos de Roast Yourself, en los que youtubers famosos se ríen de ellos mismos componiendo canciones a partir de los comentarios más crueles de sus haters.

 

Por espectacularización del yo, Sibilia entiende la conversión de la propia personalidad en un objeto de afeites, cuidados cosméticos y estilizaciones para difusión instantánea. Un ejemplo de esto es precisamente el género reality show, en el que los participantes se convierten en personajes y estilizan sus reacciones e intervenciones para ser votados por la audiencia. Sibilia analiza estas dos tendencias a la autotematización como verdaderas rupturas más que continuidades con prácticas anteriores, como «signos de una transformación en los modos de ser: una mutación en la subjetividad», asociadas a nuevas reglas para la constitución del yo y nuevas maneras de relacionarse con el mundo y con los demás. E interpreta esto en relación con las nuevas necesidades del capitalismo:

 

Para poder funcionar correctamente, el capitalismo globalizado de principios del siglo xxi requiere otros tipos de cuerpos y otros modos de ser. En ese sentido, tanto aquellos «cuerpos dóciles y útiles» de la sociedad industrial como aquellas subjetividades «interiorizadas» que protagonizaron los tiempos modernos están quedando obsoletas. Ya no son tan necesarias como solían serlo, han perdido buena parte de su «utilidad» porque dejaron de ser «compatibles» con nuestro medio ambiente. El mundo contemporáneo solicita otro tipo de sujetos para llevar a cabo sus actividades y proyectos: necesita cuerpos más ávidos, ansiosos, flexibles y reciclables.

 

Cabe pensar, en este sentido, que uno de los principales efectos de la participación activa en las redes sociales virtuales como Facebook o Twitter es el entrenamiento de las personas «comunes» en la creación y el trato frecuente con audiencias: con sus propias audiencias. En efecto, estas



 

 

 

 

Página 117



 

redes constituyen el lugar en el que los participantes aprenden a atraer a los otros para que los sigan, aprueben con «me gusta» sus publicaciones, celebren sus ocurrencias, comenten sus actividades, ideas y opiniones, evalúen sus fotografías, los inviten a eventos. Es decir: estas nuevas superficies mediáticas no solo permiten la acción de los públicos en su faceta de productores de contenidos (la figura del prosumidor, que se evoca a menudo en relación con los consumidores que con sus preferencias y colaboraciones ingresan en un régimen mixto de consumo y producción). Tampoco únicamente su rastreo y eventual gestión por parte de las industrias que organizan los tránsitos de la información allí volcada. Son verdaderos campos de entrenamiento para ejercitar la comunicación con públicos, donde se practican habilidades que cada vez más son imperativos de nuestra hiperactiva, ruidosa y a su manera también salvaje vida multitasking.

 

Ha sido el pensador italiano Paolo Virno quien identificó un aspecto central de esta correlación entre industria cultural y formación personal-profesional. En Gramática de la multitud (2003), Virno sostiene que los medios de comunicación tienen hoy la tarea fundamental, no solo y no tanto de producir productos (programas, películas, música), sino fundamentalmente de producir productores. Ellos entrenan a los individuos en destrezas que serán empleadas luego en muy diferentes actividades e industrias: la informalidad meticulosamente administrada, la gestión oportunista de la «buena presencia», la facilidad para inventar un chiste o una frase persuasiva, la capacidad de improvisar súbitas variaciones de tema o de intensidad, la seducción, la indignación superficial, la calculada grosería —simétrica y opuesta a la «mayor consideración» con que se encabezaban años atrás las cartas comerciales — son todos adiestramientos rigurosos. Virno lo explica así:

 

Mi hipótesis es que la industria de la comunicación (o mejor, del espectáculo; o la industria cultural) es una entre otras, con sus especificidades técnicas, sus procedimientos particulares, sus beneficios peculiares, pero que cumple también el rol de industria de los medios de producción. Tradicionalmente, la de los medios de producción es la industria que produce máquinas y otros



 

 

 

 

Página 118



 

instrumentos que se emplean luego en los más diversos sectores productivos. Sin embargo, en una situación en que los instrumentos de producción no se reducen a máquinas sino que consisten en competencias lingüístico-cognitivas características del trabajo vivo, es lícito sostener que una parte significativa de los así llamados «medios de producción» consiste en técnicas y procedimientos comunicativos. Y bien, ¿dónde se forjan estas técnicas y procedimientos si no en la industria cultural? La industria cultural crea (innova, experimenta) los mecanismos comunicativos que son destinados después a funcionar como medios de producción aun en los sectores más tradicionales de la economía contemporánea. Una vez que el posfordismo se afirma plenamente, este es el rol de la industria de la comunicación: industria de medios de comunicación.

 

 

 

 

 

 

 

 

 

 

A distancia

 

 

Retomando las características de las formas de vida infotecnológicas, una que ha sido mencionada muchas veces es el hecho de que existimos y funcionamos «a distancia». Lo cual implica que solo nos es posible atravesar esas distancias mediante interfaces maquinales; en buena medida, a través de las máquinas de comunicación y transporte de signos.

 

Esto no es nuevo: tal como enseña la teoría sociológica clásica, ya los lazos orgánicos de la comunidad tradicional habían tenido que dar lugar a los vínculos a distancia de las «comunidades imaginadas» del Estado nación. Hoy, sin embargo, esa distancia se incrementó hasta tal punto que el lazo social espacial se desgarra y se reconstituye como link, enlace de red, vínculo fundamentalmente sociotécnico.

 

Y con todo, eso no es lo más llamativo. Más curioso resulta comprobar que incluso la naturaleza puede ser hoy «a distancia». El primer paso en ese sentido fue la posibilidad técnica de desacoplar la vida humana del



 

 

 

 

Página 119



 

cuerpo humano. El desacople del par cuerpo-vida, conseguido a lo largo del siglo xx, permitió construir reservorios o bancos de «material anatómico humano» disponible, que se sostiene con vida mediante una intervención tecnológica intensiva hasta el momento de ser utilizado, reinsertado en un cuerpo o desechado. Más tarde, entre finales del siglo pasado y comienzos de este, el Proyecto Genoma Humano reveló que lo más intrínseco e interno de nuestra complexión biológica, nuestro genoma, puede externalizarse y conservarse en bases de datos. Basta ver una sencilla línea del tiempo para retener algunos hitos en esta secuencia.

 

1914- Se dieron los primeros intentos de almacenamiento de sangre con citrato sódico (Argentina)

 

1917 y citrato de glucosa (EE. UU.).

 

1922

Se creó el primer banco de sangre en Leningrado (entonces URSS).

 

 

1937

Se creó en Chicago, EE. UU., el primer banco de sangre internacional.

 

 

1987

Se creó el Banco Nacional de Datos Genéticos de la Argentina, promovido por el Poder

 

Ejecutivo Nacional y organismos de derechos humanos, especialmente la organización

 

Abuelas de Plaza de Mayo.

 

 

1992

Se creó el primer Banco de Células de Cordón Umbilical en el New York Blood Center

 

(EE. UU.).

 

 

2003

Finalizó la secuenciación del genoma humano, que permitió identificar y cartografiar sus

 

entre 20 000 y 25 000 genes desde un punto de vista físico y funcional.

 

Tal vez podamos incluir en esta «naturaleza a distancia» el reto por llegar a producir un corazón bioartificial a partir de células del propio paciente, o un órgano artificial impreso en 3D, completamente funcional y compatible —una competencia que ya está en vías de desarrollo desde 2013 y que ha tenido importantes avances entre 2018 y 2019—. O la oreja producida a partir del cultivo de condrocitos que luego fue implantada en el brazo izquierdo de Stelarc.

 

En efecto, si el lazo social orgánico es reemplazado por la red sociotécnica, también la biología de los organismos es de a poco relevada por la biotecnología y la biología computacional, que se proponen dar juntas el salto bifronte hacia los «artefactos biológicos»: su comprensión, la predicción de su funcionamiento, su secuenciación, eventualmente, su programación. Tal es el objetivo en común de la biología molecular, la biología sintética y la inteligencia artificial.

 

Por otro lado, el hecho de que las formas de vida infotecnológicas están desarraigadas tampoco es novedoso: la espacialidad geográfica ha



 

 

Página 120



 

sido siempre el obstáculo a sortear de las grandes infraestructuras del transporte y las telecomunicaciones. Con todo, hoy su locus típico no es únicamente la gran urbe y las autopistas que unen una ciudad con otra, sino los espacios «genéricos» de la cultura mundializada: aeropuertos, shoppings, estudios de cine o TV, museos, laboratorios. Y por supuesto, el ámbito «virtual» de las telecomunicaciones y de las redes informáticas: el llamado ciberespacio, que fue reconocido por la Cumbre de la OTAN de 2016, realizada en Varsovia, como un nuevo dominio de las operaciones junto a los de tierra, mar, aire y espacio exterior.

 

No está de más recordar que el soporte de esta nueva ciberterritorialidad, lejos de ser una «nube», es un conjunto fuertemente material, hecho de cables submarinos, satélites, backbones o cables continentales, edificios, puntos neutros, servidores… Más allá de las merecidas burlas, internet no está tan lejos de lo que el senador republicano Ted Stevens, de Alaska, simplificó de manera extrema con la imagen de «una serie de tubos» en 2006. Para tener presente esa materialidad, conviene retener algunas imágenes. Una de ellas, la de los cables submarinos que recorren el planeta llevando el 98 por ciento del tráfico internacional de internet a través de fibra óptica. El mayor proveedor mundial de este servicio es Google, con 14 cables que suman más de 112 000 kilómetros bajo el agua. La base de la red mundial de telecomunicaciones submarina está formada por casi 400 cables que suman más de un millón de kilómetros. La fibra óptica es una infraestructura robusta, con resistencia a las inclemencias meteorológicas, menor latencia y mayor ancho de banda que la comunicación por satélite, que desde hace varias décadas quedó relegada a la transmisión de eventos deportivos, la comunicación en lugares remotos o la navegación aeronáutica y marítima.

 

En el sitio submarinecablemap.com es posible ver en tiempo real ese tendido sobre el planisferio: no es poco curioso que, en líneas muy generales, los trazos se parecen a los que ya a finales del siglo xix mostraban el cableado del telégrafo recorriendo el Atlántico y otros océanos del mundo. Se puede seguir la historia de ese cableado submarino, con información detallada desde el tendido del primer cable en 1850, que



 

 

 

 

 

 

Página 121



 

conectaba las ciudades de Londres y Nueva York, hasta nuestros días, en el sitio atlantic-cable.com.

 

Por otro lado están los grandes edificios que alojan puntos neutros, espacios de interconexión y convergencia para compradores y vendedores de ancho de banda. Entre ellos, algunos de los más conocidos son The Hub, el edificio de telecomunicaciones ubicado en el número 24 de la Avenida de las Américas, en el barrio de Tribecca, en Nueva York, o el edificio que era conocido como Western Union Building de la calle Hudson número 60, que abarca toda una manzana y está ubicado en el mismo barrio. Son dos de los concentradores de internet más importantes del mundo. Allí tienen oficinas centenares de empresas de telecomunicaciones (AT&T, British Telecom, Deutsche Telekom, Level 3, Telx y Verizon, entre muchas otras), que intercambian tráfico de internet mediante enlaces de fibra óptica. En el ex Western Union Building hay oficinas, un auditorio, cafetería, tiendas y salas de equipo, junto con más de setenta millones de metros de cable. Las empresas de finanzas se mudan hoy cerca de ellos para ganar nanosegundos en las negociaciones de alta frecuencia. Hay que considerar que la velocidad de la luz es un límite estricto: no es posible ir más rápido que 300 millones de metros por segundo. De allí que estar 300 metros más cerca significa llegar un microsegundo antes que la competencia, una ventaja que las compañías financieras aprecian muy bien.

 

Con todo, si vemos el mapa general de internet 2021, los cinco concentradores más grandes del mundo están en las ciudades de Frankfurt, Londres, Ámsterdam, París y Singapur, lo que pone a Europa en el centro de la escena tanto en capacidad como en la alta disponibilidad de acceso directo a las «nubes» de las siete grandes empresas que ofrecen ese servicio a minoristas como Dropbox o iCloud: Amazon (que concentra el 40 por ciento del negocio), Google, IBM, Microsoft, Alibaba y Oracle.

 

El mapa muestra también que la capacidad internacional total se triplicó en menos de cinco años: de 200 terabits por segundo (Tbps) en 2016 a 600 Tbps a finales de 2020, lo que incluye un crecimiento del 35 % entre 2019 y 2020.

 

Con respecto a la infraestructura, como último dato de color, es llamativa la solución que en 2015 comenzó a explorar Microsoft: la



 

 

 

 

Página 122



 

instalación de centros de datos en el océano. ¿Por qué? Porque uno de los costos más abultados de la industria de la tecnología es el aire acondicionado, de allí que para evitar el recalentamiento de los servidores, así como para evitar los costos de arrendamiento y mantenimiento, el gigante de Bill Gates comenzó a probar, más que con una «nube», con un «arca» submarina.

 

 

 

 

 

 

 

 

 

 

Museificación, exclusión

 

 

A la vez, cabe señalar que estas formas de vida estimulan la creación de, al menos, otros dos tipos de espacio. Uno, los territorios museificados o patrimonializados del turismo internacional y de la «gentrificación». Lugares que traducen las diferencias multiculturales para las audiencias remotas —donde los habitantes se visten los domingos «como nativos» para atraer al turismo— y donde las clases medias se educan en lo que Mike Featherstone, en Cultura del consumo y posmodernismo (2000), llama el «descontrol controlado de las emociones» y aprenden a jugar, no sin sarcasmo, «el juego de la realidad».

 

Es esta clase de experiencia la que parece proponer una página de internet brasileña de turismo, que entre sus servicios ofrece tours por las favelas cariocas:

 

La idea de participar en tours por las favelas de Río de Janeiro puede suscitar emociones contradictorias y comentarios polémicos. Es posible pensar que no tiene sentido realizar un paseo «turístico» por los barrios más pobres de Río, tal vez porque no se va a ver nada bonito, porque puede resultar peligroso o incluso porque puede resultar ofensivo para sus habitantes, ya que pueden sentirse observados como animales raros encerrados en un zoológico suburbano.



 

 

 

 

Página 123



 

Pese a esto, los autores de la página insisten:

 

 

Existen muchas razones que animan a conocer una favela, entre ellas:

 

Comprender mejor la realidad social de Río.

 

Tomar fotografías desde miradores con vistas incomparables de la ciudad.

Tomar clases de samba, capoeira y maculelê. […]

 

Saborear la comida típica brasileña como la feijoada de la tía Léa.

Comprar artesanía, cuadros o ropa para colaborar con el desarrollo local.

 

El segundo espacio al que me refiero es el patio trasero de toda gran ciudad, incluida por supuesto Silicon Valley, considerada una de las zonas más desiguales del mundo. «Nuestros profesores, nuestros bomberos, nuestros policías no tienen cómo asumir el costo de vida porque los precios son astronómicos», señalaba en 2019 Russell Hancock, presidente y director ejecutivo del centro de estudios Joint Venture Silicon Valley, a la cadena de noticias BBC Mundo. «El costo de la vivienda es el más alto de Estados Unidos y un tercio de la población no puede sostenerse sin ayuda», agregaba.

 

Por su parte, el informe anual Silicon Valley Pain Index realizado por investigadores de la Universidad Estatal de San José, California, arrojó en 2021 que en esta zona sur de la Bahía de San Francisco hay registradas 11 515 personas sin techo, 9 por ciento más que en 2020. Que en un año se perdieron más de 79 mil empleos, de los cuales solo 13 por ciento tenía ingresos superiores a 60 000 dólares anuales.

 

Si se comparan los datos con los que arrojaba el mismo informe el año anterior, el patrimonio neto de los diez magnates más ricos, todos varones blancos, era en 2020 de 248 mil millones de dólares, y en 2021 pasó a ser 571 mil millones: un aumento de 230 por ciento en un año. Ya el informe 2020 señalaba que el 57 por ciento de los hogares latinos no era autosuficiente, y el 46 por ciento de los hogares negros tampoco. El ingreso promedio anual per capita de los latinos en 2021 es de 30 618 dólares y el de los negros, 40 381; el de los asiáticos, 69 172 dólares; y el



 

 

 

Página 124



 

de los blancos, 88 886; todo esto contra un mínimo de 126 800 dólares anuales que se considera que debería ganar una familia para poder gastar el 30 por ciento de ese ingreso en lo que cuesta el alquiler de un departamento de dos ambientes.

 

Lo que se evidencia aquí es cómo, en el epicentro mismo de la industria que sostiene el «giro hacia lo digital» que ha permitido la continuidad de la vida durante esta pandemia, se han consolidado y multiplicado la desigualdad, la pobreza, la miseria y la exclusión, que — como estas cifras muestran— es una de las acciones sociales más persistentes del capitalismo tecnológico desenfrenado.

 

 

 

 

 

 

 

 

 

 

Compresión, aceleración, expansión

 

 

Llegando al final de este capítulo, repasemos la proposición según la cual las formas de vida infotecnológicas son no lineales. Esto significa, en términos de Lash, que como unidades de sentido entran en un régimen de compresión y aceleración. A lo que cabe agregar, sin que esto implique una contradicción sino una muestra de que estamos ante un sistema complejo, también se expanden.

 

En la era de la comunicación digital, las unidades lineales de sentido como la narración, el diario íntimo, el discurso crítico meditado tienden a comprimirse en formatos abreviados: de manera paradigmática, los 140 caracteres de Twitter, sí, pero también los hashtags, las siglas, los eslóganes, la frase rimbombante. Como ya escribió a mediados del siglo pasado Herbert Marcuse en El hombre unidimensional (1964), estos formatos abreviados como el eslogan y la sigla son formas de estandarizar el lenguaje para que ya no diga, incluso quizá para que oculte, aquello que está efectivamente diciendo.

 

En estas comunicaciones comprimidas importa menos el desarrollo del mensaje que la conexión misma. El individuo expresa y exhibe, ante todo,



 

 

 

 

Página 125



 

que está comunicando, que se está en un flujo, en una marea u ola de opinión. O bien que se está visible y, por lo tanto, que existe: en la lógica del espectáculo y la exhibición-estetización, «ser» es «ser visto», y quien no es visto se ve amenazado por la posibilidad de «no ser». Se manifiesta así la exaltación de aquella función fática o de contacto de la que hablaba Roman Jakobson; la reiteración, vacía de contenido específico pero crucial, de que el otro (y uno mismo) «está ahí», uno de cada lado del canal. La confirmación de que constituimos algún tipo de comunidad, aunque solo se trate de una comunidad hueca, sin atributos.

 

Esto también significa que nos inscribimos en un régimen de oscilación entre el orden de la representación y el de la expresión simplificada de emociones instantáneas. En definitiva, reacciones motivadas por la necesidad de ser visibles, de estar ahí ante los demás.

 

El desafío, lo sabemos, es construir un espesor narrativo en este nuevo marco cognitivo y medial. Aún no conocemos del todo las herramientas, pero hemos visto acelerarse la sucesión de este mismo acontecimiento. Lo que antes ocurría al cabo de varias generaciones, ya no nos toma por sorpresa.

 

De esto hablamos, también, cuando nos referimos a la aceleración. Ella ha implicado una transformación radical en los modos de relacionarnos con el mundo. Primero, al multiplicar las actividades que desarrollamos — el modelo multitasking—, que de la mano de la miniaturización y la portabilidad de los dispositivos de comunicación, es responsable por la eliminación de nuestros «tiempos muertos» cotidianos. La existencia entendida como una cinta transportadora cada vez más intensa, como denuncia Jonathan Crary en 24/7: El capitalismo tardío y el fin del sueño. Para este autor, la fórmula 24 horas por día, siete días a la semana evoca «una constelación de poderosos procesos de nuestro mundo contemporáneo caracterizados por la actividad, la acumulación, la producción, las compras, la comunicación, el juego, o cualquier otra cosa, incesantes». Señala que cada vez resulta más difícil hacer una pausa, estar desconectado. E indica la inflexible traducción a valor monetario de cualquier intervalo de tiempo o de cualquier relación social que seamos capaces de imaginar —incluso el «hacer crochet» de Donna Haraway, su llamamiento a tejer nuevas prácticas de relación, de vivir-con y morir-con



 

 

 

 

Página 126



 

otros organismos, puede ser traducida a una acción productiva más, convertible a los valores del mercado—. Como buen heredero de la teoría crítica, Crary también identifica como tendencia propia de nuestro tiempo el hecho de que progresivamente cada uno de los deseos y necesidades humanos —el hambre, la sed, el erotismo, el cuidado, los vínculos y hasta la expresión de las emociones— se van transformando artificialmente en formas mercantilizadas. Y agrega, con contundencia: «un entorno 24/7 tiene la apariencia de un mundo social, pero en realidad es un modelo no social de conducta maquinal y una suspensión del acto de vivir que encubre el coste humano exigido para sostener su eficacia».

 

Ese multitasking maquínico nos obliga a manejar diversas temporalidades: hay tempos desiguales en los distintos tipos de dispositivos y en las diferentes «ventanas». Gestionamos entonces no solo tareas simultáneas sino tiempos diferentes pero sincrónicos. Y también «personalidades» o máscaras que tenemos que nutrir en cada espacio en red. La aceleración es, además, fuente de incertidumbres y riesgos: como nuestras energías colectivas, incluidas (o acaso principalmente) las inversiones bursátiles, se dirigen a un futuro incierto, ella es también fuente de la demanda de control imposible de satisfacer. Es evidente que tampoco queda claro qué deberíamos controlar, exactamente.

 

Para cerrar, quiero solamente comentar dos imágenes a través de las cuales podemos entrever la cuestión de esa expansión en modo alguno incompatible con la compresión y la aceleración. Una se refiere a una campaña publicitaria, «Piles of files» («Pilas de archivos»), que la empresa Maxtor, productora de discos duros, realizó en 2005 en diferentes aeropuertos, y que permitía visualizar cuántos materiales preciados — fotografías, música— podía almacenar por aquel entonces una laptop como las que transportamos a diario. La empresa montó pilas de aproximadamente dos metros de largo por uno de ancho y dos de altura. Algunas estaban compuestas por fotografías impresas —todas las que el disco rígido de una laptop promedio era entonces capaz de guardar—, otras por CD —toda la música en MP3 que ese mismo disco estándar, de uso doméstico, podía almacenar.

 

Pocos años después, el fotógrafo y crítico holandés Erik Kessels comenzó a exponer su pieza 24 horas en fotos (2011), en la que recopila e



 

 

 

 

Página 127



 

imprime 350 mil fotos disponibles en sitios para compartir imágenes, como Flickr, subidas durante ese lapso. Luego, las esparce libremente por el sitio de la exposición, creando un cúmulo gigantesco de millones de recuerdos privados, en los que anima a los visitantes a sumergirse. Con este conjunto de fotos, Kessels busca crear conciencia sobre el consumo hiperveloz de imágenes digitales en internet, sobre el hecho de que al subirlas a la red, las fotografías pasan del ámbito privado al público, y sobre el cambio en los modos en que nos relacionamos con grandes cantidades de datos. Kessels comentó en una entrevista que, al imprimir todas esas imágenes, visualizó «la sensación de estar ahogándome en las representaciones de experiencias de otras personas».

 

Vemos aquí de qué modo la paradojal coexistencia y mutua intensificación de dos puntos extremos de una polaridad, como la compresión (miniaturización) y la expansión (producción globalizada), resuena a su vez como tensión en otras líneas de fuerza. Por un lado, dos ámbitos de la experiencia cultural cercanos pero también muy diferentes: los mundos del arte y la publicidad. Por otro lado, dos escalas: la escala humana y el dilema personal, existencial, en relación con los archivos de la propia historia, y la escala planetaria y el drama ecológico de la superproducción de excedentes y restos. Por eso el conjunto nos interpela. ¿Qué archivo nos llevaríamos a un futuro desierto?



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Página 128



 

 

 

 

 

 

 

 

 

 

 

Epílogo

 

El malestar en la cultura digital

 

 

El shock de virtualización • «Solo Dios sabe qué le está haciendo al cerebro de nuestros hijos» • Cómo orientar el Tech New Deal: descentralización, desconcentración, comunidades y soberanía tecnológica • ¿Quién les pone el cascabel a las GAFA? • La encrucijada del Tecnoceno: cuando el Mundo y la Tierra se encuentran

 

•   ¿Google nos está volviendo estúpidos? • El fantasma que recorre el mundo digital: la Singularidad • El Flash Clash de 2010 y los «accidentes normales» de la Inteligencia Artificial

 

El juego en cuestión consistía en trasladarse a un mundo poblado por una especie inteligente, el dominio sobre ese planeta. Y se ganaba siempre, con los procedimientos de guerra superadaptables creados y perfeccionados por la compañía creadora del juego. Mis hijos, como otros miles adolescentes, eran jugadores impenitentes y no pasaba día en que no ganaran una partida, es decir, destruyeran un mundo.

 

César Aira,

 

El juego de los mundos,

 

edición revisada, 2019

 

 

Desde que en 2013 el entonces consultor tecnológico y ex empleado de la Agencia Central de Inteligencia (CIA) y de la Agencia de Seguridad Nacional (NSA) Edward Snowden hizo públicos documentos secretos sobre los programas de vigilancia masiva que la NSA venía aplicando sobre ciudadanos de distintos países con ayuda de las grandes compañías



 

 

 

Página 129



 

de internet, la conciencia colectiva de estar frente a alguna forma de distopía algorítmica de gran escala vuelve como mantra casi cada año.

 

Ya sea por las fake new, entendidas como un efecto no deseado pero tampoco suficientemente controlado de la competencia por ganar la opinión a cualquier costo, o por el uso de datos personales sin permiso, como en el escándalo que envolvió entre 2017 y 2018 a la consultora política Cambridge Analytica por haber manipulado datos de más de 80 millones de usuarios de Facebook a partir de una aplicación para hacer un test de personalidad, la inquietud está a la orden del día.

 

En este último caso, gracias a los datos obtenidos a partir del test-trampa ThisIsYourDigitalLife.com, que completaron unos 270 mil usuarios de la red social, la empresa logró acceder a sus cientos de miles de contactos y, tras analizar los perfiles, realizar campañas para incidir en las votaciones de Donald Trump, en el Brexit en Gran Bretaña y también en las elecciones que ganó Mauricio Macri en la Argentina. (No deja de resultar llamativo que el uso de tecnologías similares no causó tanta animadversión cuando quien las utilizó fue Barack Obama: al parecer, que empresas y Estados usen nuestros datos sin permiso no es tan problemático si se trata de instituciones con las que nos identificamos, sintetizó en 2021 el editor Rob Lucas).

 

También en 2017, Sean Parker, cofundador de Napster y primer presidente de Facebook, admitió en una entrevista que la red social de Mark Zuckerberg «explota una vulnerabilidad de la psicología humana» al incentivar a los usuarios a buscar un «me gusta» tras otro para obtener aceptación social, y agregó: «Solo Dios sabe qué le está haciendo al cerebro de nuestros hijos».

 

A estas preocupaciones se suman el abuso por parte de las grandes empresas de su posición dominante en el mercado, y el debilitamiento de hábitos y valores que solíamos apreciar, como la empatía o la capacidad de reflexión, gracias a un proceso a la vez técnico e ideológico que el francés Eric Sadin analizó en la clave de una «silicolonización del mundo». Para este autor, el modelo tecnoliberal que emerge de los grandes gigantes de la tecnología digital implica no solo una praxis económica que pretende extraer beneficios de cada uno de nuestros gestos a través de los dispositivos conectados, sino que se trata de un verdadero paradigma



 

 

 

 

Página 130



 

civilizatorio. Uno que, sobre la base de «la organización algorítmica de las sociedades», sumerge a los sujetos en una doble desposesión: la del poder de deliberación colectiva sobre el fenómeno de la digitalización de la vida, que se pretende inevitable, y la de la libre decisión y espontaneidad humanas.

 

Lo cierto es que en dos décadas, la última ola de tecnoeuforia que había arrancado en 1995 con el libro Ser digital de Nicholas Negroponte —donde el gurú del Instituto de Tecnología de Massachusetts, MIT, anunciaba la buena nueva del Fin del Mundo Analógico con el lema «El futuro ya está aquí y solo hay dos alternativas: ser digital o no ser»—, empezó a resquebrajarse.

 

No es que en estos años no haya habido advertencias, ni crisis de fe. Entre estas últimas, las más conocidas a finales del siglo xx fueron el apenas recordado Y2K bug, o error informático del año 2000, y casi enseguida la crisis de la burbuja financiera de las empresas puntocom. Pero los atentados del 11 de septiembre de 2001 sancionaron la importancia de las tecnologías digitales para la seguridad individual y colectiva. Del mismo modo que la pandemia del coronavirus, y el silencio de las altas dirigencias políticas y científicas de buena parte del mundo, volvió a ubicar a las grandes empresas tecnológicas en el lugar de las aliadas de los pueblos, o de los públicos, ya que sus servicios fueron imprescindibles durante los largos meses de aislamiento y de restricciones a la movilidad impuestos en casi todo el planeta.

 

En cuanto a los reparos, acompañaron todo el desarrollo de la tecnología moderna, y la rama crítica de la filosofía de la técnica constituyó un campo de estudios cada vez más consistente al menos desde finales de la Segunda Guerra Mundial. Es sintomático, sin embargo, que el campo entró en una dinámica de dispersión disciplinar justo en la década de 1970, cuando coincidieron dos hechos fundamentales. Por un lado, las potencias en pugna en la Guerra Fría, los EE. UU. y la URSS, habían alcanzado lo que el matemático John Von Neumann, bautizó con macabra ironía el momento MAD, de Mutua Destrucción Asegurada; una situación en la cual el uso de armamento nuclear por cualquiera de dos bandos podía resultar en la completa destrucción tanto del atacante como del defensor. Por otro lado, se iniciaban las pruebas de ingeniería genética que



 

 

 

 

Página 131



 

permitiría la «producción» de nuevas especies híbridas imposibles de cruzar en la naturaleza.

 

Fue justo en ese momento, insisto, en el que se habían alcanzado una inédita capacidad de destrucción de la vida y una inédita capacidad de generar vida, justo en el momento en que la cuestión de «la técnica» habría necesitado, como necesita imperiosamente hoy, un abordaje de conjunto, transversal, transdisciplinar y ecológico, empezaron a proliferar los estudios cada vez más especializados: sociología de la ciencia y la tecnología, antropología de la técnica, estudios CTS y muchas otras microespecializaciones. Pese a esto, no obstante, y sobre todo después del boom de internet comercial en la década de 1990, la «pregunta por la técnica» no paró de expandirse.

 

Y eso, con motivos fundados. Fue en estas dos décadas cuando el mapa de los asuntos que abarca la revolución infotecnológica creció hasta el punto de desbordar e incluso multiplicar el territorio. Ningún área o disciplina de estudios, ningún campo profesional, ninguna dimensión de la experiencia individual o colectiva: la política, las relaciones sociales, el arte, la economía, la ciencia, la salud, la comunicación interpersonal o masiva, la escuela, la vida urbana, la relación con el medioambiente, con el propio cuerpo y hasta con la descendencia, ha quedado inmune a las metamorfosis que la técnica les ha ido imponiendo.

 

En semejante contexto, no de duplicación digital del mundo, como se ha sugerido, sino de multiplicación vertiginosa de las posibilidades de operar sobre el mundo y sobre nuevos mundos de red, producida primero por la datificación y luego por la digitalización, ¿cuáles son los desafíos que la nueva era digital, y en especial el shock de virtualización al que nos proyectó la pandemia, obliga a pensar de manera urgente?

 

 

 

 

 

 

 

 

 

 

Shock de virtualización



 

 

 

 

 

 

 

Página 132



 

Consideremos cuatro grandes grupos. El primer desafío está en cómo enfrentar la combinación de grandes volúmenes de información digitalizada, aprendizaje maquínico y la vigilancia extendida capilarmente por toda la sociedad tras los atentados del 11-S y devenida verdadera «cultura». Cuando digo «enfrentar» lo digo en el sentido más amplio posible: cómo mirar el tema de frente. Para empezar: ¿qué preguntas hacernos a partir de lo que hasta ahora sabemos? ¿Cómo describimos y cómo afrontamos los retos que identificamos?

 

Hemos visto que un problema en este campo es la protección de datos personales. Sobre todo porque no es sencillo saber qué significa esto hoy, exactamente. Uno de los hallazgos surgidos del análisis de datos masivos es que, si se tienen bases de datos suficientemente robustas, no es necesario brindar datos personales para que distintas agencias obtengan información sensible sobre nosotros. Como decían Kosinski y su equipo ya en 2013, dada la cantidad cada vez mayor de huellas digitales que dejamos, se hace difícil controlar qué atributos estamos revelando; no alcanza con evitar ciertos contenidos —políticos, religiosos, de orientación sexual o los que queramos proteger— para impedir que otros descubran nuestras inclinaciones.

 

De allí que no se trata tanto de cuidarse en o de las redes —algo que en pandemia no ha sido demasiado posible, además: mucha de nuestra vida transcurría a través de aplicaciones o plataformas digitales—. Pero entonces, ¿de qué se trata exactamente? Esta pregunta hoy no tiene respuesta concluyente. «Decir no» a las aplicaciones y plataformas no parece una opción. Por eso conviene prestar atención a las fuerzas que están empujando este shock de virtualización. Cuando hablo de shock me refiero tanto a la velocidad del proceso como al tipo de reacción que se nos propone asumir ante él: la aceptación de lo que se vislumbra, si no como solución definitiva, como paliativo aunque sea rudimentario. Es el tipo de reacción supuesta en todas las terapias y también en todas las políticas de shock: aprovechar la confusión y el agotamiento de las sociedades en beneficio de algunos agentes concretos.

 

Con respecto a la virtualización, entre 2020 y 2021 nacieron innumerables aplicaciones para rastrear contactos, para controlar movimientos, obtener permisos de circulación, hacer autodiagnóstico, así



 

 

 

 

Página 133



 

como nuevos usos de inteligencia artificial para tomar decisiones tanto personales como de políticas públicas. Si bien no hay duda de que algunas de estas tecnologías han sido útiles para limitar la propagación del virus, tal como señala el informe «The Internet Health Report 2020» aún no alcanzamos a medir sus riesgos. Porque no estoy hablando de evitar las tecnologías, sino de diseñar políticas de conjunto —no personales, de cada usuario, sino comunitarias, nacionales o regionales— que permitan analizarlas, compararlas, elegir las mejores y construir defensas frente a los riesgos de aquellas de las cuales evaluemos que, al menos por el momento, son peligrosas pero inevitables, como debe hacerse con cualquier industria de alto riesgo.

 

En efecto, así como la pandemia visibilizó y potenció un estado de cosas que implica considerables vulnerabilidades sistémicas —entre ellas: el alto grado de concentración de las empresas Big Tech, incluidas las famosas GAFA: Google, Amazon, Facebook y Apple; la enorme desigualdad socioeconómica que se refleja en el acceso a la inclusión y la alfabetización digital (más de 40 por ciento de la población mundial aún no tiene acceso a internet); la opacidad algorítmica o la imposibilidad de decidir realmente si aceptar o no términos y condiciones de servicios cuya mediación es forzosa para actividades educativas, sanitarias o económicas de primera necesidad—, también proyectó nuevas prácticas que tendrán consecuencias que nos afectarán mucho más allá de la crisis actual.

 

En la base de esta situación está el hecho de que la vida durante y después de la crisis pandémica, que vino acompañada de una recesión económica indudable y un nuevo ciclo de empobrecimiento de los sectores más pobres, requiere de un uso intensivo de plataformas, aplicaciones y dispositivos cuyos servicios, esencialmente, pagan los ciudadanos de sus bolsillos —utilizando sus propios teléfonos o computadoras personales para el trabajo, para la educación propia o de sus hijos, para las consultas médicas; pagando la electricidad y el acceso a internet; entregando de manera gratuita y a la vez compulsiva cientos de datos personales, tanto biométricos como comportamentales, a través de esas mismas plataformas — en beneficio de unas muy pocas empresas.



 

 

 

 

 

 

 

 

Página 134



 

luces y sombras del TECH NEW DEAL

 

 

Y esos beneficios, como vimos en el primer capítulo, son enormes.

 

A partir del inicio de la pandemia a comienzos de 2020, desde diferentes ámbitos se declama la necesidad de un Screen New Deal o Tech New Deal para enfrentar la pospandemia. Con todo, estas expresiones implican sentidos muy distintos según quién las formula. De acuerdo al ex CEO de Google Eric Schmidt, quien en 2020 encabezó una comisión para «reimaginar la realidad poscovid» del Estado de Nueva York, «necesitamos buscar soluciones que se puedan presentar ahora y acelerar la utilización de la tecnología para mejorar las cosas». ¿Cuáles? «Las primeras prioridades se centran en telesalud, aprendizaje remoto y banda ancha», enumeró.

 

El entonces gobernador de Nueva York, Andrew Cuomo, dijo algo parecido en mayo de ese mismo año en un encuentro en la Fundación Bill y Melinda Gates. Habló de la necesidad de desarrollar «un sistema educativo más inteligente», y expresó que la pandemia ha propiciado «un momento en la historia en el que podemos incorporar» las ideas de los Gates sobre digitalización: «Todos estos edificios, todas estas aulas físicas, ¿para qué, con toda la tecnología que tenemos?», se preguntó, de manera retórica.

 

Es decir, para un sector de poderosos empresarios y gobiernos, se trataría de un acuerdo para profundizar la virtualización de la vida cotidiana. Una estrategia bifronte y sumamente regresiva cuya contracara implica desfinanciar —abaratando costos y flexibilizando actividades— las infraestructuras esenciales cuyo debilitamiento nos arrojó de hecho a la pandemia en la que nos encontramos: infraestructuras de salud, de educación, de información de calidad, de empleo formal.

 

La abogada guatemalteca Roxana Ávila, directora de la Fundación Ciudadanía Inteligente, utiliza en cambio esta misma expresión para referirse a la necesidad de trabajar en pos de recuperar algunas condiciones básicas para la «democracia digital». Ella menciona cuatro: desde el punto de vista de la sociedad y del Estado, descentralizar los servicios a partir de leyes estrictas que favorezcan la competencia, tanto en



 

 

 

Página 135



 

las infraestructuras básicas que son críticas para la economía del mundo hoy (cables submarinos, satélites, backbones continentales) como en los proveedores de internet, pasando por los sistemas operativos y las plataformas de publicidad y datos o de comercio electrónico. Desde el punto de vista de los ciudadanos, garantizar tres derechos: a la protección de los datos personales y la seguridad, en particular frente a las grandes empresas transnacionales a las que por el momento no es posible alcanzar con la legislación nacional; a la inclusión digital, que se refiere a la asequibilidad de los servicios; y a una genuina alfabetización digital, que se refiere a la adquisición de competencias no solo como usuario, cliente y proveedor gratuito de datos, sino también como creador de contenidos e incluso como programador.

 

A esas condiciones podrían añadirse otras dos. Con respecto a la escala nacional y regional, desarrollar una política pública sostenida de soberanía tecnológica, lo cual implica invertir, como Estado y como sociedad, en el desarrollo de infraestructura crítica, de hardware y de software de código abierto para no entregar la información sensible de los ciudadanos a empresas transnacionales, e incluso para exportar esos servicios, con mejores estándares en cuanto a la protección de derechos fundamentales como la privacidad. Y con relación a la escala de los ciudadanos, someter a periódica revisión, y eventualmente limitar, los términos y condiciones de las empresas. No es admisible que la aceptación de condiciones por defecto sea el estándar para acceder a servicios cuya mediación es forzosa para realizar actividades de primera necesidad.

 

 

 

 

 

 

 

 

 

 

Reciprocidad, redundancia, responsabilidad

 

 

El segundo gran desafío se vincula con las relaciones que deberemos establecer con las empresas que lideran estas tecnologías. ¿Estamos en condiciones de poner reglas cumplibles?



 

 

 

 

Página 136



 

De esto hablan muchos trabajos recientes, como Capitalismo de plataformas (Nick Srnicek), Realismo capitalista (Mark Fisher), Capital is dead, Is this something worse? (McKenzie Wark). Se habla de «capitalismo de vigilancia» (Zuboff), «digital» (Schiller), «de datos» (Mayer-Schönberger y Ramge); de «colonialismo de datos» (Couldry y Mejías) e inclusive de «extractivismo de datos» (Morozov). Sabemos gracias a estos y otros trabajos que empresas tecnológicas antiguas y novatas lideran los rankings bursátiles. Que buscan orientar nuestras compras y nuestras votaciones. Que comparten nuestros datos con agencias de inteligencia y con grandes poderes fácticos. Que utilizan algoritmos sesgados para segmentar poblaciones y targets (un ejemplo es la aplicación FaceApp, que se hizo famosa por su filtro «edad», que permite al usuario ver cómo luciría en la vejez; en 2017, después de un escándalo, debió cambiar su algoritmo para hacer selfies más atractivas porque, entre las instrucciones, una hacía que la piel luciera más blanca). Sabemos, finalmente, que su ámbito de acción es la escala planetaria: junto con las empresas financieras, las tecnológicas han sido las principales impulsoras de la escala global y de los protocolos de intercambio de información o de divisas en cualquier parte del mundo. Su unidad de medida no es el ciudadano, ni el Estado nación, sino las poblaciones-público a las que pueden dirigirse en cualquier punto del globo.

 

Nuestro reto como habitantes de una nación y una región con enorme potencial —a la que, no casualmente, se la castiga en forma periódica con deudas escarmentadoras o violentos golpes de Estado, o ambos a la vez— es construir las herramientas para limitar la incidencia de esos poderes en las soberanías nacionales y diseñar las condiciones materiales e infraestructurales para otro esquema de relaciones.

 

En la Unión Europea (UE) hay dos herramientas que no existen en otras partes del mundo: una es la normativa sobre neutralidad en la red, que impide a las empresas privilegiar algunas aplicaciones sobre otras para su propio beneficio. Esto significa que los proveedores de acceso a internet no pueden gestionar el tráfico en sus redes para favorecer ciertos servicios («gestión razonable del tráfico»), ofrecer un acceso privilegiado a «servicios especializados» o dar acceso a algunos servicios de forma



 

 

 

 

Página 137



 

gratuita, injusta y anticompetitiva a la vez que cobran una tarifa a los clientes para descargar otros servicios (zero rating). La transgresión a esta norma es el motivo por el que Google fue multado tres veces en los últimos años: por 2400 millones de euros en 2017; por 4300 millones en 2018; y por 1490 millones en 2019. La segunda es el Reglamento General de Protección de Datos (RGPD), que contiene severas restricciones a las transferencias internacionales de datos, ya que todo proveedor externo de servicios a la UE que utilice datos de ciudadanos europeos debe someterse a esta normativa. Intentar alcanzar un estándar internacional sobre la cuestión es un desafío en el que la Argentina y América Latina toda tienen mucho para aportar.

 

En general, y como principio orientador, cabe retener lo que dice el sociólogo experto en sistemas complejos Charles Perrow en su libro The next catastrophe: teniendo en cuenta el sistema de escala planetaria que internet contribuye a consolidar, es clave estimular la reciprocidad entre diferentes jugadores antes que la dependencia de unos pocos. Eso aumenta la redundancia, que es una de las principales formas de defensa ante cualquier posible accidente natural, organizacional o incluso ante un ataque deliberado.

 

Si hubiese que imaginar un nuevo acuerdo que permita construir soberanía y crecimiento sobre la base de la potencia de las tecnologías, cuatro puntos serían fundamentales: en primer lugar, ampliar la infraestructura crítica nacional y regional. En segundo lugar, impulsar la recuperación y el desarrollo de cooperativas, pequeñas y medianas empresas en las distintas provincias y regiones para descentralizar las comunicaciones. Esto va en el sentido señalado por Perrow y por Ávila, e implicará tanto robustecer el sistema, al volverlo menos dependiente de unos pocos jugadores gigantes, cuanto fomentar la actividad económica federal y regional. Tercero: promover el desarrollo de software de código abierto para las distintas necesidades de las administraciones públicas nacionales, provinciales y municipales, una medida que no solo implica apuntalar la industria y el empleo domésticos, sino que localiza los datos dentro de cada país. En cuarto lugar, exigir que las grandes empresas de internet, de datos y de comercio electrónico, que se han beneficiado enormemente en los últimos meses, aporten para la inversión en



 

 

 

 

Página 138



 

infraestructuras —edificios, insumos, investigación— tanto de salud como de educación, no solo en sus países sedes, sino también en los que operan, para que el esfuerzo colectivo extraordinario que ellas recogen se refleje en contribuciones fehacientes a evitar futuras crisis.

 

Recién en junio de 2021 el G7 dio un paso en ese sentido y propuso un gravamen mínimo de sociedades de al menos un 15 por ciento, así como una imposición a las empresas con márgenes de beneficio superiores al 10 por ciento que las obliga a pagar al menos un 20 por ciento de los impuestos sobre sus beneficios globales en el territorio en el que operan, y no solo donde tienen su sede. Únicamente extendiendo estos criterios a otros países, limitando las riquezas acumulables y obligando a las empresas a responder por los efectos ecológicos de toda la cadena de extracción y consumo de los materiales que utilizan en sus procesos y servicios —haciendo constar dónde dejarán sus desechos y qué harán para garantizar la renovación de los bienes comunes que empleen, como el agua potable, para empezar— será posible avanzar en una planificación de gestiones de crisis y de riesgos a nivel planetario.

 

Llegados hasta aquí, desde ya que es necesario democratizar el acceso a internet a las personas que aún no lo tienen y robustecer la inclusión digital tanto en el nivel del uso como en el nivel de la programación. Pero si no se hace todo lo anterior, estas necesidades se enfrentarán mediante respuestas muy poco sostenibles, ya que se estará trabajando principalmente para otros.

 

Como dice el economista canadiense Nick Srnicek, la manera en que conceptualizamos el pasado y el presente es importante para pensar estratégicamente y desarrollar tácticas orientadas a transformar aquello que requiere ser mejorado. Un Tech New Deal solo será deseable si nos ayuda a fortalecernos como personas, como naciones y como región. Para eso es necesario asumir la complejidad y la vulnerabilidad sistémicas que nos arrojaron a esta pandemia. Y a tomar conciencia de las fragilidades, pero también de las oportunidades, que ella expuso —por primera vez en la historia— frente a los ojos de todo el planeta.



 

 

 

 

 

 

 

 

 

 

Página 139



 

Entre geología e historia humana: tecnologías

 

 

El tercer gran desafío no es nuevo, pero los meses pandémicos lo han visibilizado de una manera inédita. Se trata de la evidente crisis que las aceleraciones que desencadenaron el Tecnoceno están provocando en el medioambiente terrestre: en la atmósfera, en los océanos y en las capas superficiales de la tierra.

 

En este libro enfoqué los aspectos no necesariamente ocultos pero sí poco analizados que provienen de utilizar las tecnologías digitales: la vida 24/7 en las pantallas, la cultura de la vigilancia, la tendencia a la búsqueda de la optimización, entre otras. Requeriría otro libro enfocar los problemas relativos a la crisis ambiental. Pero aunque sea de un modo extremadamente breve, y por ende simplificado, quisiera al menos comentar dos de las fricciones que se abren cuando se busca poner en relación crítica y dialéctica el desarrollo tecnológico-industrial —que es hoy exclusivamente capitalista pero ha sido también socialista en el «socialismo real»— y el cuidado del medioambiente.

 

La primera tensión, como bien observan Germán Palacio, Alberto Vargas y Elizabeth Hennessy en su artículo «Antropoceno o Capitaloceno en fricción. Des-encuentros entre geociencias e historia», se inicia cuando se ponen en relación las tesis globales de los peligros que enfrente el planeta Tierra con las tesis locales y situadas que se refieren al actor colectivo y complejo que empuja esta nueva era geológica. Los tres autores leen esta tensión en clave de los desacuerdos entre las «dos culturas» científicas, es decir, las diferencias de enfoque entre los científicos naturales y los científicos sociales y de las humanidades. Sintéticamente, los primeros hablarían de «la Tierra», los segundos hablaríamos del «Mundo». Los primeros muestran el problema frente al cual nos encontramos con la noción de Antropoceno, y piensan en el agente de esas transformaciones en términos de «especie humana», mientras que los segundos tratamos de entender y de incidir en cómo las sociedades humanas funcionan realmente, de qué modo sus (nuestras) relaciones, modos de producción y de intercambios han sido decisivos para llegar al momento en el que nos encontramos. De allí que el problema



 

 

 

Página 140



 

no es solo ambiental, sino socioecológico. Y personalmente agregaría:

 

socio-tecno-ecológico.

 

Para estos autores, las ciencias sociales y humanidades deben reconocer la necesidad de revisar su aproximación a la sociedad como si la naturaleza no existiera y como si los seres humanos no fueran parte de la naturaleza.

 

Algo parecido dice el físico e historiador indio Dipesh Chakrabarty en su artículo «El clima de la Historia: cuatro tesis», cuando recuerda que para buena parte de los historiadores y políticos del siglo xx, la naturaleza era poco más que un «telón de fondo», cuyos cambios son tan lentos que su historia es «casi eterna». No estaba extendida la idea, ahora generalizada gracias a la literatura de la crisis ecológica global, según la cual el clima o el ambiente pueden alcanzar un punto de inflexión en el que este lento y aparentemente intemporal «telón de fondo» se transforma con tal rapidez que puede implicar una catástrofe para los vivientes.

 

Es necesario hacer el mismo gesto con relación a los desarrollos tecnológicos de alta complejidad, y eso es, en parte, lo que este libro se propone: no pensar las tecnologías ingenuamente como «instrumentos neutrales», a los que los humanos podemos darles diferentes usos según nuestros proyectos políticos, sociales y culturales, sino incluirlas firmemente en la agenda propia de las ciencias sociales y humanidades. Porque estas tecnologías, sus infraestructuras, sus procesos de producción y de circulación, sus efectos en la constitución de la sociedad y de las subjetividades, sus accidentes y sus «restos» son hoy la interfaz que vincula, justamente, la «sociedad» y la «naturaleza»: ellas son parte sustancial de nuestro mundoambiente. Son la Tierra —los residuos radiactivos del plutonio que dejan marcas duraderas en la capa estratigráfica del planeta; los desechos industriales que invaden los océanos; las minas de extracción de litio; la fracturación hidráulica o fracking para extraer gas y petróleo del subsuelo— y son el Mundo de sentido que habitamos.

 

El «antropos» del Antropoceno no puede ser reducido a una especie, sino que es una entidad socioecológica, advierten Palacio, Vargas y Hennessy. De allí que sean críticos de la noción de Antropoceno. Para argumentar, recorren las cuatro alternativas de periodización que se



 

 

 

 

Página 141



 

propusieron para esta nueva era. «Una versión, muy minoritaria, propone que hace unos 8 mil años, con la invención de la agricultura», comienzan. Es una idea difícil de sostener, porque habría que probar que la composición química de la atmósfera fue transformada sustancialmente o trastocada a escala global desde entonces. El segundo argumento es más conocido: el momento clave sería desde el inicio de la Revolución Industrial, con la invención de la máquina a vapor y el uso a gran escala de energías fósiles, carbón y petróleo; si tomamos en cuenta las distintas fuentes, podría incluso hablarse de un largo comienzo, que se extendería de mediados del siglo xviii a finales del xix.

 

La tercera alternativa corre este largo inicio hacia atrás, y la cuarta, la que ya hemos presentado, hacia delante. La que la corre hacia atrás se retrotrae a la acumulación originaria del capital, que da inicios al capitalismo, allá por 1450; esta hipótesis incluye procesos históricos, sociotécnicos y políticos de enorme importancia: el cierre del paso de los europeos hacia Asia por los otomanos; los procesos de «descubrimiento» y conquista por parte de las potencias europeas sobre América y otros lugares del planeta durante la segunda parte del siglo xv y el siglo xvi; la dinámica de expropiación y despojo al campesinado a través del cercamiento de tierras en el siglo xviii, que arroja a estos como proletarios al mercado de trabajo.

 

La cuarta hipótesis es la que se comenta al comienzo de este libro: la aceptada por el Grupo de Trabajo del Antropoceno, compuesto por un conjunto de científicos de la Universidad de Leicester bajo la dirección de Jan Zalasiewicz. Hasta fines de 2015, la comunidad científica no había terminado de aceptar el término oficialmente, pero en 2016, el equipo de geólogos realizó pruebas estratigráficas que mostraron la presencia de aluminio, hormigón, plástico, restos de pruebas nucleares, el aumento del dióxido de carbono, entre otras huellas en los sedimentos. En consecuencia, este grupo votó la tesis de que el Antropoceno comenzó en 1950, con los residuos radiactivos de las bombas atómicas, pues la marca que determina ese cambio es la de los residuos radiactivos del plutonio. Tal como afirman Palacio, Vargas y Hennessy, datar el inicio del Antropoceno en torno a 1950 señala el momento de emergencia de lo que se ha denominado el complejo militar-industrial. Un término que enunció



 

 

 

 

Página 142



 

por primera vez en 1961 el presidente Dwight Eisenhower, en lo que algunos consideran la despedida presidencial más recordada de la historia estadounidense después de la de George Washington. Eisenhower dijo entonces:

 

Nuestro trabajo, los recursos y los medios de subsistencia son todo lo que tenemos. En los consejos de gobierno, debemos evitar la compra de influencias injustificadas, ya sea buscadas o no, por el complejo industrial-militar. Existe el riesgo de un desastroso desarrollo de un poder usurpador y [ese riesgo] se mantendrá. No debemos permitir que el peso de esta conjunción ponga en peligro nuestras libertades o los procesos democráticos.

 

Se refería así a los grupos industriales interesados en mantener la carrera armamentística entre los Estados Unidos y la Unión Soviética durante la Guerra Fría para su beneficio económico. Hoy el término se usa para aludir a la amplia red de contratos y flujos monetarios y de recursos que circulan entre los contratistas privados de Defensa, el Pentágono y el Congreso y el gobierno. E incluye a las grandes empresas de infraestructura en tecnologías de la comunicación y la información.

 

 

 

 

 

 

 

 

 

 

Capitalismo, tecnoindustria y bio-tanato-política

 

 

Puede tener sentido entonces lo que afirman Palacio, Vargas y Hennessy, que si tenemos en cuenta la preminencia de las detonaciones nucleares para el diagnóstico, podríamos hablar de «Capital-Nuclear-ceno», en la medida en que «lo que llaman Antropoceno no es el producto de una especie humana indiferenciada sino de una especie que hizo de la combinación entre la acumulación capitalista y la guerra un mundo de cambio climático».



 

 

 

 

Página 143



 

Con todo, Chakrabarty ha advertido que restringir el Antropoceno al capitalismo puede ser reductivo. Aquí se ancla la segunda de las fricciones: la que concierne a identificar no solo y no tanto a los responsables de la crisis climática —no alcanza con encontrar a los culpables, si bien hacerlo es importante para exigir reparaciones—, sino también los alcances de las responsabilidades que es necesario que los distintos agentes asuman de ahora en adelante.

 

Chakrabarty propone el ejercicio contrafáctico de suponer un escenario en el cual todos los países tuvieran prosperidad y una significativa equidad en la distribución de los recursos. Ese mundo, sostiene el autor, sería más justo, pero la huella ecológica sería de todos modos grande. Si esto que Chakrabarty afirma es cierto, significa que nuestra capacidad de actuar como especie geofísica va más allá del propio capitalismo. Él lo argumenta así:

 

Denominar a los seres humanos como agentes geológicos implica desbordar nuestra imaginación de lo humano. Los seres humanos son agentes biológicos, tanto colectiva como individualmente. Siempre lo han sido. La historia humana no tenía sentido cuando los humanos no eran agentes biológicos. Pero solo podemos llegar a ser agentes geológicos, histórica y colectivamente, cuando hayamos alcanzado números e inventado tecnologías que sean de una escala lo suficientemente alta como para tener un impacto en el planeta. Llamarnos a nosotros mismos agentes geológicos implica atribuirnos una fuerza de la misma escala que la liberada en otros tiempos, cuando hubo una extinción masiva de especies. Parece que actualmente estamos pasando por este tipo de periodo. […] Nuestra huella no fue siempre tan grande. Los humanos comenzaron a adquirir esta agencia solo desde la Revolución Industrial, pero el proceso realmente se disparó en la segunda mitad del siglo xx. Nos hemos convertido en agentes geológicos muy recientemente en la historia. (La cursiva es mía).

 

Lo que este autor sugiere es que necesitamos pensar, de manera conjunta, cómo terminar con la desigualdad creciente y cómo organizar, ralentizar o



 

 

 

 

Página 144



 

modular las distintas aceleraciones para que todos los habitantes del planeta puedan tener condiciones de vida dignas. Porque lo que estamos necesitando, para una verdadera crítica del Antropoceno, es combinar estos interrogantes con la exigencia política más fundamental: aquella por la cual todos los vivientes humanos cuentan. Y no solo como potenciales clientes de nuestros productos, como trabajadores a nuestro servicio o como «resto» más o menos abandonado por las políticas neocoloniales, que combinan extractivismo, desposesión de poblaciones de sus territorios, deforestación masiva, apropiación irresponsable de bienes comunes, desarrollo insustentable y rentabilidades extraordinarias. Eso es lo que nos trajo donde estamos.

 

Pensar la escala de la especie desde las ciencias sociales y humanas, el encuentro entre historia natural e historia humana, implica en primer lugar asumir que todo viviente humano importa. Y para que sea así, las ciencias tanto naturales como sociales y humanas nos dicen que también tienen que contar las otras especies, el suelo, la atmósfera y los océanos.

 

Las ciencias sociales y humanas incluyen, como se sabe, las ciencias económicas, las ciencias políticas y el derecho. Estos tres saberes-poderes deben asumir su tarea para desmontar la edificación, desde hace siglos — cuando no milenios—, de un modelo civilizatorio basado en la cesura entre «propios» y «ajenos», entre «vidas cualificadas» y «meras vidas», entre vidas que importan y vidas que no importan. Este es el eje bio-tanato-político de la crítica del Antropoceno que no podemos soslayar. No solo la producción de plusvalor propia de toda industria de escala, sino también la cesura política y económica entre poblaciones protegidas y poblaciones expuestas o abandonadas. Y este paradigma político, el que — como explica con nitidez Giorgio Agamben en el primer libro de la serie Homo sacer— conecta íntimamente el poder soberano con la vida desnuda, el poder político con un violento poder de muerte, es en Occidente mucho más antiguo que el capitalismo.

 

Esto no significa quitar responsabilidades a los agentes concretos, sino, de manera complementaria, señalar líneas de acción a seguir. Como dice la socióloga argentina Maristella Svampa:



 

 

 

 

 

 

 

 

Página 145



 

Pensar al Antropoceno desde la noción de especie humana, como fuerza telúrica, es condición necesaria, aunque no suficiente. […] hay que reconocer el peso que tiene en la crisis actual la geopolítica del Antropoceno, y sus inequívocas raíces históricas. Así, aunque todos somos responsables del desastre ecológico, hay algunos que son más responsables que otros. Volviendo al informe de The Carbon Majors, este encontró que más de la mitad de las emisiones industriales mundiales desde 1988 corresponden a 25 empresas y entidades estatales. Grandes empresas petroleras como ExxonMobil, Shell, BP y Chevron están entre las más emisoras. Asimismo, a fines de noviembre de 2018, se difundió un informe que advierte que el 76 % de las emisiones globales de dióxido de carbono es generado por los países del G-20. Encabezan el ranking de contaminación China (29,36 %), Estados Unidos (14,27 %), la Unión Europea (9,57 %), India (6,77 %), Rusia (4,85 %) y Japón (3,45 %). América Latina, con Brasil a la cabeza (1,54 %), parece estar muy lejos de las escalofriantes cifras de las grandes potencias en la emisión de gases de efecto invernadero.

 

Esta autora nos recuerda que desde inicios de la Modernidad los pueblos del sur vienen pagando los mayores costos ambientales en términos de injusticia ambiental y de profundas desigualdades, no solo entre el norte y del sur, sino también dentro de las mismas sociedades del llamado Tercer Mundo. De allí que, para Svampa, «la deuda ecológica resulta imposible de cuantificar». Más aún, «toda idea de compensación económica resulta insuficiente», agrega, ante la devastación ambiental que señala a las periferias globalizadas como «zonas liberadas» o «zonas de sacrificio» para producir commodities baratos.

 

 

 

 

 

 

 

 

 

 

¿Es posible un transhumanismo crítico?



 

 

 

 

 

 

Página 146



 

Finalmente, el último gran desafío de esta época se refiere a las presiones que la nueva vida digital impone a la subjetividad. Qué resonancias tiene en nuestros modos de actuar y autocomprendernos como individuos y como sociedades.

 

Se ha hablado de la conversión de la intimidad en un espectáculo; de las «subjetividades 1-click», bombardeadas por continuas demandas de atención y de reacción emocional —los «cerebros vulnerables» a los que se refería Sean Parker—, a las que se les insta a traducir de manera inmediata sus deseos en acciones de consumo.

 

Se habló quizá menos del declive de lo que Alessandro Baricco considera el mito de la profundidad, incluida por supuesto la profundidad psicológica. En 2011, el escritor Nicholas Carr advertía de manera muy convincente en su libro Superficiales que «Google está volviéndonos estúpidos» (los signos de pregunta que envolvían la frase eran obviamente retóricos). En 2021, Carr comentó en una entrevista que las investigaciones de los últimos diez años confirman aquel diagnóstico. Entre otras cosas, «cuando tenemos cerca el teléfono, aun aunque esté apagado, nuestra capacidad para resolver problemas, concentrarnos e incluso tener conversaciones profundas, disminuye».

 

También los procesos colectivos cambian profundamente. Están atravesados por una ola generalizada de «ludificación»: no solo de entrecruzamiento entre tiempo de ocio y tiempo de trabajo —visto desde la perspectiva crítica: ¡trabajamos hasta cuando jugamos!—, sino que buena parte de las actividades tienden a adquirir la forma de un juego. Es la tesis del libro The Game, de Baricco, para quien no solo las cosas no son tan graves sino que hasta pueden resultar interesantes. La superficie no solamente es lo que vemos primero: es lo que manda. Las «cajas negras» de la tecnología, lo complejo, lo profundo desaparece de la vista. Precisamente la utopía de colonizar el cosmos (o el ciberespacio), de hacer de todo un juego, de usar aplicaciones para cualquier tontería, de resolver los problemas en soledad (o con tutoriales), de volver fluidos los límites entre real y virtual, entre hombre y máquina, eso es lo que para el escritor italiano es la «posexperiencia»: el futuro en su máxima expresión.

 

Como podemos entrever, en el centro de la distopía algorítmica que recorre el mundo está el espectro del transhumanismo. Para los



 

 

 

 

Página 147



 

transhumanistas, como dijimos, el cuerpo es un dispositivo obsoleto. Que es igual que decir, el humano tal como lo conocemos se está volviendo obsoleto. El cuarto gran desafío de nuestro tiempo es saber qué significa tomarse esa proposición en serio.

 

Un aspecto de ella —solo uno, que es crucial— tiene que ver con los desarrollos de Inteligencia Artificial y la hipótesis de la Singularidad tecnológica. Es una de las ideas más complejas en las que vienen trabajando poderosas agencias de Occidente, como la NASA —que es una de las sedes de la universidad de la Singularidad, cuyo cofundador ha sido Ray Kurzweil—, la SingularityU de los Países Bajos en Europa y el MIT, y de Oriente, como la Universidad de Tokio.

 

La idea de Singularidad se refiere a la posibilidad —por ahora hipotética, pero en la que confían muchos de los tecnólogos más influyentes de Silicon Valey—, de que la Inteligencia Artificial (IA) tal como la conocemos hoy hará, ella también, en las próximas décadas su salto de escala; su «Gran Aceleración». Que primero pasará de ser la Inteligencia Artificial Estrecha (ANI, por Artificial Narrow Intelligence) que conocemos hoy (una inteligencia artificial que se especializa en una tarea limitada, como jugar al GO u orientarnos en una ciudad), a ser una Inteligencia Artificial General, o AGI (una inteligencia artificial que es al menos tan desarrollada intelectualmente como un ser humano, en distintos ámbitos). Y que eso pronto podría derivar en una Superinteligencia Artificial, o ASI (una inteligencia artificial que es mucho más veloz y cualitativamente mucho más inteligente que cualquier humano, e incluso que la humanidad en su conjunto, en todos los ámbitos). Llaman a este punto de inflexión la Singularidad, porque creen que es imposible predecir cómo se desarrollará el futuro humano después de él. Y aseguran que una vez que estas máquinas existan, poseerán una inteligencia que será tan incomprensible para nosotros que ni siquiera podemos adivinar racionalmente cómo se alterarían nuestras experiencias de vida.

 

En 2015, el escritor Tim Urban escribió un detallado artículo en su sitio Wait but why en el que comenta las tesis más entusiastas —como la de Kurzweil o Vernor Vinge, según la cual el mundo se está acercando rápidamente a un punto de inflexión, donde el ritmo acelerado de máquinas cada vez más inteligentes pronto superará todas las capacidades



 

 

 

 

Página 148



 

humanas— y otras más escépticas, como la del cofundador de Microsoft Paul Allen, el informático de la Universidad de Nueva York Ernest Davis y el empresario tecnológico Mitch Kapor, para quienes pensadores como Kurzweil están subestimando demasiado la magnitud del desafío porque en realidad no estamos tan cerca de la ASI. Según ellos, la «asombrosa complejidad de la cognición humana» es el verdadero asunto, porque sin tener una comprensión científicamente profunda de la cognición es imposible crear el software que podría desencadenar la Singularidad. En lugar del avance cada vez más acelerado predicho por Kurzweil, Allen considera que hay un constante «freno de complejidad» que hace que una vez que se comienza a investigar un sistema complejo como el que es capaz de desencadenar un pensamiento, o una acción social suficientemente sofisticada, las cosas se vuelven más y más difíciles y la carrera de los «rendimientos acelerados» se frena indefectiblemente. Es preciso tener en cuenta «la creatividad de los investigadores para idear nuevas teorías, la forma en que organizamos socialmente el trabajo de investigación en estos campos y difundimos el conocimiento resultante».

 

Con todo, la sola perspectiva de una «explosión de inteligencia artificial» es un punto de inflexión, y a él ya hemos llegado. Así lo expresa el filósofo transhumanista Nick Böstrom, director del Instituto Futuro de la Humanidad en la Universidad de Oxford, de quien no podría decirse que es un teórico crítico:

 

Ante la perspectiva de una explosión de inteligencia, los humanos somos como niños pequeños jugando con una bomba. Tal es el desajuste entre el poder de nuestro juguete y la inmadurez de nuestra conducta. La Superinteligencia es un desafío para el que no estamos preparados ahora y no lo estaremos por mucho tiempo. Tenemos poca idea de cuándo ocurrirá la detonación, aunque si sostenemos el dispositivo contra nuestro oído podemos escuchar un leve tic-tac.

 

Para empezar, las ciencias sociales y humanas deben ya darse la tarea de trabajar intensamente en el desarrollo de alternativas de Inteligencia Artificial orientadas por las necesidades humanas y del conjunto del



 

 

 

 

 

 

Página 149



 

sistema Tierra; desarrollar IA con patrones de cooperación antes que de competitividad.

 

Según Böstrom, el escenario más probable es que la primera computadora que llegara a ASI vería inmediatamente un beneficio estratégico por ser el único sistema ASI del mundo. Y en el caso de un despegue rápido, si lograra ASI incluso solo unos días antes del segundo, estaría lo suficientemente adelantado en inteligencia para suprimir de manera efectiva y permanente a todos los competidores. Böstrom llama a esto una ventaja estratégica decisiva, que permitiría que el primer sistema ASI del mundo se convierta en lo que se llama un singleton: una ASI capaz de gobernar el mundo a su antojo; llevarnos a la inmortalidad o borrarnos de la existencia.

 

Tim Urban deduce de esto que «si las personas que piensan más sobre la teoría de la IA y la seguridad humana pueden encontrar una forma segura de lograr una ASI amistosa antes de que cualquier IA alcance la inteligencia a nivel humano, la primera ASI puede resultar amistosa». Pero si las cosas van al revés, si la prisa global por desarrollar IA llega al punto de despegue de ASI antes de que se desarrolle la ciencia de cómo garantizar la seguridad de la IA, «es muy probable que emerja una ASI hostil».

 

No es necesario apelar a la amenaza de la extinción masiva para entender qué está en juego. Basta recordar uno de los primeros «accidentes normales» de la Inteligencia Artificial del siglo xxi: el Flash Crash financiero del 6 de mayo de 2010, producido cuando un programa de IA reaccionó de forma incorrecta a una situación inesperada y provocó que el mercado de valores se desplomara durante nueve minutos, llevándose consigo un billón de dólares en valores de mercado, de los cuales solo una parte se recuperó cuando se corrigió el error. Como dijimos al comienzo del libro, no alcanza con identificar el factor desencadenante: un software no suficientemente bien diseñado, el sabotaje deliberado de un hacker. Estos son elementos perfectamente previsibles —aunque no completamente inevitables— dentro del sistema hipercomplejo que es el mundo financiero internacional. Del mismo modo que era ultraprevisible la posibilidad de un bombardeo a las infraestructuras de comunicaciones durante una situación de guerra, para lo cual se buscó inventar,



 

 

 

 

Página 150



 

precisamente, un sistema de comunicaciones descentralizado, que fue una de las bases de la actual internet. La tarea inaplazable de nuestro tiempo es prevenir los próximos «accidentes normales» de una IA diseñada según un código técnico de competitividad no sustentable, que profundiza las desigualdades y es, en definitiva, poderosamente destructivo. Acompañar la innovación digital con nuevas y mejores imaginaciones sociales, culturales y subjetivas en su propio terreno es quizá la misión más importante del presente y del futuro.



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Página 151



 

 

 

 

 

 

 

 

 

 

 

Agradecimientos

 

 

Este libro es el resultado de años de trabajo, en colaboración con muchas personas y con el respaldo de diferentes instituciones. Quiero agradecer especialmente a mis colegas y amigos del Seminario de Informática y Sociedad de la Facultad de Ciencias Sociales de la Universidad de Buenos Aires (UBA), con quienes desde la década de 1990 compartimos el asombro antes los problemas que nuestro tiempo propone al pensamiento. Ese ámbito, impulsado por quien fue mi director de doctorado, Héctor Schmucler, conducido luego por Patricia Terrero y más tarde por Christian Ferrer, alumbró para muchos de nosotros la posibilidad de pensar con rigor, audacia y libertad. En este marco, un particular agradecimiento a las sucesivas generaciones de estudiantes que, con sus afiladas intervenciones, nos exigen y acompañan en el camino.

 

Agradezco a los colegas de la red internacional de Filosofía de la Técnica, en particular a Agustín Berti, Javier Blanco, Diego Lawler, Diego Parente, Anahí Ré, Darío Sandrone y Andrea Torrano, quienes con generosidad han persistido en formularse la «pregunta por la técnica» aun cuando parecía inaudible.

 

Nada de lo escrito aquí podría existir sin el intercambio permanente con Pablo Manolo Rodríguez, Julián Mónaco, Lisandro Barrionuevo, Camilo Ríos Rozo y, en sus personas, con los integrantes de los equipos de investigación que dirigimos con Manolo en la UBA desde 2008. Tampoco sin la investigación que llevamos adelante con Claudia Kozak desde 2003 sobre poéticas tecnológicas, en la que participaron Alejandra Torres, Jazmín Adler, Pablo Farneda, Lucía Stubrin, entre muchos valiosos colegas.

 

Ha sido igualmente fundamental la amistad y el intenso diálogo intelectual con Christian Ferrer, Margarita Martínez, Paula Sibilia, Juan



 

 

 

Página 152



 

Pablo Arancibia, Fernanda Bruno, Claudio Celis Bueno, Jordi Carmona Hurtado, Gustavo Chirolla, Rodrigo Karmy, Daniel López del Rincón, Jonnefer Barbosa, Iván Pincheira, Andrés Maximiliano Tello y, en sus personas, los colegas de distintas partes del mundo que han expandido mi visión de los problemas aquí abordados.

 

El haber ingresado en 2014 a la Carrera del Investigador Científico y Tecnológico del Conicet me permitió enfocarme mucho más intensamente en la investigación. Con el apoyo de esta institución me concentré en un tema que había quedado inconcluso tras finalizar mi tesis doctoral: el de las formas de vida infotecnológicas como modo de existencia paradigmático de nuestro tiempo, y sus manifestaciones culturales y artísticas. El capítulo dedicado a ellas condensa diferentes textos, clases y conferencias en los que abordé la cuestión. Entre otros, los artículos «Formas de vida tecnológicas: multitasking y aplanamiento», incluido en Modos de vida, resistencias e invención, compilado por July Chaneton (La Parte Maldita, 2015), y «Tecno-poéticas de lo viviente. Cuando el artefacto se hace carne (y viceversa)», que integra el volumen Investigar en cuerpo, arte y comunicación, compilado por Martín Scarnatto y Fabián De Marziani (Teseo y UNLP, 2020). Fui invitada a exponer versiones preliminares en el Congreso Internacional Art and Speculative Futures, organizado por la Universidad de Barcelona y la Universitat Oberta de Catalunya (Barcelona, 2016) y en el seminario Conocer el mundo contemporáneo para pensar la educación, coordinado por Guillermina Tiramonti (Flacso, 2019).

 

La idea de este libro nace de tres fuentes. La primera es la investigación que comencé en 2016 sobre tecnologías de la vigilancia, gracias a que ese año miembros de la Red Latinoamericana de estudios en Vigilancia, Tecnología y Sociedad, Lavits, me invitaron a coorganizar su encuentro anual en Buenos Aires. Los capítulos «Big data, algoritmos y el nuevo orden informacional» y «Hacktivismo, biometría y vigilancia genética» tienen su génesis en esa experiencia, y expuse avances parciales en artículos y conferencias. Entre ellos, en «Omnes et singulatim en el nuevo orden informacional. Gubernamentalidad algorítmica y vigilancia genética», en Poliética: Revista de Ética e Filosofia Política (San Pablo, Vol. 5 N.º 1, 2017); «Nuestros datos, ¿nosotros mismos?», incluido en el



 

 

 

 

Página 153



 

libro Corporalidades desafiantes, compilado por Daniel López del Rincón y Víctor Ramírez Tur (Barcelona, 2018); y «To be or not to be –a data set. Art, technology and identity in the new informational order», en Scripts, Dossier Art at the dawn of the Genetic and AI Revolution (Bruselas, 2020). En 2019 comencé a interceptar esta cuestión con la noción de Tecnoceno, como en la conferencia «Persistencias de lo humano en el Tecnoceno», que dicté ese año en la Pontificia Universidad Javierana de Bogotá.

 

La segunda fuente de este libro fue el impulso que implicó la escritura de mi artículo «La pandemia como “accidente normal”», publicado en abril de 2020 a partir de un encargo de Mario Greco para la revista Anfibia, de la Universidad Nacional de San Martín (Unsam). Le agradezco a él esa invitación, así como a María Mansilla su delicada edición. Más tarde, de nuevo Mario Greco, junto con Micaela Cuesta, me sugirieron escribir una segunda parte, referida al «shock de virtualización», que se publicó en Review Revista de Libros #25, en 2021. A ellos, gracias por su valoración de mi trabajo. De esos textos nacieron las bases de la introducción y el epílogo, respectivamente.

 

El tercer impulso me lo dio mi extraordinaria editora, Ana Laura Pérez, que esperó con paciencia que todo este material cuajara en un libro. Su confianza de hierro, su lectura afinada, sus consejos sabios son el tipo de abrazo que toda «persona en situación de autor» necesitaría tener. Mercedes Sacchi fue mi lectora-editora ideal: por obra de su capacidad analítica y sus sugerencias criteriosas, el texto es mucho más amable para las lectoras y los lectores. Gracias también a la dedicación de Laura Mazzini y en su persona, a todo el equipo editorial.

 

Sobre el final, quiero agradecer el apoyo incondicional de Alejandro Covello, quien no solo promovió enfáticamente la escritura del libro sino cuyas conversaciones fueron clave para entender los alcances transversales del «salto de escala» que estamos atravesando. Del mismo modo, sin el amor inmenso de mis hijos, Julia y Lucio, nada sería posible para mí: son personas increíbles, que me llenan de orgullo y refuerzan mi convicción en que cada esfuerzo que hacemos por lo que sabemos que es sustancial multiplica el sentido de nuestro mundo. Mi deseo íntimo es que algo de esto que escribí para ellos, para sus amigos y congéneres, les resulte en el futuro de alguna manera valioso.



 

 

 

 

Página 154



 

 

 

 

 

 

 

 

 

 

 

Bibliografía

 

 

 

 

Introducción. el vértigo del salto de escala

 

Agamben, Giorgio ([1995] 2014), Homo sacer. El poder soberano y la vida desnuda, Buenos Aires, Adriana Hidalgo.

 

Costa, Flavia (2012), «Biopolítica informacional. Apuntes sobre las tecnologías de gobierno de los públicos», en Revista Espacios Nueva Serie N.º 7, Universidad Nacional de la Patagonia Austral.

 

Foucault, Michel ([1977] 1991), «Nuevo orden interior y control social», en Saber y verdad, Madrid, La Piqueta.

 

—, ([1984] 1994), «¿Qué es la Ilustración? (Qu’est-ce que les Lumières?)», en Revista Actual N.º 28.

 

—, ([1976] 1977), «Derecho de muerte y poder sobre la vida», en Historia de la sexualidad I. La voluntad de saber, Madrid, Siglo XXI.

 

Martins, Hermínio (2018), The Tecnocene. Reflections on Bodies, Minds and Markets, Londres, Anthem Press.

 

Moore, Jason W. (ed.) (2016), Anthropocene or Capitalocene? Nature, History and the Crisis of Capitalism, Oakland, Kairos.

 

Morozov, Evgeny (2020), «The Tech “Solutions” for Coronavirus Take the Surveillance State to the Next Level», en The Guardian, 15/4/2020. En internet: theguardian.com/commentisfree/2020/apr/15/tech-coronav irus-surveilance-state-digital-disrupt

Nancy, Jean-Luc (2015), «The Existence of the World Is Always Unexpected», J-L Nancy en conversación con John Paul Ricco, en Davis, H. y Turping, E. (eds.), Art in the Anthropocene (ob. cit.).

 

Noto la diega, Guido y Waldem, Ian (2016), «Contracting for the “Internet of Things”: Looking into the Nest», en European Journal of



 

 

 

Página 155



 

Law and Technology, Vol. 7, N.º 2.

 

Oxfam 2020; Lawson, Max; Parvez butt, Anam; Harvey, Rowan; Sarosi, Diana; Coffey, Clare; Piaget, Kim y Thekkudan, Julie (2020), «Los milmillonarios del mundo poseen más riqueza que 4600 millones de personas», en Tiempo para el cuidado, informe enero 2020. En internet: www.oxfam.org.

Oxfam 2021; Berkhout, Esmé; Galasso, Nick; Lawson, Max; Rivero morales, Pablo; Taneja, Anjela y Vázquez pimentel, Diego (2021), El virus de la desigualdad, informe enero 2021. En internet: www.oxfam. org

 

Perrow, Charles ([1984] 1999), Normal Accidents: Living with High Risk Technologies, edición actualizada, Princeton, N. J., Princeton University Press.

 

Quammen, David (2012), Spillover. Animal Infections and the Next Human Pandemic, Nueva York, W. W. Norton & Co.

 

—, (2020a), «Questo virus è più pericoloso di Ebola e Sars», entrevista de Stella Levantesi, en Il Manifesto, Roma, 25/3/2020. En internet: ilmani festo. it.

—, (2020b), «Somos más abundantes que cualquier otro gran animal. En algún momento habrá una corrección», entrevista de Marc Bassets, en El País, Madrid, 19/4/2020. En internet: elpais.com

Simmel, Georg ([1903]1986), «Las grandes urbes y la vida del espíritu», en El individuo y la libertad. Ensayos de crítica de la cultura, Barcelona, Península.

 

Sloterdijk, P. (2015), «The Anthropocene: A Process-State at the Edge of Geohistory?», en Davis, H. y Turping, E. (eds.). Art in the Anthropocene: Encounters Among Aesthetics, Politics, Environments and Epistemologies, Londres, Open Humanities Press.

 

Steffen, Will; Broadgate, Wendy; Deutsch, Lisa; Gaffney, Owen y Ludwig, Cornelia (2015), «The trajectory of the Anthropocene: The great acceleration», en The Anthropocene Review, vol. 2, N.º 1.

 

Svampa, Maristella (2019), «El Antropoceno como diagnóstico y paradigma. Lecturas globales desde el Sur», en Utopía y Praxis Latinoamericana, vol. 24, N.º 84.



 

 

 

 

 

 

Página 156



 

Wilson, Edward (2003), El futuro de la vida, Barcelona, Galaxia Gutenberg.

 

Zuboff, Shoshana (2020), La era del capitalismo de la vigilancia, Barcelona, Paidós.

 

Sitios web consultados

 

www.forbes.com

 

chequeado.com

 

www.lavanguardia.com

 

www.forbes.com

 

 

 

 

Big data, algoritmos y el nuevo orden informacional

 

Deleuze, Gilles ([1990] 2005), «Posdata sobre las sociedades de control», en Ferrer, Christian (comp.), El lenguaje libertario. Antología del pensamiento anarquista contemporáneo, La Plata, Terramar.

 

Foucault, Michel ([1977] 1991), «Nuevo orden interior y control social», en Saber y verdad, Madrid, La Piqueta.

 

—, ([2004] 2006), Seguridad, territorio, población, Buenos Aires, FCE.

 

—, ([2004] 2007), Nacimiento de la biopolítica, Buenos Aires, FCE.

 

—, (2001), «El sujeto y el poder», en Dreyfus, Hubert y Rabinow Paul: Michel Foucault: más allá del estructuralismo y la hermenéutica, Buenos Aires, Nueva Visión.

 

Grassegger, Hannes y Krogerus, Mikael (2016), «Ich habe nur gezeigt, dass es die Bombe gibt», en Das Magazin N.º 48, 3/12/2016.

 

Han, Byung-Chul (2014), Psicopolítica. Neoliberalismo y nuevas técnicas de poder, Barcelona, Herder.

 

Hilbert, Martin (2017), «Obama y Trump usaron el Big Data para lavar cerebros», entrevista de David Hopenhayn en revista The Clinic, Santiago de Chile, 19/1/2017. En internet: www.theclinic. cl.

Kosinski, Michal, Stillwell, David y Graepel, Thore (2013), «Private Traits and Attributes are Predictable From Digital Records of Human



 

 

 

 

 

 

Página 157



 

Behavior», en Proceedings of the National Academy of Sciences (PNAS), vol. 110, N.º 15, 5802-5805.

 

Lazzarato, Maurizio (2006), Por una política menor. Acontecimiento y política en las sociedades de control, Madrid, Traficante de Sueños.

 

Malik, Momim (2020), «A hierarchy of limitations in machine learning», arXiv:2002.05193 (cs, econ, math, stat). En internet: arxiv.org.

Rouvroy, Antoinette y Berns, Thomas ([2013] 2016), «Gubernamentalidad algorítmica y perspectivas de emancipación. ¿La disparidad como condición de individuación a través de la relación?», en Adenda Filosófica N.º 1, Santiago de Chile.

 

Sadin, Eric ([2013] 2017), La humanidad aumentada, Buenos Aires, Caja Negra.

 

Tello, Andrés (2018), Anarchivismo, Buenos Aires y Madrid, La Cebra.

 

Tiqqun (2016), La hipótesis cibernética, Buenos Aires, Hekht.

 

Van dijck, José, Poell, Thomas y De vaal, Martijn (2018), The Platform Society. Public Values in a Connective World, Nueva York, Oxford University Press.

 

Youyou, Wu, Kosinski, Michal y Stillwell, David (2015), «Computer-Based Personality Judgments are More Accurate than Those Made by Humans», en Proceedings of the National Academy of Sciences (PNAS), vol. 112, N.º 4, 1036-1040.

 

Zuboff, Shoshana (2020), La era del capitalismo de la vigilancia, Barcelona, Paidós.

 

Zukerfeld, Mariano (2014), «Todo lo que usted quiso saber sobre Internet pero nunca se atrevió a googlear», en revista Hipertextos, vol. 2, N.º 1, 64-103.

 

Sitios web consultados

 

es.statista.com

 

localiq.com

 

www.bondhighplus.com

 

www2.telegeography.com

 

www.cloudinfrastructuremap.com

 

www.submarinecablemap.com



 

 

 

 

 

Página 158



 

wearesocial.com

 

clearview.ai

 

www.nytimes.com

 

www.oecd.org

 

www.buzzfeednews.com

 

 

 

 

Hacktivismo, biometría y vigilancia genética

 

Agamben, Giorgio (2005), Profanaciones, Buenos Aires, Adriana Hidalgo. Dewey-hagborg, Heather (2015), «Sci-Fi Crime Drama With a Strong Black  Lead»,  en  The  New  Inquiry,  6/7/2015.  En  internet:

 

thenewinquiry.com/sci-fi-crime-drama-with-a-strong-black-lead.

 

Duster,     Troy   (2015),  «A   Post-Genomic Surprise. The     Molecular

 

Reinscription of Race in Science, Law and Medicine», en The British Journal of Sociology, vol. 66, 1-27. En internet: doi.org

Foucault, Michel ([1977] 1991), «Nuevo orden interior y control social», en Saber y verdad, Madrid, La Piqueta.

 

—, ([2004] 2007), Nacimiento de la biopolítica, Buenos Aires, FCE.

 

—, (2014), Obrar mal, decir la verdad, Buenos Aires, Siglo XXI.

 

Herper, Matthew (2013), «Artist creates portraits from people’s DNA. Scientists say “That’s impossible”», Forbes, 31 de mayo. En internet: www.forbes.com.

Lyon, David (2018), The Culture of Surveillance. Watching as a Way of Life, Cambridge, Polity Press.

 

Martialay, Mary (2013), «Stranger Visions. Interview with Heather Dewey-Hagborg», en The Approach. Discovery, Innovation and Imagination at Rensselaer Polytechnic Institute, 11/4/2013. En internet: approach.rpi.edu/2013/04/11/stranger-visions.

 

Sitios web consultados

 

snapshot.parabon-nanolabs.com

 

www.technologyreview.com

 

deweyhagborg.com



 

 

 

 

 

Página 159



 

deweyhagborg.com

 

deweyhagborg.com

 

biononymous.me

 

www.instagram.com

 

exposing.ai

 

ahprojects.com

 

vframe.io

 

www.lozano-hemmer.com

 

www.ecozine.com

 

 

 

 

Formas de vida infotecnológicas

 

Agita mundo (2002), Declaración de São Paulo para promover la actividad física en el mundo. Documento de Trabajo, San Pablo, 12/10/2002. En internet: portalagita.org.br

Baricco, Alessandro (2020), Quel che stavamo cercando [Lo que estábamos buscando]. En internet: libroprivato.it

Becker, Gary ([1964] 1983), El capital humano. Un análisis teórico y empírico referido fundamentalmente a la educación, Madrid, Alianza.

 

Crary, Jonathan (2015), 24/7. El capitalismo tardío y el fin del sueño, Buenos Aires, Paidós.

 

Featherstone, Mike (2000), Cultura del consumo y posmodernismo, Buenos Aires, Amorrortu.

 

Feenberg, Andrew (2002), Transformar la tecnología, una nueva visita a la teoría crítica, Bernal, Ed. Universidad Nacional de Quilmes.

 

Fisher, Mark ([2012] 2016), «Deseo postcapitalista», en Realismo capitalista. ¿No hay alternativa?, Buenos Aires, Caja Negra.

 

Foucault, Michel ([2004] 2007), Nacimiento de la biopolítica, Buenos Aires, FCE.

 

Friedman, David (2000), Law’s Order. What Economics Has To Do With Law and Why it Matters, Princeton, N. J., Princeton University Press.

 

Groys, Boris (2014), «La obligación del diseño de sí», en Volverse público, Buenos Aires, Caja Negra.



 

 

 

 

 

 

Página 160



 

—, (2008), «El consumo es hoy la gran ideología», en Babelia, El País, Madrid.

 

Kurzweil, Ray ([2005] 2012), La Singularidad está cerca. Cuando los humanos transcendamos la biología, Berlín, Lola Books.

 

Lash, Scott (2005), «Formas tecnológicas de vida», en Crítica de la información, Buenos Aires, Amorrortu.

 

Marcuse, Herbert ([1964]1993), El hombre unidimensional, Buenos Aires, Planeta.

 

Ministerio de coordinación y gestión pública, Unidad de Coordinación

 

para el Desarrollo del Capital Mental (2016), «Capital Mental. Por qué es importante y cómo potenciar su desarrollo», soporte PDF, Provincia de Buenos Aires. En internet: www.gba.gob.ar

Mountcastle, Vernon (1998), «Brain Ciencie at the Century’s Ebb», en Dædalus 127, N.º 2, 1-36.

 

Mumford, Lewis ([1934] 1982), Técnica y civilización, Madrid, Alianza. Orlan (1999). «Orlan Conférence», Madrid, Círculo de Bellas Artes, 21

 

de mayo.

 

Orlan (2007). «Entrevista con Eugenio Viola», en Bader J., Kuspit d.,

 

Hegyi l., Jacub m., P. Phelan p., Orlan, viola e. (eds.) Orlan, Le récit,

 

Milán, Charta.

 

Rose, Nikolas ([2007] 2012), Políticas de la vida, La Plata, Unipe.

 

Rose, Nikolas y Abi-rached, Joelle (2013), NeuroThe New Brain Sciences and the Management of the Mind, Princeton, N. J./Oxford, Princeton University Press.

 

Sibilia, Paula (2008), La intimidad como espectáculo, Buenos Aires, FCE. Silicon valley pain index (2021), Myers-lipton, Scott y otros, Instituto de Derechos Humanos de la Universidad Estatal de San José. En internet:

 

www.sjsu.edu

 

Stelarc (1995), «Extended-Body», entrevista con Paolo Atzori y Kirk Woolford, para revista CTHeory.net, 9/6/1995, realizada en la Academia de Artes Mediales de Colonia, Alemania.

 

Virno, Paolo (2003), Gramática de la multitud, Buenos Aires, Colihue.

 

 

Sitios web consultados



 

 

 

 

 

 

Página 161



 

www.lanacion.com.ar

 

www.gba.gob.ar

 

www.theguardian.com

 

proyectoabolicionista.wordpress.com

 

humanityplus.org

 

www.hedweb.com

 

www.nicolacostantino.com.ar

 

www.pagina12.com.ar

 

virginiademedeiros.com.br

 

www.erikkessels.com

 

www.bbc.com

 

 

 

 

Epílogo. el malestar en la cultura digital

 

Ávila, Renata (2021), «Tech New Deal: un nuevo pacto democrático para la era digital», conferencia en línea, 6/5/2021. En internet: cartagenapi ensa.es

Baricco, Alessandro (2019), The Game, Barcelona, Anagrama.

 

Böstrom, Nick (2014), Superinteligencia. Caminos, peligros, estrategias, Madrid, Teell.

 

Canales, María Paz (2020), «El paradigma tecno-político que crea la pandemia: el riesgo y la oportunidad», Lavits_Covid19_#9, 16/6/2020. En internet: lavits.org

Carr, Nicholas (2011), Superficiales. ¿Qué está haciendo internet con nuestras mentes?, Madrid, Taurus.

 

Chakrabarty, Dipesh (2019), «El clima de la historia: Cuatro tesis», en Utopía y Praxis Latinoamericana, vol. 24, N.º 84.

 

Couldry, Nick y Mejías, Ulises (2019), The Costs of Connection. How Data Is Colonizing Human Life and Appropriating it for Capitalism, Stanford University Press.

 

Fisher, Mark (2016), Realismo capitalista. ¿No hay alternativa?, Buenos Aires, Caja Negra.

 

Internet health report 2020, Fundación Mozilla. En internet: 2020.intern ethealthreport.org



 

 

 

 

Página 162



 

Klein, Naomi (2020), «Distopía de alta tecnología: la receta que se gesta en Nueva York para el post-coronavirus», en La Vaca, 26/5/2020. En internet: www.lavaca.org. (Originalmente publicado en The Intercept, 8 de mayo de 2020. En internet: theintercept.com)

Kosinski, Michal, Stillwell, David y Graepel, Thore (2013), «Private Traits and Attributes Are Predictable from Digital Records of Human Behavior», en Proceedings of the National Academy of Sciences (PNAS), vol. 110, N.º 15, 5802-5805.

 

Mayer-schönberger, Vícktor y Ramge, Thomas (2019), La reinvención de la economía. El capitalismo en la era del Big Data, Madrid, Turner.

 

Morozov, Evgeny (2018), Capitalismo Big Tech: ¿Welfare o neofeudalismo digital?, Madrid, Enclave de Libros.

 

Negroponte, Nicholas (1995), Ser digital, Buenos Aires, Atlántida.

 

Palacio, Germán, Vargas, Alberto y Hennessy, Elizabeth (2018), «Antropoceno o Capitaloceno en fricción. Desencuentros entre Geociencias e Historia» en Alimonda, H. y otros. Ecología política latinoamericana. Pensamiento crítico y horizontes emancipatorios en clave sur, vol. 2, 265-288, Clacso, Buenos Aires.

 

Perrow, Charles (2007), The Next Catastrophe. Reducing Our Vulnerabilities to Natural, Industrial and Terrorist Disasters, Princeton, N. J., Princeton University Press.

 

Sadin, Éric (2018), La silicolonización del mundo. La irresistible expansión del liberalismo digital, Buenos Aires, Caja Negra.

 

Schiller, Dan (1999), Digital Capitalism: Networking the Global Market System, Cambridge, Mass MIT Press.

 

Srnicek, Nick (2018), Capitalismo de plataformas, Buenos Aires, Caja Negra.

 

Svampa, Maristella (2019), «El Antropoceno como diagnóstico y paradigma. Lecturas globales desde el Sur», en Utopía y Praxis Latinoamericana, vol. 24, N.º 84.

 

Urban, Tim (2015), «The AI Revolution: The Road to Superintelligence»,

 

dos partes. En internet: waitbutwhy.com

 

Wark, McKenzie (2019), Capital Is Dead, Is This Something Worse?, Londres, Verso.



 

 

 

 

 

 

Página 163



 

Youyou, Wu, Kosinski, Michal y Stillwell, David (2015), «Computer-Based Personality Judgments are More Accurate Than Those Made by Humans», en Proceedings of the National Academy of Sciences (PNAS), vol. 112, N.º 4, 1036-1040.

 

Zuboff, Shoshana (2020), La era del capitalismo de la vigilancia, Barcelona, Paidós.

 

Sitios web consultados

 

www.washingtonpost.com

 

www.forbes.com

 

www.abc.es

 

www.abc.es

 

www.bbc.com



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Página 164



 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Flavia Costa es doctora en Ciencias Sociales por la Universidad de Buenos Aires e investigadora del Consejo Nacional de Investigaciones Científicas y Técnicas (Conicet). Es profesora asociada del seminario Informática y Sociedad y titular del seminario de doctorado Estética, biopolítica, estado de excepción. Una lectura de Giorgio Agamben, en la Facultad de Ciencias Sociales de la UBA. Dicta también la materia Teorías de la Cultura y el Poder. Michel Foucault, en la Escuela Interdisciplinaria de Altos Estudios Sociales de la Universidad Nacional de San Martín. Fue una de las fundadoras de la revista Artefacto. Pensamientos sobre la técnica e integra el colectivo Ludión. Exploratorio latinoamericano de poéticas/políticas tecnológicas. En la última década tradujo, en colaboración, buena parte de la obra de Giorgio Agamben al castellano. Publicó la novela Las anfibias y, junto con Pablo Rodríguez, La salud inalcanzable. Biopolítica molecular y medicalización de la vida cotidiana.



 

 

 

 

 

 

 

 

 

 

 

 

Página 165



 

 

 

 

 

 

 

 

 

 

 

Notas

 

 

[1]  Una cifra razonable e incluso alta. Según datos oficiales del Ministerio de Salud de la Argentina, es el equivalente a lo que se pagó en este país por cada dosis de la vacuna Sputnik V. Según esos mismos datos oficiales, la vacuna AstraZeneca se pagó entre 4 y 4,1 dólares la dosis. La Sinopharm, casi 20 dólares. Curiosa y sintomáticamente, en la Unión Europea hasta enero de 2021 no se habían difundido oficialmente los valores de las vacunas. El diario español La Vanguardia lo informaba así el 15 de enero: «Tanto la Comisión Europea como las farmacéuticas han rechazado confirmar cuál es su precio, aunque Bruselas siempre ha insistido en que deben ser asequibles. […] No obstante, debido a un error, la ministra belga de Presupuestos, Eva de Bleecker, publicó a través de su cuenta de Twitter el precio de cada vacuna durante un debate en el Parlamento federal del país. Según el tuit —que luego eliminó— la vacuna de Pfizer-BioNtech costaría 12 euros y 14,6 euros la de Moderna; mientras que la de AstraZeneca sería de 1,78 euros. Preguntada en reiteradas ocasiones al respecto, la ministra siempre ha rechazado admitir o desmentir la información debido al carácter “confidencial” de los contratos». <<

 

[2] A comienzos de 2015, la directora científica de Parabon, Ellen McRae Greytak, afirmó que la tecnología desarrollada por la empresa se basa parcialmente en el trabajo de Mark D. Shriver, profesor de Antropología Genética en la Universidad de Penn State. <<



 

 

 

 

 

 

 

 

 

 

 

 

Página 166



 

 

 

Índice de contenido

 

 

 

Introducción. El vértigo del salto de escala

 

La pandemia como «accidente normal»

 

Cuestiones de método

 

Big data, algoritmos y el nuevo orden informacional

 

Los datos nunca están «dados»

 

La episteme de la información

 

Sociedades de control y nuevo orden informacional

 

Del gobierno de los futuros conductuales

 

Big data, perfilado y retroacción predictiva

 

Minería de datos, extractivismo y anticipación

 

Vigilancia (im)personal y la ideología de lo «ágil»

 

Hacktivismo, biometría y vigilancia genética

 

Identificaciones genéticas

 

«Interpretaciones especulativas»

 

Elementos para el debate

 

Formas de vida infotecnológicas

 

La «preparación cultural» para la tecnificación

 

Optimización

 

Susceptibilidad y programación

 

Transhumanos

 

Aplanamiento

 

Estetización

 

Creadores de la propia audiencia

 

A  distancia Museificación, exclusión Compresión, aceleración, expansión

 

Epílogo. El malestar en la cultura digital

 

Shock de virtualización

 

Luces y sombras del tech new deal

 

Reciprocidad, redundancia, responsabilidad

 

Entre geología e historia humana: tecnologías

 

Capitalismo, tecnoindustria y bio-tanato-política

 

¿Es posible un transhumanismo crítico?

 

Agradecimientos

 

Bibliografía

 

Sobre la autora


FIN

No hay comentarios:

Publicar un comentario

Suscripcion

📚 Biblioteca Emancipación

Accede y recibe automáticamente cada nuevo libro publicado

Suscríbete gratis

📩 Contacto: emancipacionbiblioteca@gmail.com