Título Original: ©
Versión Original: ©
Circulación conocimiento libre, Diseño y edición digital de Versión original
de textos:
https://ww3.lectulandia.com/download.php?t=2&d=bTV3RmllTm4v&ti=Tecnoceno
Licencia Creative Commons:
Emancipación Obrera utiliza una
licencia Creative Commons, puedes copiar, difundir o remezclar nuestro contenido,
con la única condición de citar la fuente.
La Biblioteca Emancipación Obrera es un medio
de difusión cultural sin fronteras, no obstante los derechos sobre los contenidos
publicados pertenecen a sus respectivos autores y se basa en la circulación del
conocimiento libre. Los Diseños y edición digital en su mayoría corresponden a Versiones
originales de textos. El uso de los mismos son estrictamente educativos y está
prohibida su comercialización.
Autoría-atribución: Respetar la autoría del texto y el nombre de los autores
No comercial: No se puede utilizar este trabajo con
fines comerciales
No derivados: No se puede alterar, modificar o reconstruir
este texto.
Portada E.O. de:
https://ww3.lectulandia.com/download.php?t=2&d=bTV3RmllTm4v&ti=Tecnoceno
© Edición, reedición y Colección Biblioteca Emancipación:
TECNOCENO
Algoritmos, Biohackers Y Nuevas Formas De
Vida
Flavia Costa
Tecnoceno
Algoritmos, Biohackers Y
Nuevas Formas De Vida
Flavia Costa
Chernóbil, la crisis financiera de 2008, los incendios en el Amazonas o
la pandemia de coronavirus no son eventos aislados. Son «accidentes normales»,
síntomas del crecimiento y la destrucción acelerados, que, en menos de setenta
años, transformaron nuestra vida y la del planeta para siempre.
En Tecnoceno Flavia Costa delinea con sutileza la trama
cultural y política de este mundoambiente alucinatorio cuya virtualidad se
sostiene en una red material hecha de cables, satélites y edificios, por donde
desfilan bioartistas, ciencia forense, organizaciones de derechos humanos,
sistemas de vigilancia y empresarios transhumanistas. Y advierte sobre el papel
clave que cumplen hoy las huellas: las biométricas, las comportamentales y las
que dejamos en el suelo, la atmósfera y los océanos. Unas porque su capitalización
ha desatado una feroz batalla geopolítica. Otras porque de ellas depende el
futuro de la Tierra.
Flavia Costa
Tecnoceno
Algoritmos, Biohackers Y Nuevas Formas De Vida
ePub r1.0
Un_Tal_Lucas 16.11.2025
Título original: Tecnoceno
Flavia Costa, 2021
Editor digital: Un_Tal_Lucas
ePub base r3.0 (ePub 3)
Por la naturaleza de la red, puede que algunos de los vínculos a páginas
web en el libro ya no sean accesibles.
Para Julia y Lucio
Para Alejandro
Introducción
El vértigo del salto de escala
¿Por qué «Tecnoceno»? • El cruce de dos aceleraciones: técnica y
biológica • El salto de escala en nuestra relación con el
mundoambiente • De Chernóbil a la pandemia de covid-19: la era de los
«accidentes normales», inevitables pero previsibles • Un cóctel explosivo: el
volumen de la especie, los desarrollos tecnoindustriales, la degradación del
ecosistema y la enorme desigualdad • El shock de virtualización • Seguimos
siendo modernos • La política se biologiza, la vida se tecnifica
Podríamos llamarnos «utopistas invertidos»: mientras que los utopistas
corrientes son incapaces de producir realmente lo que pueden imaginar, nosotros
somos incapaces de imaginar lo que realmente estamos produciendo.
Günther Anders,
«Tesis para la era atómica», 1959
Después de atravesar el desconcierto inicial, quedó claro que la
pandemia del coronavirus no ha sido solamente la irrupción de un acontecimiento
novedoso, sino el signo de una gran transformación epocal. Signo de un salto de
escala en nuestra relación con el mundoambiente, que se venía macerando al
menos desde mediados del siglo pasado.
Si queremos ubicar este acontecimiento tan dislocante en una serie,
propongo hacerlo en la de los «accidentes normales» de la nueva época abierta
con el proceso que en 2005 el químico Will Steffen llamó la Gran Aceleración, y
que, siguiendo la sugerencia del filósofo alemán Peter Sloterdijk (2015), del
francés Jean-Luc Nancy (2015) y del sociólogo portugués nacido en Mozambique
Hermínio Martins (2018), denomino Tecnoceno: la época en la que, mediante la
puesta en marcha de tecnologías de alta complejidad y altísimo riesgo, dejamos
huellas en el mundo que exponen no solo a las poblaciones de hoy, sino a las
generaciones futuras, de nuestra especie y de otras especies, en los próximos
milenios. Huellas que pueden, como en el caso del accidente nuclear de Chernóbil,
ocurrido en 1986, poner en riesgo la vida de medio planeta, y cuyos efectos
sobre el ecosistema perdurarán por tanto o más tiempo que el que ya lleva en la
Tierra la humanidad. Se estima que la radioactividad emanada de la explosión
del reactor de Chernóbil se extinguirá recién dentro de unos 260 a 300 mil
años; para darnos una idea, de hace 300 mil años datan justamente las huellas
más antiguas de Homo sapiens, encontradas en 2017 en el actual
territorio de Marruecos.
Utilizo el término Tecnoceno como una declinación o especificación de
otro término, el de Antropoceno, propuesto en el año 2000 por el químico
atmosférico holandés Paul Crutzen, premio Nobel 1995, para señalar que la
influencia del comportamiento humano sobre la Tierra en las últimas décadas ha
sido tan significativa como para implicar transformaciones en el nivel
geológico que han traspasado ya el umbral de irreversibilidad, no admiten
vuelta atrás. De hecho, pese a las encendidas discusiones que la propuesta de
Crutzen suscitó entre geólogos y especialistas de otros ámbitos expertos, el 20
de mayo de 2019, el Grupo de Trabajo sobre el Antropoceno dentro de la
Subcomisión de Estratigrafía del Cuaternario, que es a su vez un cuerpo de la
Comisión Internacional de Estratigrafía, resolvió por 29 votos contra 4 que el
Antropoceno constituye una nueva capa estratigráfica en el planeta. En esa
misma reunión, el Grupo dató el inicio del Antropoceno en la Era Atómica —y no,
como había sido la propuesta original de Crutzen, en los comienzos de la era
industrial, con la invención de la máquina de vapor y el ingreso en la era de
los combustibles fósiles.
Esta precisión temporal es reveladora, en la medida en que ubica el
inicio de la era del «antropos» en un momento particularmente denso en lo que
respecta a la capacidad de afectar de modo material el planeta: la posibilidad
concreta de liberar energía nuclear. Es por esto que me inclino
a poner el acento en la cuestión del despliegue técnico (Tecnoceno), en las
infraestructuras construidas y en los modos de energía desencadenados, del
mismo modo en que otros lo han puesto en la economía política y en el entramado
de relaciones sociales propios de la acumulación capitalista globalizada como
eje propiciador de este gran salto, y hablan entonces de Capitaloceno (Moore,
2016; Svampa, 2019). En ambos casos, lo que hacemos es echar luz sobre una
dimensión particularmente significativa para comprender el Antropoceno, y sobre
la que creemos necesario reflexionar en profundidad para promover formas de
vida alternativas.
Entre los elementos que, según estos expertos, definen el
Antropoceno/Tecnoceno se cuentan el cambio climático, producto del aumento de
las emisiones de dióxido de carbono y otros gases de efecto invernadero; la
pérdida de biodiversidad y el aumento de la población humana; la alteración,
por obra del humano, de ciclos biogeoquímicos como los del agua, del carbono,
del nitrógeno y del oxígeno por medio de la actividad industrial, la
deforestación, la contaminación de suelos y napas por acción de fertilizantes y
plaguicidas. Esto coincide con lo señalado por Steffen, quien describió doce
curvas de aceleración muy pronunciada a partir de mediados del
siglo xx en áreas sociales críticas: el crecimiento de la población,
del producto interno bruto (PIB) real a nivel global, de la inversión
extranjera directa, de la población urbana, la utilización de energía primaria,
el consumo de fertilizantes, el uso del agua potable, la construcción de
grandes represas, la producción de papel, el transporte, las telecomunicaciones
y el turismo internacional. A las que sumó otras doce curvas similares en el
Sistema Tierra: el crecimiento en las emisiones de dióxido de carbono, óxido
nitroso y metano, la caída del ozono estratosférico, el aumento de la
temperatura de la superficie terrestre, la acidificación oceánica, la captura
de peces marinos, el aumento de la acuicultura de camarón, el aumento del
nitrógeno en zonas costeras, la pérdida de bosques tropicales, la degradación
de la biosfera terrestre y el aumento de las tierras preparadas para cultivo.
En la historia del Tecnoceno, la década de 1970 ha sido un momento
particularmente denso, de catalización de tendencias preexistentes. Veámoslo a
la luz de unos pocos hechos. En 1970, el físico Francis Crick publicó en la
revista Nature lo que él denominó el Dogma Central de la biología
molecular, donde propone una explicación unidireccional (desde el ADN hacia el
ARN, luego hacia la proteína hasta desencadenar la acción celular) de los
mecanismos de transmisión de la herencia genética. Posteriormente, ese «dogma»
ha sido cuestionado, sobre todo en lo que respecta a esa vía unilineal —se sabe
hoy que no es la única opción—, pero los ensayos en torno a él propiciaron
inéditas experimentaciones con la posibilidad de descifrar, alterar y
reprogramar el llamado «código de la vida». En los tres años siguientes, se
desarrollaron las primeras experiencias con la técnica del ADN recombinante, en
la que se crea de manera artificial, in vitro, una molécula de ADN
a partir de la unión de secuencias de ADN de dos organismos que en condiciones
silvestres jamás se juntarían. En 1973, el genetista Stanley Cohen y los
bioquímicos Paul Berg y Herbert Boyer transfirieron con éxito el gen de una
rana en el ADN de una bacteria Escherichia colli.
Ya en nuestra región, entre 1971 y 1973 se desarrolló en el Chile de
Salvador Allende el proyecto Cybersyn —por las siglas en inglés de «sinergia
cibernética»—, también conocido como SYNCO, sistema de información y control,
que lideró el científico británico Stafford Beer, convocado por el entonces
ministro de Hacienda Fernando Flores. Su propósito era gestionar todas las
empresas controladas por el Estado en tiempo real mediante una red de teletipos
interconectados, utilizando los principios de la cibernética.
Poco después, en 1974, apareció en sociedad la máquina Altair 8800,
considerada la chispa que encendió el boom de la computadora
personal. Fue para ella que Bill Gates y Paul Allen diseñaron el lenguaje de
programación Altair BASIC, y un año más tarde fundaron Micro Soft, nombre que
luego cambiaría a Microsoft.
En 1977 Michel Foucault brindó una breve y hoy muy difundida
intervención en la Universidad de Vincennes titulada «Nuevo orden interior y
control social», en la que, ante el declive evidente del modelo de gobierno
disciplinario de las poblaciones, anticipaba el escenario de lo que luego
Gilles Deleuze denominaría «sociedad de control». Esta nueva sociedad estaría
basada en un «sistema de información general» que no tiene por objetivo central
la vigilancia continua de cada individuo, sino la posibilidad de intervenir
allí donde se constituya un peligro —o una oportunidad
comercial o política—: «una especie de movilización permanente de los
conocimientos sobre los individuos», de base informacional. Por último, en 1979
se produjo el más grande incidente en una planta civil de energía nuclear hasta
ese momento, y el tercero en envergadura todavía hoy después de Chernóbil (en
la entonces Unión Soviética) y Fukuyima (Japón, 2011). Se trató de la explosión
del reactor nuclear de Three Mile Island (en Pensilvania, EE. UU.), a partir de
la cual el investigador estadounidense Charles Perrow, especialista en
sociología de las organizaciones, acuñó la noción de «accidente normal».
Con «accidente normal», Perrow alude a un tipo de perturbación mayor, un
acontecimiento disruptivo de gran envergadura, al mismo tiempo previsible e inevitable,
que es propio de los sistemas que involucran tecnologías de alto riesgo. En
estos sistemas complejos, los factores tecnológicos y organizacionales están
fuertemente imbricados y tienen dos características que los distinguen de los
sistemas lineales. La primera son los «acoplamientos fuertes»; esto significa
que los procesos ocurren a gran velocidad y que buena parte de ellos, una vez
iniciados, no pueden ser detenidos rápidamente: no hay tecla off en
una corrida bancaria, un derrame de petróleo o un reactor nuclear que comienza
a explotar. En estos acoplamientos existen una o más secuencias invariables que
no pueden ser resumidas o simplificadas, y ante una falla o un imprevisto, el
margen para reemplazar materiales o personas competentes es muy escaso. La
segunda característica de los sistemas sociotécnicos complejos es que en ellos
se dan interacciones inesperadas: distintos componentes del sistema pueden
interactuar con otros elementos fuera de la secuencia prevista por el diseño, o
incluso con elementos externos al sistema, como ocurre por ejemplo en «las
centrales nucleares, la producción de ADN recombinante o los cargueros que
transportan sustancias de elevada toxicidad», tal como sostiene Perrow en el
libro Accidentes normales, publicado en inglés en 1984.
Los «accidentes normales» o «accidentes sistémicos», como también los
llama Perrow, no son normales porque sean frecuentes, sino porque son
inherentes a un sistema complejo. Dice este autor: «… la muerte es lo normal de
los mortales, y solo morimos una vez. Los accidentes sistémicos son infrecuentes, raros incluso, pero eso no es en absoluto
tranquilizador cuando pueden provocar catástrofes».
Estos accidentes no son producto de una guerra, una negligencia o un
sabotaje, sino que son inseparables de la productividad del sistema, de su
desarrollo, de su incremento y de las contingencias que siempre se abren cuando
se dispara una acción tecnológica hipercompleja hacia el futuro. Sin embargo,
la clave radica en que estos «accidentes normales», si bien son inevitables,
también son previsibles, y es posible reducir los riesgos de manera
considerable si se toma en serio el mundo que efectivamente habitamos hoy.
La pandemia como «accidente normal»
La pandemia entonces puede ser interpretada como un «accidente normal»
de la nueva escala abierta con el Tecnoceno. Una nueva escala en la cual los
problemas sistémicos se dirimen no solo, y no tanto, entre individuos y
sociedades —como estábamos acostumbrados a pensar— ni entre individuos y
Estado, y ni siquiera entre Estados, sino que empezamos a participar cada vez
con mayor frecuencia en situaciones que nos ponen a los individuos, a las
sociedades y a los Estados ante problemas, incluidas potenciales catástrofes,
de la escala de la especie —incluso de la vida del planeta en su conjunto—.
Problemas que implican al Sistema Tierra —un sistema bio-socio-técnico
sumamente complejo— en su totalidad; que dejan expuestas a cientos de
generaciones de la nuestra y de otras especies y que involucran ámbitos
expertos muy diferentes.
Hoy habitamos el mundo que se pensó, se edificó y en algunos casos
simplemente se dejó desarrollar en las últimas décadas. Y esto es así porque,
en paralelo a esta aceleración científico-técnica, se produjo también la
aceleración de otros procesos biológicos y sociales. Veamos en particular tres:
el crecimiento de la población humana, el incremento de la urbanización y
la desigualdad estructural, que también se acrecentó a pasos agigantados en
estos años.
La primera vez que hubo mil millones de humanos sobre la Tierra fue en
torno a 1800. Tuvo que pasar más de un siglo y medio para que esa cifra se
triplicara: en 1960 éramos 3 mil millones. Y en los últimos sesenta años, ese
número se multiplicó por 2,5: hoy somos entre 7,6 y 7,7 mil millones de
personas. Junto con el crecimiento en número absoluto, se registra un fuerte
aumento de la proporción de personas que viven en ciudades: en 1950, menos del
30 por ciento de los habitantes del mundo vivía en regiones urbanas (unas mil
millones de personas). Hoy casi el 60 por ciento lo hace, es decir, hay
alrededor de 4,2 mil millones de aquellos a los que el sociólogo alemán Georg
Simmel llamaba «urbanitas». De quienes no siempre puede decirse que hayan
elegido ese destino por espíritu cosmopolita. Desplazados por la expansión de
la frontera agropecuaria, por los loteos de tierras de uso común, por la
desertificación, por conflictos políticos, muchos están allí simplemente porque
no encuentran otro lugar donde establecerse.
Una de las necesidades elementales que debería tener satisfecha toda
persona es el agua potable. Sin embargo, tres de cada diez personas en el mundo
carecen de acceso a ella en sus hogares. Y seis de cada diez no poseen
servicios sanitarios. En diciembre de 2020, el agua potable comenzó a cotizar
en la bolsa de Wall Street, dentro de un índice llamado Índice del Agua Nasdaq
Veles California, del grupo financiero CME (que reúne el Chicago Mercantile
Exchange y el Chicago Board of Trade). Se estableció que, en su primera
cotización, la cantidad de 1 233 000 litros de agua tuviera un costo de 486
dólares. Es importante entender que esto no simplemente «ocurre»: son
decisiones políticas, económicas y jurídicas las que están arrojándonos a la
catástrofe humanitaria.
Esto también es indicio de que no se trata de cuántos somos —el
crecimiento es, en sí mismo, un signo afirmativo de potencia—, sino de la
dramática desigualdad que organiza nuestros intercambios. Desigualdades
socieconómicas, étnicas, de edad, de género, territoriales, geográficas.
Detengámonos por un momento en las desigualdades distributivas. A comienzos de
2020, antes de la apertura de Foro Económico Mundial de Davos (Suiza), se
conoció el informe anual de la organización no
gubernamental Oxfam, según el cual 2153 personas tienen hoy más dinero
que los 4600 millones de seres humanos más pobres del planeta, el 60 por ciento
de la población mundial. Pero tampoco se trata de que los recursos sean
escasos: el 22 de mayo de 2020, la revista Forbes publicó en
su tapa que, en los dos meses anteriores —desde que la Organización Mundial de
la Salud declarara la pandemia a mediados de marzo hasta mediados de mayo—,
veinticinco de las personas más ricas del mundo habían incrementado su patrimonio
en 255 mil millones de dólares. Se trataba, fundamentalmente, de empresarios de
las telecomunicaciones, las redes sociales y el comercio electrónico; los tres
primeros de la lista eran Mark Zuckerberg, CEO de Facebook; Jeff Bezos,
fundador y hasta febrero de 2021 CEO de Amazon, y Colin Huang, fundador de
Pinduoduo, la segunda cadena de mercado en línea más grande de China después de
Alibaba. Y el anexo metodológico del informe de Oxfam sobre desigualdad del año
2021 recoge que, entre 2020 y 2021, los 10 millonarios más ricos del mundo
incrementaron su riqueza en cerca de 540 mil millones de dólares. Esa cifra —la
riqueza que obtuvieron durante la pandemia, no la acumulada— serviría para
garantizar entre tres y cuatro años de dos vacunas anuales para toda la
población mundial a un costo por vacuna de 10 dólares la dosis[1]. En julio de 2021, Jeff Bezos, quien encabeza la lista de los más
grandes millonarios de ese año, hizo un viaje de 11 minutos en una cápsula
espacial privada de su empresa Blue Origin. Se estima que desde su creación en
2000, Bezos invirtió en ese emprendimiento 7,5 mil millones de dólares.
Este punto es clave. Si bien es cierto que «somos muchos» y que eso
entraña poderosos desafíos globales —sobre todo porque se ha acentuado en
paralelo el proceso de urbanización, y muchas veces no en las condiciones
adecuadas—, de lo que se trata es de que la riqueza existente, e incluso la que
se genera año a año, está demasiado mal repartida, y esto no ocurre de forma
fortuita. Está íntimamente asociado con la tendencia incontestable tanto en
Occidente como en Oriente hacia la implantación de estados de excepción de
diversos tipos para robustecer las prerrogativas de los poderes fácticos. Esa
es una de las razones por la cual no nos está resultando posible construir
contenciones viables, de escala de conjunto, para los riesgos relativos a la
vida que esta época supone.
Como se sabe, las zoonosis están asociadas al hecho de que poblaciones
humanas entablan relación cercana con animales que no habían sido hasta el
momento parte de la convivencia cotidiana, ya sea como compañía o como parte de
la dieta. Si bien en el planeta hay millones de virus que residen en animales y
jamás detectamos cuando sus ecosistemas están intactos, a medida que invadimos
y destruimos ambientes vírgenes, esa «perturbación ecológica hace que surjan
enfermedades», como afirma David Quammen en su libro Spillover. Animal
infections and the next human pandemic (2012). Tengamos en cuenta
que, tal como explicaba el entomólogo Edward Wilson en su estudio El
futuro de la vida, de 2003, «cuando el Homo sapiens pasó
la barrera de los seis mil millones [en 1999], ya habíamos superado en cien
veces la biomasa de cualquier especie de animal grande que haya existido en la
Tierra». En efecto, hoy, entre los seres humanos (36 por ciento) y los animales
domesticados para nuestro consumo o como mascotas (59,8 por ciento),
constituimos el 95 por ciento de los mamíferos terrestres grandes. Y no se
trata solo de que rompemos el equilibrio ecológico. Junto con eso, ofrecemos
nuestro propio cuerpo como hábitat alternativo para los virus, que se ven
beneficiados con este salto: adaptándose a nuestras características biológicas,
ingresan en el huésped animal más movedizo del planeta. Un anfitrión que, por
añadidura, es un carnívoro hambriento, y muchas veces no percibe otra
alternativa mejor para alimentarse que incorporar nuevos animales a su dieta.
No hace falta enumerar todas las previsiones que estuvieron a mano en
los últimos años —la investigación de Quammen sobre las zoonosis; el film Contagio,
de Steven Soderbergh; los libros La próxima plaga, de Laurie
Garret; y Pandemias, de Peter Doherty, entre muchos otros, ya nos
fueron recordados puntillosamente durante las primeras semanas de la pandemia—.
Sí, en cambio, es preciso tener en cuenta que todas estas previsiones deben ser
tomadas como base para una política de disminución de los riesgos.
Ya después de la epidemia del SARS 1, en 2003, había quedado claro que
las nuevas zoonosis estaban disparadas y que era necesario prepararse para
ellas. Que era preciso investigarlas científicamente y equipar los sistemas de
salud con más y mejores estrategias e insumos. Que la protección
de la salud pública o colectiva no puede limitarse a brindar informaciones
sobre cómo cuidarse, sino que también debe ir acompañada de acciones más
concretas —una forma particular de relación entre las agencias de gobierno y
los ciudadanos, propia de la gubernamentalidad neoliberal, es aquella que
promueve que las personas estén informadas acerca de que deben cuidarse, y
acaso cómo hacerlo, mientras se desatienden y desfinancian las infraestructuras
materiales, los equipamientos, la investigación científica y la formación de
los trabajadores y profesionales de la salud para tratar con enfermedades
nuevas y no tan nuevas; es lo que denominé en distintos trabajos «biopolítica
informacional»—. Que estos casos deben afrontarse con rapidez e información, no
mediante la política del secreto, como hicieron las autoridades chinas con el
hoy fallecido oftalmólogo Li Wenliang, del hospital central de Wuhan, quien en
enero de 2020 fue intimidado y desmentido públicamente por alertar a sus
colegas sobre la posibilidad de una nueva neumonía infecciosa parecida al SARS
1.
Porque más allá de cuál fue el factor desencadenante —si se trató de una
zoonosis por el consumo de alimentos inadecuados o de un invento de
laboratorio—, el diagnóstico no cambia: la combinación entre el volumen de la
especie, los desarrollos científico-técnico-industriales que hemos puesto en
marcha, la degradación del ecosistema y la poderosísima desigualdad que
organiza nuestros intercambios ponen al planeta entero en situación de gran
vulnerabilidad. De allí que una estrategia global de control de riesgos
mediante la cooperación, que deje de lado cualquier versión de «supervivencia
del más apto», se vuelve la única política vital, o biopolítica afirmativa,
razonable.
Por otro lado, el repetido mantra según el cual «de toda crisis nace una
oportunidad», con su aparente bonhomía especulativa, revela aquí su índole
tramposa. Más que oportunidades, las crisis sistémicas —como 2001-2002 en la
Argentina o la crisis financiera mundial de 2008-2009, y luego la pandemia— se
han ofrecido como ocasión para acelerar la curva de la desigualdad, con saldos
profundamente regresivos. La pandemia del coronavirus nos deja claro que el
crecimiento de los subsistemas humanos tecnoindustrial y «bio» necesita ser
pensado en correlación con el cuidado del macrosistema medioambiental y
ecológico, atendiendo a los desafíos de la nueva escala y al
hecho de que, si no combatimos las profundas desigualdades, quedaremos al borde
de los próximos «accidentes normales» sin defensas suficientes frente a sus
consecuencias.
El parque tecnológico de base informacional —las redes sociales y los
teléfonos móviles inteligentes, por poner dos ejemplos muy cotidianos—, al
igual que el sistema financiero, llevan en esto mucha ventaja. Han sido ellos,
en buena medida, los que han empujado este salto, para el cual se han impulsado
las grandes infraestructuras comunicacionales que recorren el mundo, como los
cables submarinos que atraviesan el planeta en los lechos oceánicos conectando
los continentes con redes de fibra óptica. Y no es un dato menor que toda esa
infraestructura, imprescindible para la continuidad de la vida durante la
crisis global de la pandemia, sea principalmente de propiedad privada.
De allí que, entre las tareas ciertas que deberemos desarrollar en el
incierto futuro pospandemia, una fundamental será asomarnos a la cuestión de
los efectos del «shock de virtualización» al que condujeron las medidas de
aislamiento de buena parte de la población mundial. En pocas semanas, asistimos
a un proceso vertiginoso de digitalización de la experiencia cotidiana: buena
parte de las personas ha adquirido por necesidad alguna clase de competencia
tecnológica que hasta el momento no tenía, en un giro hacia lo digital que —se
insiste— «llegó para quedarse». De allí que es preciso imaginar prácticas en
las que la innovación social y la digital puedan ir de la mano, como dice el
periodista e investigador de la ciencia bielorruso Evgeny Morozov. Y detectar
pronto aquellas que puedan obstaculizarlas —prácticas de digitalización que
solo beneficien a las más grandes empresas transnacionales, en un marco de
profundización de lo que Shoshana Zuboff, en La era del capitalismo de
la vigilancia (2020), llama el «capitalismo canalla»— es clave para
delinear políticas hacia el futuro.
Si queremos construir un escenario pospandemia que pueda beneficiarse de
esta aceleración técnica forzosa que estamos viviendo, es imprescindible
estudiar lo ocurrido y definir con claridad los problemas a los cuales
preferimos enfrentarnos. No solo para facilitar el acceso a bienes y servicios
digitales a muchísimas personas que aún no lo tienen — algo sin dudas necesario
hoy, pero que también conlleva retos y amenazas:
a la privacidad, a la soberanía nacional, a capacidades personales como
la concentración y la resolución de problemas complejos, a la independencia de
criterio—, sino también para imaginar alternativas estructurales de desarrollo
con soberanía tecnológica, cuidado medioambiental y protección de los bienes
comunes. Y con capacidad informada para decidir cuándo sí y cuándo no abrazar
la digitalización.
Desde Aristóteles hasta nuestros días, la tradición filosófica nos
enseña que la potencia más específica del viviente humano se asienta en lo que
Giorgio Agamben denomina «potencia de no»: la capacidad de decidir si y cuándo
hacer, y cuándo no hacer, aquello que podemos fácticamente hacer. Este gesto de
reflexión, de decisión meditada, es lo que distingue el reino de la necesidad
—el riguroso de la obligación, y también el destructivo de la compulsión— del
reino de la genuina libertad humana.
Cuestiones de método
Frente a este escenario tan complejo y tan desafiante, ¿qué hacer? Voy a
volver a esta pregunta varias veces a lo largo del libro, y para intentar
responderla, con frecuencia orientaré la mirada hacia lo que están haciendo los
artistas. ¿Por qué? Por razones tanto teóricas como de método. Para explicarme,
permítanme compartir algunos presupuestos de mis investigaciones.
Lo primero es una precaución que me llega de los estudios culturales,
tanto los de la tradición británica como los latinoamericanos. Ellos nos han
legado una intuición fundamental, según la cual las manifestaciones en la
cultura y las artes constituyen nuestras formas de vida con tanta o mayor
intensidad que las zonas que solemos imaginar como «duras» o «estructurales» en
la vida social: la economía, la política, las relaciones de clase, género,
raza, los modos de producción.
Las prácticas y los procesos de creación artística, que suelen ser
concebidos actuando en el nivel de las «representaciones», no son por eso menos
constitutivos de nuestro mundo. Por el contrario: son primarios; es decir,
primeros con relación a él. Porque nuestra diferencia específica con el resto
de las especies animales consiste, justamente, en la capacidad de prefigurar,
de anticipar, de imaginar y fabular, de crear mitos e imágenes. Y es en el uso
de esas capacidades que organizamos de ciertas maneras nuestro mundo familiar,
social y comunitario. Las prácticas culturales y artísticas, por lo tanto, no
«ilustran» los procesos económicos, políticos o tecnológicos; no derivan ni
están determinadas por ellos, no les están subordinadas. Más bien los acompañan,
los coconstituyen, y en algunos casos los prefiguran. Poniendo continuamente en
juego esos procesos «duros» en situaciones imaginadas, pero no por eso menos
reales, los orientan, les dan un sentido.
Pueden robustecer esos procesos —y así cumplen el papel de reforzar la
reproducción de lo que existe—. Pueden ofrecer imágenes novedosas hacia las
cuales tender —y así prefiguran lo que viene, pero no porque los artistas sean
necesariamente visionarios, sino porque los inventores, los ingenieros, los
técnicos, los políticos se nutren de las imágenes artísticas para soñar qué
querrían construir—. Pueden cuestionar y desorganizar lo que es —y entonces
cumplen un papel crítico, diferenciador, creador de sentidos nuevos—. Y a
veces, es cierto, también anticipan lo que está por venir. En la medida en que
organizan los valores y los símbolos de una época en escenarios ficcionales,
pueden —a la manera de un laboratorio de vida especulativa— poner a funcionar
de modo experimental, artificial, creado, las líneas de fuerza más poderosas de
una situación, ayudando a entrever de qué forma podrían funcionar esos
elementos en situaciones nuevas, irreproducibles en la vida real, pero
poderosamente pregnantes para quien las observa y las lee con atención.
Por eso interesa tanto aquello que los artistas son capaces de idear en
este momento crucial. Porque su modo de conocer y representar lo que existe es
muy diferente del de los científicos y técnicos. Como señaló en 2008, durante
una visita a Buenos Aires, el investigador de los cruces entre arte y ciencia
Stephen Wilson, el abordaje artístico se distingue del científico y técnico,
entre otras cosas, porque sobre las mismas realidades, los artistas se
formulan preguntas diferentes de las que enuncian los hombres y las mujeres de
ciencia. Asignan otras prioridades en sus agendas de investigación y creación,
a la vez que interpretan de manera distinta los resultados de sus
investigaciones. Reflexionan y muchas veces desmontan las ideas que tenemos
naturalizadas sobre los materiales con los que trabajan, sean físicos o
psíquicos, y sobre las relaciones que establecen nuestros intercambios. Y
finalmente, identifican y muchas veces exploran con sus propios cuerpos las
consecuencias culturales y políticas de los procesos en los que se ven
involucrados.
A eso cabría agregar al menos otras dos cuestiones centrales para
nuestro presente. Por un lado, los artistas subvierten, resignifican o
directamente suprimen la utilidad científico-técnica con finalidades
reflexivas, expresivas, activistas —muchas veces con una visión ecologista y de
concientización sobre diversos aspectos de la realidad—. Y en segundo lugar,
proponen nuevas miradas sobre el estatus de los elementos que integran lo
existente; exploran las continuidades y las fronteras entre las especies, así
como entre lo natural y lo artificial. El laboratorio bio-ciber-tecnológico
aparece, para los artistas, no tanto como una plataforma de producción, sino
como un ámbito de interrogación filosófica y ética, donde está en juego la
desnaturalización de las actuales formas de vida, así como el vínculo entre las
especies, los dilemas del cuidado y el descuido, la atención o la
despreocupación sobre el destino de los otros.
Luego de esta primera cuestión, otras dos grandes perspectivas están en
la base de estas interrogaciones. Se sabe que para llevar adelante un análisis
es fundamental partir de un diagnóstico. Todavía más si lo que buscamos es
descifrar el propio tiempo, al que creo que podemos seguir llamando Modernidad:
el tiempo cuya actitud fundamental es pensarse a sí mismo, y que se propone dar
lugar, a partir de lo que somos, a la posibilidad de ser y pensar de otra
manera. Este sería el primer punto de partida: si todavía podemos denominarnos
modernos, es porque, siguiendo la lectura que Michel Foucault hace de la
Ilustración, «ser moderno» no es aceptar determinado ideal de ser humano al que
habría que adecuarse, ni tampoco sostener una idea de racionalidad modelada a
imagen de cierta ciencia y cierta tecnología, sino que se trata de una actitud
de coraje para ser y pensar de otra manera respecto de aquello que somos y
hemos sido.
Ahora bien, ¿qué y cómo es concretamente la Modernidad? Se han dado
muchas respuestas. Se ha dicho que es una época de racionalización —la tesis de
Max Weber y de los pensadores de la escuela de Frankfurt—; de secularización
—para Karl Löwith y Carl Schmitt, entre otros— o mundanización —según Giacomo
Marramao—; de legitimidad o autoafirmación —según Hans Blumenberg—, de
individuación —Hannah Arendt—. Por mi parte, vengo trabajando en los últimos
quince años a partir de dos tesis complementarias a estas, que me permitieron
trazar un panorama de conjunto de problemas que las recién mencionadas no
alcanzaban a iluminar del todo. Esto me llevó a poner en relación dos
tradiciones de pensamiento y dos procesos históricos que habitualmente han sido
pensados por separado.
Mi diagnóstico podría resumirse así: la Modernidad es aquella época en
la que confluyen dos procesos tendenciales que involucran y envuelven la vida
por completo; el de tecnificación y el de politización de la vida. O también el
de biologización de la política —en la línea de la tesis
biopolítica que inaugura Foucault en la década de 1970— y el de vitalización de
la técnica.
La hipótesis biopolítica comparte la suerte de todo clásico: es mucho
más nombrada que frecuentada. Lejos del fingido escándalo de quienes se
lamentan porque un concepto se hizo tan conocido que las personas, eruditas o
no, lo «malentienden», es siempre un acontecimiento significativo que una
noción filosófica compleja se incorpore al habla corriente. Es signo de que esa
noción alcanzó a delimitar una zona de la realidad que necesitaba de una nueva
matriz de análisis para ser iluminada. La tesis básica acerca del biopoder
señala que la Modernidad es aquel tiempo en el que la política asume que en el
centro de sus preocupaciones está la vida biológica de los seres humanos —aun
más que el territorio; esto, entre otros motivos, porque según la formulación
foucaultiana, el biopoder se desarrolla cuando el planeta ha sido ya
cartografiado y las potencias coloniales de Europa asumen que no hay más
territorios por conquistar sin entrar en guerra con los vecinos, para lo cual
se requieren ejércitos particularmente poderosos.
Esto significa al menos dos cosas: por un lado, que los cuerpos
concretos de los individuos y de las poblaciones humanas son el objeto de
las políticas públicas, que se dirigen a ellos con el propósito de ajustarlos,
organizarlos, regularlos, administrarlos, moldearlos para volverlos útiles y
productivos en términos económicos y dóciles en términos políticos. Por otro,
que esos cuerpos y esas vidas van adquiriendo, en un proceso lento pero
indetenible, el rango de sujetos de aquellas mismas políticas.
En conjunto, la tesis del biopoder constituye el reverso crítico de la
narrativa heroica de la democratización: en virtud de un proceso que aún dista
de estar acabado, el hecho del nacimiento y el derecho de ciudadanía comienzan
de manera paulatina a coincidir, y todos y cada uno de los vivientes humanos
empiezan a ser reconocidos como sujetos, esto es, agentes políticos
plenos. Pero a la vez, en ese mismo movimiento, se los inscribe e interpela
como objetos de mecanismos que buscan gobernarlos
integralmente, es decir, conducir sus conductas en muy diferentes planos de su
existencia.
A partir de esta formulación inicial, a lo largo de los últimos cuarenta
años se desplegaron problematizaciones y debates que siguen concitando la
atención de los estudiosos. Desde la pregunta historiográfica acerca de si la
biopolítica es efectivamente moderna —como sostiene Foucault— o si se encuentra
inscripta en los rudimentos mismos de la política occidental —la tesis del
filósofo italiano Giorgio Agamben en Homo sacer —, hasta el
modo en que el biopoder moderno, cuyo epicentro ha sido concebido principalmente
desde y para Europa, se combina con la matriz de colonialidad que sigue
atravesando todavía hoy las relaciones geopolíticas y simbólicas Norte-Sur;
pasando por los usos concretos de la teoría para comprender el momento actual.
Por ejemplo, de qué manera abordar las modalidades contemporáneas de la
vigilancia y el control social, como en la tesis sobre la «gubernamentalidad
algorítmica» que aparecerá en los capítulos que siguen.
Con relación a esta perspectiva, mi trabajo se orienta en dos grupos de
preguntas. Por un lado, cómo funciona hoy el gobierno de la vida y de los
vivientes; cuáles son las modalidades privilegiadas de conducción de conductas
de nuestro tiempo y en el mundoambiente tecnológico que nos es contemporáneo.
Esta constelación incluye la pregunta sobre de qué modo los artistas ponen en
práctica formas de contraconductas (resistencia, interferencia, interrupción,
profanación, profundización y desvío) y sobre la potencia política de la «vida
desnuda» como material artístico. Por otro lado, otros interrogantes se
orientan a la ética, al ethos: no las reglas escritas, sino la
forma-de-vida habitual, practicada concretamente por los sujetos. Algunas
preguntas que se abren en este sentido son: ¿puede la vida desnuda, la «mera»
vida biológica, dar a luz su propia forma? Y también. ¿qué significa hoy para
los artistas abrazar el arte como forma de vida?
En cuanto a la tecnificación de la vida, la tradición que pensó este
proceso es mucho más antigua y heterogénea que la tesis biopolítica. Existe una
tradición crítica en el pensamiento sobre la técnica que se remonta, al menos,
a Lord Byron y su famoso discurso en defensa de los ludditas, en 1812, cuando
fue el único orador contra la Frame Breaking Hill, la ley que se propuso dar un
castigo ejemplar contra quien osara destruir de manera voluntaria un telar de
calcetería o encaje. «Nada excepto la necesidad absoluta puede llevar a un
enorme grupo de trabajadores otrora honesto e industrioso a cometer excesos tan
arriesgados para ellos, para sus familias y sus comunidades —dijo en febrero de
ese año el poeta en la Cámara de los Lores—. Para los propietarios de telares
mecánicos, estas máquinas eran una ventaja, considerando que reemplazaban la
necesidad de emplear un número importante de trabajadores, a quienes en
consecuencia se los deja morir de hambre». Y prosiguió: «¿Y cómo harán cumplir
esta ley? ¿Creen que podrán meter a un pueblo entero dentro de sus prisiones?
¿Pondrán una horca en cada pueblo y harán de cada hombre un espantapájaros?».
Fue en vano: dos días después de su alocución, en la sangrienta Inglaterra de
comienzos del siglo xix dañar un telar mecánico pasó a ser un delito
capital.
A lo largo de los dos siglos siguientes existieron diferentes
perspectivas críticas en torno a la cuestión. En todas ellas, la técnica no es
solo el plano de los medios que se desarrollan en relación con ciertos fines
que la preceden y la organizan; tampoco se trata de denunciar el dominio
ilimitado de los medios devenidos fines en sí mismos (el dinero y la técnica
como esos dos mediadores universales que centrípetamente capturan, reabsorben y
licúan toda la imaginación que no dependa exclusivamente de ellos). Más bien se
trata de que, en tanto involucra procesos antropogenéticos, ontológicos y
epistémicos densos, la técnica se ubica en el ámbito de la dimensión
propiamente ético-política: el plano de la forma de vida.
En la medida en que delegamos en los aparatos físicos o sociales
procesos y decisiones de primer orden —la producción y distribución de la
energía, la distribución de los recursos financieros, el futuro del sistema
político—, en tanto nos hibridamos con las tecnologías, las hacemos cuerpo y
carne, las incorporamos y las encarnamos a través de prótesis, trasplantes,
implantes; cuando programamos la dotación genérica de nuestra descendencia,
cuando aprendemos qué y quiénes somos leyendo datos a través de máquinas sin
las cuales no podríamos conocernos ni hacer esos procedimientos, cuando
entregamos los datos fundamentales de nuestras relaciones sociales a máquinas
conectadas con las más grandes agencias de recopilación y análisis de
información política o comercial, es nuestra forma de vida la que está
progresivamente deviniendo infotecnológica.
Es en relación con esta doble encrucijada política y técnica que debemos
medir la fortaleza de nuestros diagnósticos y nuestras capacidades de decisión.
Big data, algoritmos y el nuevo orden informacional
Ampliación del campo de batalla biopolítico • Predecir y gobernar las
conductas • El Santo Grial: el entrelazamiento de registros biológicos y
comportamentales • Los datos nunca están dados • ¿Cuánta
es mucha información? • La arquitectura de internet no es
horizontal (y no hay ninguna «nube») • «Gubernalmentalidad
algorítmica», minería
de datos y extractivismo • Religión, color de piel, coeficiente
intelectual, género, orientación sexual y preferencia de voto a tan solo 68 «me
gusta» • El usuario 1-click
Data drive all we do. Cambridge Analytica uses data to change audience
behavior. Visit our Commercial or Political divisions to see how we can help
you.
Texto de presentación en línea de la empresa Cambridge Analytica, 2017
Se siente que se elige y se quiere, pero se elige algo impuesto y se
quiere algo inevitable.
Henri Bergson,
El recuerdo del presente y el falso reconocimiento, 1908
Mientras usted está leyendo esto, en este minuto, hay más de 208 mil
personas en todo el mundo participando en videoconferencias a través de la
plataforma Zoom —52 mil se conectan por Microsoft Teams— y se están subiendo
unas 347 mil historias a Instagram. Hay 28 mil dispositivos conectados a
Netflix, cuyos espectadores pueden ser familias enteras.
Página 23
Llegan 320 nuevos usuarios a Twitter y se envían 350 mil tuits, mientras
2700 dispositivos instalan Tik Tok y se bajan 414 mil aplicaciones por Google
Play y App Store de Apple. Dos millones de dedos hacen swip, es
decir, se deslizan sobre una pantalla que muestra una fotografía en Tinder, y
los usuarios de Linkedin se postulan a 70 mil puestos de trabajo. Se gastan 1,6
millones de dólares en compras en línea y Amazon despacha 6659 paquetes. Todo
en un minuto. En este mismo minuto.
Escuchamos decir que esta es una época de datos, incluso de datos
masivos: los famosos big data. Se habla del capitalismo de datos,
de la ciencia de datos, incluso se nos dice que «somos nuestros datos». Esa
parece ser la clave de autocomprensión que se nos viene proponiendo desde las
últimas dos décadas, cuando buena parte de los esfuerzos gubernamentales
públicos y privados se abocaron a desarrollar tecnologías para recolectar,
analizar y utilizar datos sobre los seres humanos. Por un lado, datos sobre sus
dotaciones biológicas, como en la biometría o en los bancos de información
genética. Por otro, datos sobre sus modos de existencia: hábitos de consumo,
preferencias estéticas, relaciones afectivas, opiniones e incluso emociones
ante diversos acontecimientos, como en la minería de datos orientada al marketing comercial
o político.
El anudamiento entre ambos registros, el biométrico y el comportamental,
el dactilar y el digital, ha sido una de las grandes novedades tecnológicas de
la última década. Gracias a él se hizo posible algo deseado pero impracticable
aun a finales del siglo xx: el cruce de saberes sobre la población y sobre
los individuos concretos; sus comportamientos y sus gustos pero también sus
complexiones físicas, en forma global, estadística, y a la vez de manera
completamente individual y personal. Un ejemplo es la aplicación Clearview IA,
que desde 2019 utilizan tanto el FBI como el Departamento de Justicia de los
Estados Unidos pasando por empresas y usuarios privados. A partir de una
fotografía que puede tomarse desde un teléfono móvil, rastrea toda la
información de la persona retratada con una precisión cercana al 99 por ciento,
para lo cual usa una base de datos con más de 3000 millones de imágenes
recopiladas de sitios web y redes sociales.
No solo se obtienen los datos que están en la red: es posible determinar
ciertas preferencias o hábitos de los que las personas no han informado
Página 24
nada. Un estudio publicado en 2013 por un estudiante de doctorado en
Psicometría de la Universidad de Cambridge, el psicólogo polaco Michal
Kosinski, mostró que sobre la base de 68 «me gusta» dejados en Facebook era
posible predecir con aceptables niveles de precisión su color de piel, su
coeficiente intelectual, su filiación política e incluso si sus padres estaban
separados.
Por otra parte, hace mucho que oímos también que la nuestra es una
sociedad de la información. De mucha, muchísima información. En cantidades
difíciles de imaginar. Para ayudarnos a hacernos una idea, el investigador
Martin Hilbert, asesor informático en la biblioteca del Congreso de los Estados
Unidos, brindó una imagen: si se pasara a letras toda la información
digitalizada que existía en 2015, podrían hacerse 4500 pilas de libros que
llegaran hasta el Sol.
Los datos nunca están «dados»
Conviene, antes de continuar, tener presente que ambos conjuntos de
datos, los biométricos y los comportamentales, están lejos de ser simples
hechos «dados» en la naturaleza. Como todos los datos que se manejan en el
mundo, son el resultado de cuidadosos procedimientos de registro,
identificación, representación y selección, a través de los cuales nos volvemos
inteligibles y se nos hace comparecer ante un poderoso conjunto de saberes y
poderes tecnocientíficos que buscan precisamente descifrar en ellos —en nuestros
datos— la clave de cómo somos y qué podemos ser y hacer.
Y si esto que afirmo es cierto, convendría formularnos este
interrogante: ¿en qué medida es razonable confiarnos a esa cuantificación?
Ese cruce de huellas dactilares y digitales se
inscribe en la genealogía del biopoder, del que constituye una modulación
particularmente novedosa, ya que mantiene con el orden anterior líneas de
continuidad
Página 25
pero también presenta destacables discontinuidades. En su inflexión
contemporánea, nos encontramos ante un orden político y epistémico que así como
hizo posible el desarrollo del ciberespacio, el comercio electrónico, las redes
sociales y la economía de los big data, profundizó la múltiple
aceleración técnica y biológica del Tecnoceno. Lo que está en juego en este
nuevo orden de base informacional es, precisamente, una poderosa ampliación del
campo de batalla biopolítico. Un «golpe desde arriba» que pone en jaque algunas
de las conquistas que más apreciábamos de las democracias: el derecho de todos
y cada uno de participar, por el solo hecho del nacimiento, en el juego
político, y la aspiración a decidir de manera soberana sobre los propios
cuerpos y las propias ideas.
En efecto, en el escenario actual, el poder sobre la vida actúa en un
campo de batalla expandido: ya no se limita a interpelar los cuerpos —de los
individuos o de las poblaciones—, sino que, por un lado, comienza a conocer,
afectar y manipular los elementos precorporales o infracorporales y la
información genética, a la vez que se refiere, cada vez con mayor urgencia, a
los medioambientes, los medios en los cuales la vida de las
distintas especies conocidas puede desarrollarse. Es decir: abarca tanto el nivel
micro —el de los tejidos, las células, las moléculas, los ácidos nucleicos,
aquello que es menos-que-un-cuerpo— cuanto el macro del medio y de la relación
entre las especies.
Por otro lado, además, intensifica su acción no solo sobre la vida
biológica, sino también sobre la vida anímica de individuos y poblaciones. Si
bien no es el lugar para profundizar en este tema, existe un aspecto de la
tesis biopolítica que, aunque explícito, no fue suficientemente subrayado;
permaneció acaso sobreentendido en los trabajos del propio Foucault y fue muy
poco abordado en las investigaciones posteriores.
El biopoder moderno, el poder sobre la vida que se inaugura en Europa
entre los siglos xvi y xvii y que se dirige a regular,
administrar, modular y conducir la vida de los individuos y las poblaciones,
actúa no solo sobre los cuerpos biológicos, sobre sus fuerzas físicas, sus
gestos y movimientos, sus rutinas cotidianas, sino también sobre sus creencias,
sus deseos, sus intereses, sus estados de ánimo, sus afectos, sus gustos, sus
decisiones. Esta intervención sobre la dimensión anímica, incluso espiritual —las
propias ideas, las motivaciones y las emociones de los
Página 26
individuos y de la población interpelada en tanto público— no es, en sí,
una novedad de los siglos xx o xxi —a la que cabría
denominar «noopolítica», como propuso hace unos años Maurizio Lazzarato, o
«psicopolítica», como intentó después Byung-Chul Han—: la arqueología del
gobierno de la vida anímica de individuos y poblaciones hunde sus raíces en la
biopolítica tal como fue descripta en los cursos foucaultianos de finales de la
década de 1970, y no necesita en sí misma otro nombre.
Tampoco es novedad que la biopolítica se oriente sobre todo a
poblaciones y públicos antes que a individuos —que las disciplinas
individualizantes estén subordinadas a la función totalizadora del gobierno de
las poblaciones—. Tal como Foucault explica en su artículo «La
gubernamentalidad», publicado en 1977 —en el que aborda varios de los temas que
retoma ese año lectivo en su curso publicado con el título Seguridad,
territorio, población—, en el siglo xviii, a partir de la explosión
demográfica vinculada a la afluencia de riquezas de las colonias de América y,
a través de ellas, a la abundancia de monedas y al aumento de la producción en
el campo —según procesos de mutua influencia que los historiadores conocen
bien—, se inaugura toda una novedosa serie de tácticas y tecnologías de poder
que buscan abordar una nueva preocupación: precisamente, la población. Es en
ese momento cuando la población aparece con fuerza inédita en el escenario
político europeo y se vuelve el fin último por excelencia del gobierno, que ya
no estará centrado en el territorio ni en la permanencia del Príncipe, tampoco
siquiera en la familia y sus integrantes.
La familia, de hecho, deja de ser un posible modelo del gobierno — según
el cual gobernar un Estado es como conducir un oikos, una casa— y
en cambio pasa a ser un elemento, una parte de la población. Es una parte
privilegiada, porque si quiere conseguirse que la población cambie algo de su
comportamiento con respecto al cuidado de su salud, a sus costumbres sexuales,
al número de sus hijos, al consumo de determinado producto, habrá que pasar
necesariamente por la unidad doméstica: la familia y los individuos que la
componen. Pero ya no será un modelo sino un instrumento para
gobernar las poblaciones, para «mejorar su destino, aumentar sus
riquezas, la duración de su vida, su salud». Para esta tarea, dice el autor
de Vigilar y castigar, el gobierno va a actuar sobre ella
Página 27
«directamente mediante campañas, e indirectamente mediante técnicas que
por ejemplo permitirán, sin que las gentes se den cuenta, estimular la tasa de
natalidad o dirigir los flujos de población hacia tal región o tal actividad».
La población aparece, así, como sujeto y como objeto del gobierno. Es sujeto de
aspiraciones y necesidades; es consciente de lo que quiere cuando demanda a los
gobernantes. Pero también es objeto de campañas continuas, y
no es siempre consciente de cuánto se le hace hacer y pensar.
Nace así todo un arte, agrega Foucault, un conjunto de técnicas
absolutamente nuevas; un tipo de intervención característica del gobierno en el
campo de la vida de la población en sus dos aspectos: la vida biológica y la
vida anímica e intelectual. Por un extremo, la especie y, por otro, el público,
que es «la población considerada desde el punto de vista de sus opiniones, sus
maneras de hacer, sus comportamientos, sus hábitos, sus temores, sus
prejuicios, sus exigencias: el conjunto susceptible de sufrir la influencia de
la educación, las campañas, las convicciones». En Seguridad,
territorio, población, lo sintetiza así: «La población es todo lo que
va a extenderse desde el arraigo biológico expresado en la especie hasta la
superficie de agarre presentada por el público».
Es justo ese vasto arco el que busca ceñir y penetrar incluso a niveles
moleculares el actual orden informacional.
La episteme de la información
Se trata de un orden que emerge de la maceración, a lo largo de varias
décadas, de una episteme que tiene uno de sus nudos clave en
la «información», y que se apoya, no sin conflictos, en la ambigüedad semántica
que ese término ofrece. Tomemos tres de las acepciones más frecuentes:
información como noticia, referida a un hecho o un acontecimiento poco
probable; información como una medida matemática
Página 28
para optimizar el pasaje de un conjunto de caracteres de un punto a
otro; e información como conjunto de instrucciones contenidas en organismos
biológicos. En primer lugar, la información como contenido o mensaje relevante,
asociado a la improbabilidad de la ocurrencia de un acontecimiento, como cuando
hablamos de noticias: la información como lo opuesto a la redundancia. En
segundo lugar, la noción de información que desarrollaron en su teoría
matemática de la comunicación Claude Shannon y Warren Weaver en la década de
1940, para quienes la información es un quántum medible, aquí también en
relación inversa con la probabilidad de ocurrencia, aunque ya no del
acontecimiento o del contenido del mensaje, sino de los caracteres físicos que
lo componen. Por ejemplo: en castellano, la letra «ñ» contiene más información
que la letra «a», y el término «que» contiene menos información que el término
«desoxirribonucleico». Para la teoría matemática de la información, la
preocupación es cómo lograr que un conjunto X de signos llegue con rapidez y
con la menor pérdida de un extremo al otro de un canal habitualmente
imperfecto, no importa qué se diga en ese mensaje. En tercer lugar, la
información es también la imagen empleada en genética y biología molecular para
referirse a un proceso químico que se interpreta como la transmisión de un
conjunto de instrucciones u órdenes que pasan (otra vez: no de manera perfecta)
de generación en generación, o de un embrión a un cuerpo desarrollado.
Con todo, pese a estas diferencias, la metáfora de la información se ha
venido mostrando muy productiva para anudar una trama de disciplinas, de
saberes y prácticas, en la que están en juego, siguiendo con la familia
semántica, operaciones propias de la información: transmisión, expresión,
traducción, emisión, recepción, feedback o retroalimentación.
En esta trama se entretejen al menos dos surcos: por un lado, la vía de las
grandes infraestructuras de las telecomunicaciones y redes cibernéticas que
capturan y procesan las informaciones, los datos que vamos dejando como huellas
o rastros a lo largo de nuestros trayectos, nuestras caminatas un poco
sonámbulas a través del mundoambiente en red y en el mundo «real» cuando
operamos con dispositivos intercomunicados. Y por otro, el desarrollo
científico de la posibilidad de desciframiento, que implica también la voluntad
de control y manipulación de la información biológica
Página 29
de los individuos, los datos que se capturan tanto en los registros
biométricos como en la información genética de una población o de un individuo.
Esta es en efecto una de las verdaderas novedades que trajo en el
siglo xxi el desarrollo y uso masivo de tecnologías llamadas
inteligentes: el entrecruzamiento y la valorización de los restos, los
residuos, las huellas de nuestros trayectos en los espacios real y virtual. La
valorización de esquirlas de una acción que, hasta hace muy poco, no tenía
traducción alguna en términos económicos.
Esto implica tanto la intensificación como la transformación de cinco
procesos característicos de nuestro tiempo. En primer lugar, la conversión de
lo existente en «dato»: la datificación de aquello que, en la
experiencia, existe de manera silvestre; la conversión de un hecho, una mera
ocurrencia, en un registro simbólico o físico, esto es, un símbolo o término
que implica elaboración conceptual y puede incluirse dentro de una serie para
ser analizado, comparado, medido en algún lenguaje. En segundo lugar, la digitalización de
esos registros o datos: su pasaje o traducción al lenguaje binario, que actúa
como lengua numérica común para poner en correlación fenómenos completamente
heterogéneos y hacer posibles intercambios de otra manera impensables; esa es
la gran revolución derivada de las ideas de Claude Shannon. En tercer lugar, el
más novedoso de este trípode epistémico —que termina de hacer posible el salto
de escala hacia la dimensión global o planetaria—: la protocolización,
procedimentalización o estandarización de procesos, programas y prácticas, que
habilita la interconexión entre plataformas y dispositivos. Lo que el TCP/IP
—conjunto de guías generales de operación para permitir que un equipo pueda
comunicarse en una red— fue en la década de 1970 para los protocolos de red es
lo que de a poco comienza a esparcirse en los diferentes modos y sistemas de la
vida social. Será el proceso que nos involucrará en las próximas décadas:
protocolos de seguridad, sanitarios, educativos, políticos, encargados de construir
la sociedad civil mundial; algo que, desde el punto de vista de los procesos
técnicos y financieros, ha comenzado a funcionar hace tiempo y ahora reclama su
correlato en otros niveles de la vida en común.
Página 30
En cuarto lugar, y como efecto cultural derivado de la expansión del uso
de dispositivos de telecomunicación llamados inteligentes, la extensión del
fenómeno de la vigilancia hasta constituirse en una experiencia vital
generalizada, ubicua, distribuida. Y quinto, como tendencia latente y continua
desde al menos el siglo xvi, la mercantilización integral de la
existencia, la extensión de la economía monetaria a todos los dominios de la
vida, incluso aquellos que hasta hace poco eran considerados no económicos, o
no monetarizables, como los minutos de atención frente a una pantalla o los
datos que vamos entregando a las aplicaciones gratuitas a partir de nuestras
actividades en línea.
Sociedades de control y nuevo orden informacional
«Estamos al principio de algo», escribió Gilles Deleuze a comienzos de
1990 en su célebre Posdata sobre las sociedades de control. Lo que
avizoraba en ese principio era, con todo, más bien los signos de un final: el
de los mecanismos disciplinarios que habían tenido su auge en el
siglo xix y las primeras décadas del xx. Algo que ya había
señalado Michel Foucault varios años antes de su muerte. En efecto, avanzada la
década de 1970, cuando comenzaba a entrever la profunda reestructuración que
significaría el neoliberalismo para la racionalidad política de su tiempo, este
autor hizo una breve intervención en la Universidad de Vincennes, publicada en
1978 bajo el título «Nuevo orden interior y control social».
Allí señalaba que el estado de bienestar se hallaba ya entonces en una
situación crítica en cuanto a su posibilidad económica de gestionar y dominar
la multiplicidad de luchas que atravesaban la sociedad; que, hasta ese momento,
los países europeos habían vivido «sobre la base de un saqueo energético
realizado sobre el resto del mundo» cuya continuación parecía imposible.
Entendía, entonces, que un nuevo proyecto civilizatorio
Página 31
—que hoy, una vez consumado, solemos llamar neoliberalismo— vendría a
imponer una serie de restricciones a dicho estado de bienestar, obligándolo a
economizar su ejercicio del poder. Y lo haría a través de cuatro líneas.
Por un lado, el nuevo orden implicará —dice— realizar un «marcaje, la
localización de un cierto número de zonas que podemos llamar “zonas
vulnerables”, en las que el Estado no quiere que suceda absolutamente nada».
Serían las zonas de máxima seguridad, de «tolerancia cero», como se las llamará
décadas después, y que tendrán como contracara —y esta es la segunda línea— una
nueva y más amplia zona de tolerancia en la que se relajarán los controles
policiales cotidianos. A partir de una evaluación de tipo costo-beneficio, el
Estado dejará de intervenir toda vez que la intervención sea demasiado costosa
comparada con dejar que ciertos comportamientos se produzcan. Allí la
regulación se producirá por la ausencia del Estado y no por su presencia.
Pero son sobre todo los siguientes dos elementos los que nos interesan
aquí, en la medida en que abren paso a lo que hace unos años he llamado
«biopolítica informacional». El tercer elemento es el desarrollo de «un sistema
de información general» que no tiene por objetivo fundamental «la vigilancia de
cada individuo, sino, más bien, la posibilidad de intervenir en cualquier
momento justamente allí donde haya creación o constitución de un peligro, allí
donde aparezca algo absolutamente intolerable para el poder». Lo cual «conduce
a la necesidad de extender por toda la sociedad, y a través de ella misma, un
sistema de información que, en cierta forma, es virtual; que no será
actualizado» sino solo en ciertos momentos: «una especie de movilización
permanente de los conocimientos del Estado sobre los individuos». Pocos años
después, cuando en 1992 el Congreso de los EE. UU. aprobó la posibilidad de
realizar actividades comerciales en internet, esos conocimientos dejaron de
estar solo en manos del Estado, y muchas veces quedaron fuera de él, como los
grandes almacenadores de datos de las empresas de telefonía y de internet.
Sobre el final, el cuarto aspecto para que este nuevo orden interior
funcione es la
Página 32
constitución de un consenso que pasa, evidentemente, por toda una serie
de controles, coerciones e incitaciones, que pasa a través de los mass
media, y que, en cierta forma y sin que el poder tenga que intervenir
por sí mismo, sin que tenga que pagar el costo a veces muy elevado del
ejercicio del poder, va a significar una cierta regulación espontánea que hará
que el orden se autoengendre, se perpetúe, se autocontrole a través de sus
propios agentes (Foucault, 1991).
A esta situación nueva, llena de hostilidades, luchas y contradicciones,
la denomina en conjunto «repliegue aparente del poder»; un escenario en el que
el Estado se las arreglará para que no caigan sobre él las responsabilidades de
los conflictos que deben resolver los propios agentes. No solo los individuos,
sino también empresas, corporaciones, grupos de intereses. Con esto Foucault
quiere decir que no se trata simplemente de «menos Estado», sino de un nuevo
modelo de poder y de Estado, donde entran en juego los mecanismos de seguridad
que él mismo describe en Seguridad, territorio, población y
que en Nacimiento de la biopolítica complementará con la
descripción de la racionalidad gubernamental neoliberal. Entra en juego una
nueva matriz normativa de los comportamientos que reclama la prudencia de
un homo œconomicus que estará cada vez más concentrado en
optimizar su capital humano, y que paulatinamente ve quedar atrás las
coerciones pero también los amparos de la pastoral laica del estado de
bienestar.
Ese escenario, al que Deleuze denominó sociedad de control, tiene como
una de sus características el despliegue de tecnologías, empresas,
infraestructuras, conocimientos y actores relacionados con la
información-comunicación.
Ya mencioné que para cuando Foucault sugiere esta tesis hay signos
evidentes del nuevo orden. La década de 1970 fue un momento de notable
intensificación de este giro informacional de los saberes-poderes que tienen
como eje la recolección, el desciframiento y la gestión de las dos clases de
información en las que se cifra la esperanza de un nuevo tipo de gobierno de
los vivientes: la información sobre la especie y la información sobre los
públicos. De lo que se trata en este nuevo orden social es de una ampliación
del campo de batalla biopolítico, en el que el poder sobre la
Página 33
vida comienza a abarcar desde la información genética de los vivientes y
su manipulación controlada (transgénicos, síntesis de bacterias para
antibióticos) hasta el gobierno de los públicos, de sus comportamientos, sus
emociones, afectos, decisiones cotidianas. Y todo esto a distancia, sin
necesidad de grandes infraestructuras de encierro, de «secuestro» temporario de
los cuerpos.
Habitualmente omitida en los relatos sobre internet, una fecha clave en
la historia de este nuevo orden fue el 2 de octubre de 1992, día en que el
Senado de los Estados Unidos aprobó con enmiendas el Acta sobre Ciencia y
Tecnología Avanzada, un texto de poco más de una carilla, que ordenaba al
director de la National Science Foundation (NSF) la creación de un programa
nacional de capacitación de técnicos para el mundo digital o, en palabras de la
ley, el ámbito de las «tecnologías avanzadas». La ley otorgaba recursos
financieros y habilitaba a la NSF para educar técnicos, formar profesores que
capacitaran a esos técnicos, crear trayectos de formación en universidades
públicas o privadas para otorgar títulos asociados y comprar equipamiento. Pero
había un detalle más, muy significativo, en el párrafo final:
Modifica la Ley de la National Science Foundation de 1950 para autorizar
a la NSF a fomentar y apoyar el acceso de las comunidades de investigación y
educación a las redes de computadoras, que pueden usarse sustancialmente para
fines adicionales si esto tiende a aumentar las capacidades generales de las
redes para apoyar la investigación y la educación en la ciencia y la
ingeniería.
Esta frase era el guiño que la industria de las telecomunicaciones
comerciales estaba esperando. Enunciada como al pasar, pero cuidadosamente
meditada, la ley admitía por primera vez que la NSF, hasta entonces a cargo de
la gestión de la red de investigadores y científicos, hiciera contratos para
usos industriales y comerciales; algo que de hecho ya había comenzado de manera
incipiente.
Signo de que todo eso estaba en el aire fue que, pocos meses antes del
Acta, se habían creado dos grandes cámaras empresariales. Una en 1990,
Advanced Network and Services (ANS), que al año siguiente creó la
Página 34
subsidiaria ANS CO+RE (por commerce and research, comercio e
investigación), integrada por las mismas empresas subcontratistas que proveían
a la NSFNet el servicio de infraestructura en el nivel del backbone,
esto es, de la «columna vertebral» o red troncal de internet: Merit
Network, IBM y Microwaves Communicacions Inc. (MCI). La otra, creada en 1991
por compañías de redes regionales que buscaban entrar al negocio de las
comunicaciones de red pero manteniéndose por fuera de las políticas de uso
gubernamentales —esto es, de la obligación de orientarse principalmente a la
investigación y a la educación: el lado «más libertario» de la pelea—, era la
asociación Commercial Internet eXchange (CIX), integrada por General Atomics
(CERFnet), Performance Systems International (PSInet) y UUNET Technologies
(AlterNet), durante varios años apoyada financieramente por AT&T. En 1995,
luego de una competencia áspera, se impuso la opción exclusivamente privada:
ANS vendió su negocio de redes a la empresa America Online (AOL) y se convirtió
en una organización filantrópica dedicada a promover la educación en tecnología
de redes informáticas.
En realidad, tal como señala Mariano Zukerfeld en «Todo lo que usted
quiso saber sobre Internet pero nunca se atrevió a googlear» (2014), la
propiedad de las infraestructuras y los soportes físicos —cables subterráneos,
cableado de fibra óptica continental, satélites, servidores, enrutadores—
siempre fue mayormente privada. Si uno observa tanto el mapa de los cables
submarinos que recorren el mundo como el mapa de la «nube» —la actualización de
ambos está en el sitio TeleGeography.com—, puede conocer cuáles son las
empresas propietarias de esas infraestructuras. Y no deja de impresionar, aun
cuando uno esté avisado, la similitud entre estos tendidos y los de los cables
de telégrafos y más tarde teléfonos, cuyo puntapié inicial dio The Atlantic
Telegraph Company en 1858 con el primer tendido de cable telegráfico a través
del Atlántico.
En el cuadro que sigue, realizado por el propio Zukerfeld y apenas
intervenido para alguna actualización, aparecen graficados los distintos
niveles, estratos o capas que componen lo que habitualmente denominamos
«internet». En efecto, como dice este autor, «la arquitectura de internet está
compuesta por varios niveles que tienen características disímiles y que, por
ende, resisten simplificaciones homogeneizadoras […]
Página 35
Solemos pensar a internet como una multiplicidad horizontal, pero no
como una estratificación vertical». El cuadro se lee desde abajo hacia arriba,
ya que comienza con las capas inferiores, las de la infraestructura material
más elemental —cables submarinos de fibra óptica, satélites, cableado
continental—. Luego sigue el hardware: los grandes hubs y concentradores, los
servidores, módems, enrutadores, hasta llegar a las máquinas y dispositivos
hogareños. Luego siguen los diversos niveles de software, desde protocolos de
intercambio entre computadoras hasta sistemas operativos, navegadores,
buscadores, programas de e-mail. El cuarto gran nivel es el de los contenidos
concretos. Y luego los sistemas de gestión de contenidos, que conectan
diferentes categorías de contenidos y de software y que constituyen el nivel de
las plataformas, los portales y las redes sociales.
|
Niveles |
Subniveles |
||
|
|
|
|
|
|
e. Sistemas de gestión de contenidos. Portales, |
16) |
Comunidades |
|
|
plataformas, redes sociales |
15) |
Moderadores |
|
|
|
|
|
|
|
d. Contenidos |
14) |
Imágenes, audios, textos, videos |
|
|
|
|
|
|
|
c. Software |
13) |
Software de cada página web |
|
|
|
12) |
Buscadores |
|
|
|
11) Navegadores |
||
|
|
10) World Wide Web (www) |
||
|
|
9) |
E-mail |
|
|
|
8) TCP/IP |
||
|
|
7) |
Software de los niveles de infraestructura y |
|
|
|
hardware |
||
|
|
|
|
|
|
b. Hardware |
6) |
PC, teléfonos móviles, netbooks, etc. |
|
|
|
5) |
Módems / Routers |
|
|
|
4) |
Servidores de los ISP / Servidores de las |
|
|
|
distintas empresas basadas en la Web / |
||
|
|
Infraestructura de Nube / Hubs y concentradores |
||
|
|
|
||
|
a. Infraestructura |
3) Tendidos de cables continentales-backbones |
||
|
|
2) |
Satélites |
|
|
|
1) |
Cables submarinos |
|
|
|
|
|
|
El acelerado proceso de concentración en este sector ha hecho que, hoy
en día, haya empresas que lideran tanto el nivel de las plataformas como el de
las infraestructuras. Es lo que José Van Dijck, Thomas Poell y Martijn De Vaal,
en su libro The platform society (2018), denominan
«plataformas infraestructurales», en particular las cinco gigantes:
Alphabet-Google,
Página 36
Amazon, Apple, Facebook y Microsoft, ya que además de ser plataformas de
nicho (comercio electrónico, redes sociales) concentran buena parte del
ecosistema digital. Una sola empresa como Google ofrece desde servicios de
«nube» (Google Cloud Platform) hasta un motor de búsqueda (Googe Search), desde
un navegador (Chrome) y un sistema operativo para dispositivos móviles
(Android) hasta un sitio para compartir videos (YouTube), una appstore (Google
Play), dos sistemas de información geoespacial (Google Street View, Google
Maps), dieciséis cables submarinos y redes sociales (Google +). Todo, una sola
empresa.
En el caso de la internet de la década de 1980, la NSF mantenía un
importante control: si bien contrataba empresas privadas que proveían la
infraestructura, ella disponía sobre el software y los contenidos, a través de
las políticas de uso, las Acceptable Use Policy (AUP), que implicaban un
tendido de redes sin fines de lucro, dedicadas solo a la investigación
científico-tecnológica y a la educación. Es a estas AUP a las que se refiere el
Acta de Ciencia y Tecnología Avanzada de 1992 cuando dice que «modifica la Ley
de la National Science Foundation de 1950». Lo que hace es dejar obsoletas
estas políticas de uso, que era el objetivo directo que perseguían las
compañías de la CIX; y también, a su manera, la ANS CO+RE.
Aunque hoy toda esta parte de la trama suele ser omitida en las
historias sobre internet, porque se prefieren los relatos épicos sobre la
bonhomía de la libre expresión y donde las «traiciones a los buenos principios»
aparecen como giros de timón inesperados, en aquel momento fue una movida
solapada pero previsible. Desde finales de la década de 1980 la idea de
privatizar la red de redes contaba con el favor de los dos grandes partidos
políticos de los Estados Unidos. Y la propia NSF venía dando pasos en ese
sentido, en buena medida gracias a la intervención de Vinton Cerf, uno de los
pioneros de internet, quien en 1972 había encabezado la investigación que
condujo al diseño de los protocolos que hoy se conocen como TCP/IP. Entre 1988
y 1989, Cerf impulsó que la NSF permitiera conectar la aplicación comercial de
correo electrónico de la empresa MCI —que él mismo había desarrollado años
antes mientras trabajaba en esa compañía—. Luego de que en 1989 MCIMail
obtuviera el permiso, también los servicios comerciales de e-mail de
CompuServe,
Página 37
ATTMail y Sprintmail (Telemail) obtuvieron luz verde para conectarse a
internet. El Acta de 1992, entonces, vino sobre todo a poner en orden esas
desprolijidades de hecho, y a dar luz verde para la privatización de la red
troncal, que terminó de realizarse en 1995, cuando no solo el backbone de
la NSFNet quedó en manos de compañías privadas, sino que, sobre todo, lo hizo
sin exigencia alguna relativa a los contenidos ni al software.
Del gobierno de los futuros conductuales
A partir de ese momento se produjo un acelerado proceso de desarrollo de
empresas, infraestructura y contenidos, y también de sistemas automatizados de
gestión de la información inscrita en esos contenidos. Y de hecho, esa es la
historia que más conocemos: la parte visible del despliegue de internet se nos
suele aparecer como una lista de empresas, servicios y productos en permanente
crecimiento. Veamos solo algunos de estos nombres propios. En 1994 se crean
Yahoo y Netscape; en 1995, Amazon y eBay; en 1997, Google y Netflix; en 1998,
Celera Genomics, PayPal (hoy de eBay) y la china Jingdong; en 1999, Napster,
Blogger, Alibaba, Despegar y la argentina Mercado Libre; en 2001, iTunes; en
2002, el Proyecto Tor, cuyo objetivo es crear una red que encamine los mensajes
protegiendo la identidad de los usuarios; en 2003, MySpace y Mercado Pago; en
2004, Facebook; en 2005, YouTube; en 2006, Twitter; en 2007, iPhone y Kindle;
en 2008, Airbnb y Waze; en 2009, Whatsapp; en 2010, Instagram y Uber; en 2011,
Snapchat y Zoom; en 2013, Tinder, Telegram y Cambridge Analytica; en 2014,
Happn; en 2015, Alphabet (ex Google), Discord y Pinduoduo; en 2017, Google
Meet; y en 2018, Emerdata Limited.
Conocemos menos sobre otros aspectos. Por ejemplo, cómo fueron
transformándose varias de estas empresas, en los últimos años, en nodos dentro
de la trama de una gubernamentalidad de doble faz, creadora y
Página 38
acondicionadora de un medio en el que los elementos
pudieran desplegarse y circular, orientada a la gestión de
poblaciones-públicos, por un lado, y capaz de reconducir desde esos públicos
hacia los individuos, hacia sus «perfiles de usuario», sus dobles virtuales,
con significativa potencia predictiva e incitativa, por el otro.
Cuando hablo aquí de gubernamentalidad me refiero a un
modo de ejercicio del poder que no solo es productivo antes que represivo, es
decir que produce realidad y subjetividad, sino que además se orienta sobre
todo a conducir las conductas. «El poder, en el fondo, es menos del
orden del enfrentamiento entre dos adversarios o del compromiso de uno frente
al otro que del orden del gobierno», escribía Foucault hacia
finales de la década de 1970. Y sintetizaba: «El ejercicio del poder consiste
en conducir conductas; actuar sobre las posibilidades de acción de los otros».
La etimología emparenta la noción de gobierno con el término cibernética: ambos
derivan del griego Κυβερνήτης (kybernetes), que significa «arte de
manejar una nave», y que Platón utilizó en La República con el
significado de «arte de dirigir a los hombres» o «arte de gobernar». No es
casual que cuando Norbert Wiener, el padre de la cibernética, creó el término,
tuviera en mente una ciencia basada en la información, cuyo objeto sería «el
control y comunicación en el animal y en la máquina», donde el ser humano es un
animal más.
De allí que la noción de biopolítica todavía nos resulta útil para
describir el tipo de poder propio de nuestro tiempo, del Tecnoceno en su fase
informacional. Un poder que ha logrado, primero, desarrollar un medio,
un mundoambiente del que no podemos salir porque somos cada vez más
dependientes de él (la red), y junto con él, en él y a través de él, toda una
batería de tecnologías y aplicaciones orientadas a predecir y conducir los
comportamientos, las emociones y los apetitos de las personas, para construir y
fortalecer lo que Shoshana Zuboff denomina «el mercado de la conducta futura»
(2020).
El proceso de esta «gubernamentalidad algorítmica», como la bautizaron
en 2013 los investigadores Antoinette Rouvroy y Thomas Berns, se despliega a
través de seis conjuntos de acciones que van desde el nivel micro del
individuo-usuario hasta el nivel macro de la población global, desde el singulatim hasta
el omnes, y luego —y esta es la gran
Página 39
novedad de la última década, la que nos sugiere mantener las alertas con
relación a la capacidad de vigilancia personal de estos dispositivos— pueden
reconducir al individuo concreto. Es decir, no solo son capaces de verificar o
autenticar la identidad (responder a la pregunta: ¿es usted en verdad quien
dice ser?), sino incluso de identificar una persona (¿quién es realmente
usted?) sin que ella haya dejado sus datos registrados de manera voluntaria.
La primera acción en este proceso es la captura de datos a través de
sensores que los registran y recogen por medio de diferentes dispositivos:
teléfonos móviles, cámaras de seguridad, pantallas hogareñas. La segunda acción
es el procesamiento de ese material para diseñar, formatear y editar datos de
entrenamiento que pueden ser inputs para diferentes acciones y
procesos; esta etapa es clave, y lega una profunda marca humana: la acción de
elegir una fuente de datos en lugar de otras deja huellas decisivas en
actividades y procesos maquínicos. En tercer lugar está el análisis de los
datos y las series, su puesta en correlación para desarrollar saber
estadístico: es el momento algorítmico propiamente dicho, de la totalización
(el omnes), donde es posible tener una visión del conjunto.
En cuarto lugar están los procedimientos para construir, a partir de la
serie, perfiles específicos; es cuando se comienza a regresar hacia el
individuo, pasando por conjuntos cada vez menores, más delimitados, organizados
a partir de las variables que se construyeron y se lograron medir: el targeting,
la segmentación y la microfocalización. En quinto lugar está la autenticación,
que consiste en verificar si la persona es quien dice ser. Un ejemplo: los
empleados de una empresa ingresan sus huellas dactilares en una base de datos;
luego, cada vez que quieren entrar en el edificio de la compañía, o acceder a
la plataforma virtual, deben demostrar que la impresión de su pulgar se
corresponde con la huella archivada. En sexto lugar, y este es el procedimiento
más novedoso y reciente: la identificación o individualización, que busca saber
quién es una persona aun cuando ella no haya declarado su identidad. Por
ejemplo, a partir de un chicle abandonado en una calle, poder identificar cómo
se ve la persona que lo masticó (inclusive, quizá, a medida que sigan
desarrollándose las bases de datos biométricas, quién es exactamente en
términos biométricos y administrativos). Es el caso de aplicaciones como
Blippar, que combina
Página 40
reconocimiento facial y «realidad aumentada»: la aplicación escanea
cualquier escena de la realidad, y al activar la cámara apuntando a alguna cosa
o persona, muestra toda la información que hay sobre ella en internet.
Claro que para arribar hasta aquí ha sido necesaria una conversión
masiva de lo viviente, e incluso de lo existente, en «dato»: una datificación
sin precedentes, aunque heredera genuina de la conocida vocación del biopoder
moderno por cuantificar la mayor parte posible de la experiencia humana para,
precisamente, ordenarla, administrarla, regularla, volverla productiva, y —con
el correr de los años— optimizarla e incluso programarla.
No a otra cosa se refería en 1798 el político escocés John Sinclair
cuando, recordando un viaje a Europa septentrional realizado doce años antes,
escribió, al finalizar su monumental obra de 21 volúmenes Cuentas
estadísticas de Escocia —en la que usa la palabra «estadística» por primera
vez en lengua inglesa—: «Por estadística se entiende en Alemania una
investigación con el propósito de determinar la fuerza política de un país, o
cuestiones relativas a asuntos de Estado; la idea que yo anexo a ese término es
la de una indagación sobre el estado de un país con el propósito de determinar
la cantidad de felicidad de la que gozan sus habitantes y los medios para
mejorarla a futuro». Para realizar esas primeras Cuentas, en 1790
Sinclair había enviado cuestionarios a más de 900 ministros de distintas
parroquias de la nación, con 171 preguntas sobre geografía, población,
producción agrícola e industrial y un conjunto de interrogaciones misceláneas
que, en conjunto, incluían desde estimaciones meteorológicas hasta el precio de
la comida, pasando por el modelo de gobierno local, la conformación de las
familias (desde la cantidad promedio de hijos por casa hasta la altura y el
peso promedios de los miembros del hogar), las enfermedades más comunes, las
profesiones y oficios (cuáles, cuántos las ejercen), las creencias religiosas y
hasta los rasgos de carácter dominantes en cada parroquia.
Página 41
Big data, perfilado y retroacción predictiva
Con el correr de los siglos, ese valioso corpus de entrevistas
estructuradas tan ricas como artesanales fue perfeccionándose hasta derivar en
uno de los fenómenos más complejos que definen la etapa actual del Tecnoceno:
la existencia y disponibilidad de los llamados big data o macrodatos.
Esto es, la descomunal cantidad de datos e información disponibles para el
agregado, el análisis, la correlación de informaciones y la elaboración de
conocimiento estadístico. Y algo más: no se trata solo de la cantidad; no son
exactamente los mismos tipos de datos que se usaban en el siglo pasado pero en
mayor cantidad. Por cierto el volumen es enorme, pero además se producen y
procesan a una velocidad gigantesca, lo que los vuelve disponibles casi en
tiempo real. Y son muchísimo más variados que sus parientes del siglo xx:
producto de la datificación que mencionaba antes, desde una foto compartida en
un grupo de whatsapp hasta el trayecto que hacemos para acompañar a nuestros
hijos a la escuela, pasando por la velocidad con que respondemos una llamada
telefónica y el uso que hacemos del transporte público, son ahora «datos»,
producidos de manera espontánea por la interacción con dispositivos
interconectados.
Su importancia se incrementa porque se los puede conjugar con el
desarrollo de máquinas y programas que procesan esa información y son capaces
de aprender de los resultados (machine learning, traducido como
aprendizaje maquínico o aprendizaje automático). Se trata de programas que no
solo desarrollan acciones a partir de instrucciones ya contenidas sino que
además incorporan nuevas informaciones que aparecen durante el proceso. Un
ejemplo nos lo ofrecen los equipos GPS que proponen una ruta y, si el conductor
toma un buen atajo, el aparato «aprende» de esta nueva información y afina la
próxima sugerencia.
Detengámonos por un momento en la frase «descomunal cantidad de
información»: ¿qué tan descomunal es, exactamente? En 2017, el académico alemán
Martin Hilbert, experto en big data y asesor informático en la
biblioteca del Congreso de los Estados Unidos, se refirió en una entrevista a
su estudio «How Much Information is There in the “Information Society”?»
(¿Cuánta información hay en la «Sociedad de la
Página 42
Información»?), que él mismo había realizado en 2012, acerca de la
cantidad de información digital y digitalizada disponible en el mundo. Y decía:
La última vez que actualicé este estudio, en 2015, había 5 zetabytes de
información. Un zetabyte es un 1 con 21 ceros, lo cual no te dirá mucho, pero
si tú pones esta información en libros, convirtiendo las imágenes y todo eso a
sus equivalentes en letras, podrías hacer 4500 pilas de libros que lleguen
hasta el Sol. […] Desde 2014 hasta hoy, 2017, creamos tanta información como
desde la prehistoria hasta 2014. Y lo más impresionante, para mí, es que la
información digital va a superar en cantidad a toda la información biológica
que existe en el planeta.
A propósito de esta cita de Hilbert, cabe subrayar al menos dos cosas.
La primera: que una asimilación semejante entre información de sistemas
cibernéticos e información biológica no es algo obvio. Se busca con ella,
mediante la noción de «información», recurrir a una «medida común» capaz de
poner en relación, e incluso en intercambio, fenómenos naturales y fenómenos
artificiales; individuos vivientes e individuos no vivos. Y la segunda: que en
este pasaje desde la «datificación» hasta la «digitalización» (porque solo
puede digitalizarse aquello que previamente ha sido convertido en dato),
no se trata —como algunos han insinuado— de una duplicación digital del mundo,
sino de una microfragmentación y una multiplicación vertiginosa de las
posibilidades de operar sobre el mundo, en maneras y cantidades que nos
resultan todavía difíciles de imaginar.
Por otro lado, recién en los últimos años se están desarrollando las
herramientas, los procedimientos, los protocolos de tratamiento adecuados para
abordar esa cantidad de información. Y ese proceso está recién en sus
comienzos. En este momento, el escenario de los llamados datos masivos es un
enorme laboratorio experimental en el que todo o casi todo parece posible, y
está en buena medida inexplorado.
Otra idea acerca de cuán macro son los macrodatos la
proporciona el investigador chileno Andrés Tello en su libro Anarchivismo,
de 2018:
Página 43
La cantidad de información almacenada cotidianamente en las diversas
aplicaciones, softwares y web de las grandes compañías de información resulta
abrumadora. El panorama hacia el año 2015 según Internet Live Stats no deja de
sorprender, pues por cada segundo que pasa, 98 mil y un poquito más de videos
son subidos a Youtube, 44 445 búsquedas se ingresan en Google, 2 millones de
correos electrónicos son enviados, 1708 llamadas se hacen por Skype, 1923
fotografías se suben a Instagram, 8893 tweets son publicados. Por día hay 4500
millones de publicaciones en Facebook, 27 mil millones de mensajes enviados por
whatsapp, y mil millones de documentos cargados en Dropbox.
Y esto, en el escenario prepandémico. No poseemos todavía cifras
confiables de cuánto han aumentado estos números durante 2020, pero basta tener
en cuenta este dato que dio a conocer la organización We Are Social en su
informe Digital 2021, publicado en enero de ese año: 1,3 millones de nuevos
usuarios se unieron a las redes sociales cada día durante 2020; dos cada tres
segundos, 490 millones en total. El número de usuarios de las redes sociales
equivale ahora a más del 54 por ciento de la población mundial. No es difícil
creerlo: solo teniendo en mente las clases virtuales que de manera precipitada
los profesores de buena parte del mundo comenzaron a subir a YouTube para
comunicarse con sus estudiantes en los distintos niveles educativos, podemos
conjeturar que el crecimiento ha sido muy significativo.
Los big data son el resultado de la convergencia y la
masividad de las redes informáticas, las telecomunicaciones y los distintos
dispositivos de captura de datos. No se trata de un efecto colateral. Es
importante recordar que internet tiene un origen bélico, y que desde su inicio
durante la Guerra Fría es una máquina de comunicación que incluye en su propia
estructura un mecanismo de defensa: frente a la posibilidad de un ataque
enemigo a una oficina central, ella descentraliza las comunicaciones. Ya no hay
una «cabeza» única, sino varios nodos interconectados; de ese modo, asegura la
transferencia de documentos o datos entre diferentes puntos de la red mediante
conmutación de paquetes, que diseminan el flujo de informaciones y permiten
que, eventualmente, algunas conexiones puedan
Página 44
salir de funcionamiento sin que el sistema entero se vea afectado, así
como que un usuario pueda comunicarse con otro desde cualquier punto de la red.
Con el tiempo, el perfeccionamiento de esa defensa se orientó a dar otra
vuelta: además de descentralizadas, las comunicaciones debían ser rastreables,
en caso de sabotaje interno o externo, y reversibles, ubicando a cada usuario
bajo observación real o posible. Si bien esta historia es muy conocida, no está
de más recordar —como dice Tiqqun en La hipótesis cibernética— su
significación política, íntimamente asociada con la emergencia de
la Era Atómica.
Los militares estadounidenses buscaban un dispositivo que preservara la
estructura de mando en caso de un ataque nuclear. La respuesta consistió en una
red capaz de redirigir automáticamente la información aunque casi todos los
enlaces estuvieran destruidos, permitiendo así que las autoridades
sobrevivientes permanecieran comunicadas y fuera posible la toma de decisiones
[…] Internet es el resultado de una transformación nomádica de la
estrategia militar.
[…] La cibernética deriva de internet y, al igual que
ella, es un arte de la guerra cuyo objetivo es salvar la cabeza del cuerpo
social en caso de catástrofe.
¿De dónde salen estos macrodatos? Ellos incluyen las huellas
que dejamos en una red social o en un smartphone, ya sea que se lo
use para hablar o porque está conectado a un programa con geolocalización como
Waze, Tinder o Google Maps. No solo se puede detectar adónde vamos, sino
también cuán rápido nos movemos (lo cual puede informar acerca de nuestra
estabilidad emocional, algo que, como veremos enseguida, es más significativo
que lo que imaginamos a simple vista). Incluso si escribimos un mensaje en
alguna plataforma estando enojados y a continuación borramos lo escrito antes
de publicarlo porque razonamos con prudencia que es mejor pensarlo un poco más,
el mensaje puede quedar registrado. También son rastreables nuestras
trayectorias de compras con tarjeta, y la información que recogen los
dispositivos instalados en lugares de trabajo que monitorean desde el consumo
de energía hasta la performance de los
Página 45
trabajadores. Toda esta información es almacenada por diferentes
empresas (de telefonía, motores de búsqueda, redes sociales, agencias de
vigilancia, proveedores de internet), y puede ser comprada y vendida, con
diferencias según las regulaciones de cada nación.
Distintas organizaciones pueden hacer uso de esos datos. Una búsqueda
rápida sobre «reconocimiento facial» en la web permitía hace ya unos años, en
2017, encontrar más de setenta conjuntos de datos (de entre cincuenta rostros y
dos mil) de acceso gratuito que se usan, por ejemplo, para evaluar estas mismas
tecnologías y evitar sus principales debilidades: defectos de iluminación,
cambios de pose, maquillaje. Las imágenes que constituyen esas bases, según se
informa en los mismos sitios, fueron tomadas de páginas de internet: Wikipedia,
Flickr, tutoriales de maquillaje subidos por los usuarios a YouTube.
Subrayo el hecho de que en los últimos años estos dos tipos de huella
han comenzado a entrelazarse. Un caso evidente es el de las imágenes del
rostro: cuando subimos fotos a Facebook, esta red social identifica las caras
de las personas que están en ellas y nos pregunta si las queremos etiquetar. Es
decir, reconoce quiénes están presentes en esas fotos. Esas imágenes incluyen
información biométrica que se puede enlazar con los datos comportamentales que
dejamos en la red. Lo mismo sucede cuando utilizamos la huella dactilar para
desbloquear un teléfono inteligente.
Entre otros muchos usos de estas tecnologías en la industria, en 2017,
las autoridades de Beijing implementaron en los baños públicos de los espacios
más concurridos de la ciudad, como el parque del Templo del Cielo, un sistema
de reconocimiento de rostro para expendedoras de papel higiénico, con el
objetivo de evitar el robo, o el uso excesivo, de ese producto: el sistema de
la empresa Shoulian Zhineng ofrece poco más de medio metro de papel por persona
cada nueve minutos tras un escaneo inicial del rostro del usuario. Desde 2018
se expandió en todo el planeta, desde Japón hasta la Argentina, una aplicación
de reconocimiento facial para casinos y casas de juegos de azar con el objeto
de impedir el ingreso a jugadores compulsivos y a quienes están cumpliendo
condenas. Un año más tarde, la empresa Honda presentó un casco de moto con
reconocimiento facial para evitar los robos. Durante la pandemia, se
Página 46
difundió en todo el mundo un sistema de reconocimiento facial para las
bicicletas de uso público.
Mención aparte merece la aplicación Clearview IA, que desde 2019
utilizan el FBI, la principal agencia de control de inmigración de los Estados
Unidos, el Departamento de Justicia y otras dependencias de aplicación de la
ley, así como empresas e incluso usuarios privados, en Estados Unidos y otros
países de Europa, América del Sur, Asia y Medio Oriente, de acuerdo con un
informe de BuzzFeed News de febrero de 2020. A partir de una sola fotografía,
la aplicación rastrea en internet las imágenes y toda otra información
relevante de la persona con una precisión cercana al 99 por ciento —aunque se
ha dicho que no es tan certera en mujeres como en varones, y que se comporta de
manera diferente ante distintos grupos raciales y demográficos—. Pese a esto,
se trata de una precisión mucho mayor que las aplicaciones conocidas hasta el
momento, ya que utiliza una base de datos con más de 3000 millones de imágenes
recopiladas de Facebook, Instagram, Twitter, YouTube y otros sitios web y redes
sociales. Tras la revelación del modus operandi de Clearview,
las grandes empresas de internet enviaron a la aplicación cartas para que
«cesara y desistiera» de usar sus fotografías, aunque todavía sigue funcionado
y ofreciendo en línea sus servicios, especialmente dedicados a «investigadores
y unidades de delitos mayores; para las unidades de lucha contra el terrorismo;
para los servicios de conservación y preservación; para las unidades de
Inteligencia y análisis de delitos; para las operaciones de patrulla y
seguridad; para las agencias de cumplimiento de la ley, y para las
verificaciones de antecedentes» (véase clearview.
ai).
Clearview fue desarrollada por el ex modelo, emprendedor autodidacta y
militante pro blanco australiano Hoan Ton-That y el político Richard Schwartz,
quien fue ayudante del entonces alcalde de Nueva York Rudolph Giuliani, creador
del eslogan «tolerancia cero». Contó además con el respaldo financiero del
empresario libertariano Peter Thiel, cofundador de PayPal junto con Elon Musk y
uno de los primeros inversores de Facebook, cuyo Consejo de Administración
todavía integra.
A comienzos de 2020, en medio del revuelo por los miles de millones de
datos utilizados sin permiso por la aplicación de reconocimiento facial, Hoan
Ton-That explicó que Clearview solo estaba dirigida a agencias de
Página 47
cumplimiento de la ley en EE. UU. y Canadá. Con todo, el 5 de marzo de
ese mismo año The New York Times reveló que un pequeño grupo
de multimillonarios también venía teniendo acceso a ella. El diario divulgó que
en octubre de 2018 John Catsimatidis, el propietario de la cadena de
supermercados Gristedes, estaba cenando en el exclusivo restaurante Cipriani,
en el barrio del SoHo de Nueva York, cuando vio entrar a su hija con un hombre
a quien él no conocía. Le pidió al mozo que fotografiara con sigilo a la pareja,
y enseguida subió la imagen a Clearview AI, que en segundos le informó que la
cita de su hija era un capitalista de riesgo de San Francisco. «Quería
asegurarme de que no era un charlatán», se ufanó Catsimatidis, mientras le
enviaba a su hija un mensaje de texto con la biografía de su comensal. Un año
más tarde, en febrero de 2021, el organismo canadiense de vigilancia de la
privacidad dictaminó que el uso de Clearview IA en el país es ilegal incluso
para el refuerzo de las funciones de seguridad, y exigió a la empresa que
dejara de ofrecer sus servicios en todo el territorio.
Página 48
Parte del material de marketing que Clearview
proporcionó a las fuerzas del orden. Fuente:
Clearview
Volvamos ahora a nuestro argumento. ¿Cuánto dicen de nosotros esas
huellas? Tomemos solo el caso de los rastros que dejamos en Facebook, una
empresa de datos que tiene 2740 millones de usuarios activos por mes, según el
informe de la agencia We Are Social de enero de 2021. Mas de un tercio de la
población mundial. No solo es mucha más cantidad de personas que las que
habitan el Estado hoy más poblado del mundo, China, con unos 1400 millones de
habitantes: es muchísima más información sobre cada persona, y mucho más
completa y detallada, que la que cualquier censo o estadística de un Estado
nación pudo obtener jamás, en línea, en tiempo real y con la posibilidad de
reconducir de forma directa a los individuos concretos. Nos encontramos así
frente a un escenario nuevo, un salto de escala en nuestra relación con las
tecnologías y con quienes pueden hacer uso de nuestras informaciones, que ya no
son solo los Estados, sino también organizaciones y empresas diversas.
Página 49
En 2013, un equipo liderado por el psicólogo polaco Michal Kosinski,
entonces estudiante de doctorado en Psicometría de la Universidad de Cambridge,
demostró que, sobre la base de un promedio de 68 «me gusta» dejados por un
usuario de Facebook, era posible predecir su color de piel (con 95 por ciento
de precisión), género (93 por ciento), orientación sexual (88 por ciento en
varones; 75 por ciento en mujeres) y filiación política (85 por ciento).
También podían determinarse su coeficiente intelectual, su religión, si usaba
drogas o alcohol e incluso si sus padres estaban separados. Luego, en otro
artículo de 2015 escrito junto con sus colegas Wu Youyou y David Stillwell,
mostró que fue capaz de predecir a una persona, y hacerlo mejor que sus amigos,
sobre la base de setenta «me gusta»; 150 fueron suficientes para superar lo que
sabían los padres, y 300 «me gusta», lo que sabía su pareja. Según cuentan
Hannes Grassegger y Mikael Krogerus en la revista suiza Das Magazin,
el día en que Kosinski publicó sus primeros hallazgos recibió dos llamadas
telefónicas: una amenaza de demanda legal y una oferta de trabajo. Ambas, de
Facebook.
Kosinski llegó a estos resultados sobre la base de tres elementos. Por
un lado, una encuesta psicométrica de personalidad basada en el modelo
O. C. E. A. N. o de los Cinco Factores, que es desde hace dos décadas el
estándar de la psicometría. Su nombre es un acrónimo de lo que esta tesis
entiende que son las cinco dimensiones centrales de la personalidad: Openness o
apertura a experiencias nuevas (a veces se lo denomina también
intelecto); Conscientiousness o responsabilidad, Extroversion o
extroversión, Agreeableness o afabilidad y Neuroticism o
inestabilidad emocional. El centro de psicometría de la Universidad de
Cambridge dispone de una gran cantidad de pruebas en línea basadas en este
modelo, en el que recoge datos que, afirmaban hasta 2017 sus políticas de
privacidad, podían ser «recolectados y utilizados para propósitos académicos y
de negocios, y también pueden ser revelados a terceros, por ejemplo (pero no
limitado a) institutos de investigación». Poco después esas políticas
cambiaron, posiblemente para ajustarse al Reglamento General de Protección de
Datos (RGPD) de la Unión Europea, y hoy solamente pueden utilizarse con fines
de investigación. Es posible ver en línea tanto el test de personalidad clásico
como el diseñado por Kosinski y las políticas de privacidad generales del
sitio.
Página 50
Ese fue el primer criterio para clasificar a los usuarios a partir de
una serie de factores o componentes, tal como establece la técnica llamada de
descomposición en valores singulares (SVD). Esta técnica fue la base a partir
de la cual el equipo Pragmatic Chaos de BellKor, integrado por investigadores
de AT&T, ganó en 2009 el Premio Netflix, dotado en un millón de dólares,
para el mejor algoritmo de filtrado colaborativo capaz de predecir las
calificaciones de los usuarios de las películas. Este concurso, que la empresa
lanzó cuando todavía se dedicaba a enviar DVD por correo, buscaba premiar a
quien lograse mejorar el sistema para predecir las calificaciones que ya tenía
la empresa, llamado Cinematch, en al menos 10 por ciento. Más de una década
después de cerrado el concurso del Premio Netflix, los métodos basados en SVD,
o modelos relacionados para datos implícitos, siguen siendo la herramienta
elegida por muchos sitios web para predecir lo que los usuarios harán.
Por otro lado, Kosinski utilizó una pequeña aplicación de Facebook
desarrollada por su colega David Stillwell denominada MyPersonality
(mypersonality.org/wiki), donde los usuarios podían completar cuestionarios
psicométricos que incluían varias preguntas de la encuesta O. C.E. A.N. y
recibir una valoración, o un perfil de personalidad. Para sorpresa de Kosinski,
no respondieron al test unas pocas decenas o centenas de personas, sino más de
58 000: tenía de pronto en sus manos la encuesta más grande de la historia de
la psicometría.
En tercer lugar, analizó los resultados mediante un trabajo comparativo
entre los datos obtenidos en esas encuestas y las huellas cibernéticas que
habían dejado las personas examinadas en el propio Facebook: qué habían
«megusteado», qué habían compartido o qué habían posteado en su Facebook, todo
ello clasificado por género, edad, ubicación, entre otras variables. Hasta que
se conocieron las investigaciones de Kosinski, la configuración por defecto de
Facebook permitía que cualquiera pudiera ver los «me gusta» de otro usuario.
Los investigadores empezaron a encontrar de este modo correlaciones aún
no razonadas ni hipotetizadas, sino que simplemente «se daban». Y notaron que
podían extraer deducciones e incluso predicciones solo observando el
comportamiento de las personas en línea. Por ejemplo, individuos con alto
coeficiente intelectual gustaban de la saga
Página 51
cinematográfica El Padrino, mientras que los de bajo
coeficiente habían preferido la marca Harley Davidson. Oscar Wilde y Sylvia
Plath eran preferencias de personas «abiertas a la experiencia», mientras que
las más conservadoras preferían ESPN2. Uno de los mejores indicadores de heterosexualidad
en los varones era haber dado «me gusta» a X Games, y en las
mujeres, a Adidas Originals. Haber dado «me gusta» al sitio Tatoo Lovers era
habitual en quienes bebían alcohol, mientras que gustar de Honda lo era entre
no fumadores.
Como es posible entrever, esta investigación inspiró de manera directa
la creación de la empresa Cambridge Analytica, en la que Kosinski se opuso a
participar. Fueron sus colegas Aleksandr Kogan y Joseph Chancellor, también
investigadores de la Universidad de Cambridge en aquella época, quienes
empezaron a utilizar datos de Facebook como parte de una colaboración con
Strategic Communication Laboratories (SCL), la empresa matriz de Cambridge
Analytica, cuyo CEO era Alexander Nix. Kogan invitó a Kosinski y a Stillwell a
unirse a su empresa Global Science Research (GSR), la firma que recopiló los
datos y se los vendió a la empresa de Nix, pero esa invitación no prosperó. A
mediados de 2021, Kogan seguía trabajando en la Universidad Cambridge, y
Chancellor en el departamento de investigaciones de Facebook, como psicólogo
social cuantitativo.
Como Kosinski, Stillwell y Graepel señalan en su estudio, no se trata
solamente de Facebook. Es más: en otras plataformas puede ser peor, ya que al
menos en FB somos conscientes de que alguien verá nuestros «me gusta». En
cambio, en otros tipos de registros digitales hoy generalizados, como los
historiales de navegación o de compra y las consultas de búsqueda, no asumimos
que podemos estar siendo observados y es posible que brindemos información que
nos deje todavía más expuestos. Como sostienen los investigadores en las
conclusiones de su trabajo: «La amplia variedad de atributos predichos por este
estudio indica que, con un tratamiento apropiado de datos, también es posible
revelar muchos otros atributos».
Página 52
Minería de datos, extractivismo y anticipación
Llegamos así a otro rasgo de este nuevo orden: el que se refiere al modo
de tratar estos datos, la llamada minería de datos aplicada a big data,
que implica toda una adaptación de las técnicas tradicionales de datamining debido
a las tres «v» características de los grandes datos: volumen, velocidad y
variabilidad. Como acabamos de ver, una de las formas de abordar estas
cantidades masivas de datos es la que hace emerger entre ellos correlaciones
para elaborar predicciones. Al hacerlo, se encadenan y comprimen en el
procedimiento maquínico al menos tres decisiones metodológicas importantes:
usar el análisis cuantitativo sobre el análisis cualitativo; usar modelos
probabilísticos y no otros, como por ejemplo simulaciones, y usar modelos
predictivos y no explicativos.
Como describe el investigador Momin M. Malik, del Centro Berkman Klein
sobre Internet y Sociedad de la Universidad de Harvard, al elegir el análisis
cuantitativo, «sacrificamos la capacidad de tener una comprensión narrativa de
la creación de significado, y elegimos trabajar con representaciones en lugar
de construcciones reales de interés, con el riesgo de deslegitimar la
experiencia vivida». Cuando elegimos un modelo basado en la probabilidad,
«restringimos nuestra visión del mundo como compuesto por entidades fijas con
ciertas propiedades, y priorizamos el uso de una tendencia central sobre la
participación con individualidades», y al priorizar la predicción, «creamos
modelos que no son confiables para obtener información sobre el sistema
subyacente».
Este triple acoplamiento en el nivel metodológico que queda inscripto en
el software es lo que intuyen Rouvroy y Berns cuando afirman que a esta nueva
estadística algorítmica no le interesa rastrear el «hombre medio», a la manera
de la estadística tradicional, sino captar la «realidad social» como tal, de
manera automatizada y directa, sin pasar por ninguna relación con la «media» o
con lo «normal», sin partir de hipótesis y sin someter esos datos a una
interpretación basada en el significado. Se trata de una estadística no
normativa, que establece correlaciones a partir de informaciones no
seleccionadas, perfectamente heterogéneas.
Página 53
En efecto, el objetivo de las estadísticas ha sido tradicionalmente
utilizar datos para comprender algo sobre procesos subyacentes, mientras que el
aprendizaje automático, si bien utiliza gran parte de la maquinaria matemática
y modelos estadísticos, busca diseñar asignaciones de entrada-salida
confiables, que puedan predecirse —no necesariamente interpretarse ni
comprenderse.
Por otro lado, estos sistemas automáticos de modelización de lo social a
partir de comportamientos, en su mayoría reacciones emocionales, a
distancia y en tiempo real permiten incluso automatizar la «personalización» de
interacciones. Una personalización que es contraintuitiva, ya que la propuesta
«personalizada» emerge de poner un número limitado de opciones personales en
relación con una serie estadística de gran escala.
Con el uso de estos datos, los perfiles no solo pueden armarse, sino que
también es posible actuar retrospectivamente a partir de ellos sobre el
universo de los usuarios y, por ende, buscar y encontrar conjuntos de rasgos
específicos (mujeres proclives a votar al candidato X; inestables emocionales a
los que les gusta Hello Kitty) para «personalizar» mensajes, esto es, para
incitar determinadas conductas en aquellas personas de las que se obtuvieron
los datos. (En particular, sobre los más influenciables, que suelen ser los
«inestables emocionales»). Es lo que Rouvroy y Berns denominan la «aparente
individualización» de la estadística algorítmica. No se trata de un efecto
colateral, sino de uno de los Santos Griales del orden informacional: una
estadística que no solo recoge datos de los individuos y los pone en
correlación para establecer patrones generales (y diseñar políticas o
campañas), sino que gracias a la enorme escala de la información recibida y a
la capacidad de las máquinas de procesar automáticamente esos volúmenes de
datos sin limitarse a variables preestablecidas, puede regresar al nivel de los
individuos para predecir sus posibles interacciones o para tratar de incidir en
sus comportamientos esperables.
Esta medición no se apoya únicamente en lo que los actores dicen sobre
sí mismos en relación con un tema, sino que además puede inferir gustos y
afinidades políticas, religiosas, gastronómicas o de otra índole a partir de
indicadores en principio no relacionados en absoluto con el
Página 54
tópico buscado. Como Kosinski y su equipo señalan en las conclusiones de
su trabajo de 2013:
Es importante destacar que, dada la cantidad cada vez mayor de rastros
digitales que las personas dejan, se hace difícil controlar cuáles atributos
están revelando. Por ejemplo, simplemente evitar el contenido explícitamente
homosexual puede ser insuficiente para impedir que otros descubran su
orientación sexual.
De allí que afirmen en ese mismo documento que es posible que la
capacidad de predecir los atributos individuales a partir de los registros
digitales de comportamiento tenga implicaciones negativas, ya que puede
aplicarse con facilidad a un gran número de personas sin que se den cuenta.
«Uno puede imaginar situaciones en las que tales predicciones, aunque sean
incorrectas, podrían representar una amenaza para el bienestar, la libertad o
incluso la vida de un individuo».
El tercer rasgo que vale la pena resaltar tiene que ver con la dimensión
temporal: el uso de estos saberes probabilísticos estadísticos tiene la
finalidad de anticipar, predecir y, en definitiva, inducir comportamientos de
individuos o grupos remitiéndolos a perfiles delineados sobre la base de las
correlaciones que surgieron del proceso de minería de datos. Eso sucede en las
esferas más diversas: para la obtención de un crédito, para la toma de
decisiones en una intervención quirúrgica, para la clasificación del tipo de
usuario que somos y, por ende, las ofertas que nos acercará — por ejemplo— una
aseguradora, para poner precio a los pasajes que queremos comprar, etcétera.
Se trata de una acción vigilante que se orienta al futuro; que busca no
solo —y no tanto— conocer lo que las personas hacen y por qué, sino sobre todo
intervenir en sus posibles conductas, ya no persuadiéndolas de los motivos por
los cuales les convendría hacer tal o cual cosa, sino induciendo su
comportamiento con distintas técnicas, como segmentar cada acción en
microsecuencias con el objetivo de interceptar la atención del usuario en cada
paso y orientarla en el sentido esperado, tratando de lograr la clausura
parcial de las posibilidades que se abren en cada interacción. Al respecto,
este nuevo orden de la gubernamentalidad
Página 55
algorítmica propicia aquello que, en términos de Gilbert Simondon,
llamaríamos las amplificaciones moduladoras o reproductivas allí donde habrían
podido darse amplificaciones transductivas, creadoras o transformadoras.
Vigilancia (im)personal y la ideología de lo «ágil»
El cuarto rasgo es algo ya mencionado: a las redes de vigilancia y
gubernamentalidad algorítmica no les interesan los motivos por los cuales una
persona hace tal o cual cosa, como tampoco se preguntan por qué determinadas
características (por ejemplo, gustar del film El Padrino y
nadar) quedan estadísticamente asociadas a otras (simpatizar con el partido X y
no tomar alcohol). Interesa, en cambio, que la curva de ocurrencia de esas
cuatro características tienda a coincidir más que a diferir, para establecer
una correlación. Luego, que cierto número de individuos sea sensible a la
inducción anticipatoria y despliegue el comportamiento esperado, coherente con
la serie.
La disciplina suponía sujetos que, en el mejor de los casos, asumirían
la tarea de vigilarse a sí mismos y controlar sus acciones para responder al
patrón normador (bajo la pena de un posible castigo: prisión, sí, pero también
desempleo o subempleo, enfermedad, hospicio, rechazo social). Y en el peor, que
deberían ser vigilados de manera continua en instituciones de encierro porque
no serían capaces de ejercer sobre sí ese ininterrumpido trabajo vigilante (en
última instancia, serían abandonados hasta por estas mismas
instituciones).
La gubernamentalidad de nuestro tiempo ya no requiere un sujeto
reflexivo. Por un lado, porque ella es desarrollada por agencias que no solo,
ni principalmente, exigen o incentivan la productividad directa del individuo,
sino su productividad indirecta en términos de «prosumo», de acuerdo con la
expresión acuñada por Alvin Toffler que refiere a la acción
Página 56
de los consumidores que, mientras consumen, producen valor (como los
televidentes que, al estar frente a un programa, producen rating).
En parte son consumidores: las empresas de bienes y servicios buscan seducirlos
o rechazarlos como clientes y, por qué no, votantes. En parte, insumos de un
producto que es precisamente un conjunto de datos. Sus reacciones, sus
relaciones interpersonales, su «capital social» devenido ahora además «capital
informacional», su funcionamiento afectivo-emocional incorporado en una base de
datos de gran volumen que se vende a otras agencias: empresas de bienes y
servicios, de aplicación de la ley, de diseño de políticas.
Por otro lado, podemos conjeturar que la gubernamentalidad algorítmica
no supone sujetos reflexivos porque esto significaría ralentizar los
intercambios, y la velocidad de las interacciones con los dispositivos
interconectados es una variable clave en la economía digital. Hoy los procesos
se han acelerado doblemente: en primer lugar, por la cantidad de información
por segundo que necesitamos procesar para desarrollar actividades de todos los
días. El multitasking, la multitarea, no es solo una cualidad maquínica,
sino que también se exige a los humanos —siempre la ejercimos, es cierto, solo
que no para estas actividades—. Por otro lado, es evidente que los procesos
automatizados no han desaparecido: se siguen realizando, inscriptos en los
procedimientos algorítmicos. Esto quiere decir que los menús de opciones
prediseñados involucran decisiones asumidas por programadores, lo cual implica
agilizar, pero también dificulta la posibilidad de evaluar y analizar procesos
de decisión.
Es llamativo que, justo en medio de la pandemia, hayan proliferado las
acciones por parte de algunos de los países más poderosos para movilizar a las
naciones hacia la ideología, y la praxis, de lo «ágil». En efecto, el 25 de
noviembre de 2020, en un panel establecido por la Organización para la
Cooperación y el Desarrollo Económicos (OCDE) y el Foro Económico Mundial, los
gobiernos de Estados Unidos, Canadá, Gran Bretaña, Dinamarca, Italia, Japón y
Singapur firmaron el primer acuerdo mundial de «Naciones Ágiles», al que pocas
semanas después se sumó Emiratos Árabes Unidos. En su Carta Fundacional, los
participantes sostienen que «los avances tecnológicos dentro y a través de las
esferas digital, biológica y física están presagiando una Cuarta Revolución Industrial,
impulsando
Página 57
una ola de innovación y espíritu empresarial». Por eso mismo ellos se
comprometen a «desbloquear el potencial de innovación» de las nuevas
tecnologías en esos tres campos, a fin de «evitar divergencias innecesarias en
las normas que inhiben la innovación transfronteriza y dificultan la acción
conjunta para abordar riesgos comunes». Esto es: se orientan a protocolizar y
estandarizar regulaciones «innovadoras» para dar vía libre a los mecanismos
automatizados de toma de decisiones. Su objetivo es «fomentar la cooperación en
la elaboración de normas» para que las empresas dentro de sus jurisdicciones
«introduzcan y escalen innovaciones en sus mercados». Y también, «unificar las
regulaciones, estándares y arquitectura digital a través de las cuales los
gobiernos y las industrias imponen requisitos a las empresas».
Se comprometen para ello a «permitir a las empresas poner a prueba y
experimentar innovaciones de una manera que respalde la competencia justa y
abierta». Llamativamente, sin embargo, entre las empresas invitadas a
participar en la reunión estaban nada menos que IBM y Facebook; en este último
caso, su representante Markus Reinisch, vicepresidente de Asuntos Públicos de
FB en Europa, Medio Oriente y África, se ofreció a «lanzar una convocatoria de
investigación, supervisada por un comité independiente de expertos en el campo
del derecho, la regulación y el espíritu empresarial, sobre qué enfoques de la
reglamentación son los más efectivos para la Cuarta Revolución Industrial». Y
asegura que invitará a otras empresas «a copatrocinar esta iniciativa y a aventurar
sus propias ideas» para apoyar el trabajo de las Naciones Ágiles.
Convendría observar este interés por normalizar y protocolizar la toma
de decisiones a escala planetaria a la luz de la agilidad y la aceleración que
reclaman los términos y condiciones de las aplicaciones: es excesivamente
farragoso detenerse a aceptar esos términos letra por letra, aplicación por
aplicación, sitio web por sitio web. Según el análisis realizado por dos
investigadores de la Universidad Queen Mary de Londres, si el comprador de un
simple termostato Nest —un producto de la familia Google—, que busca bajar sus
gastos domésticos mediante un artefacto que registra cuándo no hay nadie en su
casa para ajustar la temperatura y derrochar menos gas o electricidad, se
propusiera entender qué es realmente lo que
Página 58
está firmando cuando acepta los términos y condiciones de cada uno de
los dispositivos y aplicaciones conectadas al pequeño aparatito que adquirió
por internet, tendría que revisar cerca de mil de esos llamados «contratos».
Con todo, aun si lo hiciéramos, no sería suficiente: en especial después
de la pandemia del covid-19, ya no podemos negarnos a aceptarlos. Muchas de las
actividades cotidianas del ámbito comercial o bancario, de entretenimiento,
educativas o administrativas, como inscribirse en una escuela, solicitar
permiso de circulación o pedir un turno para tramitar el documento nacional de
identidad, solo pueden hacerse a través de todo un conjunto de proveedores de
internet, sistemas operativos, plataformas de red y aplicaciones cuyas
condiciones no es posible rechazar, a menos que aceptemos quedarnos fuera del
ámbito de la ciudadanía, esto es, excluido de los circuitos que ella misma
requiere.
Cabe reflexionar un instante más en la afirmación según la cual la
vigilancia algorítmica no supone un sujeto reflexivo que asume las matrices
normativas de la vigilancia en su proceso de subjetivación. Esto está implícito
en la polémica afirmación de Rouvroy y Berns, según quienes la
gubernamentalidad algorítmica «no produce ni incentiva una subjetivación», sino
que «sortea y evita a los sujetos humanos reflexivos, se alimenta de datos
infraindividuales, insignificantes por sí mismos, para crear modelos de
comportamiento o perfiles supraindividuales, sin apelar jamás al sujeto».
Consideremos esta tesis. Si aceptamos que, como dicen Rouvroy y Berns,
estos procedimientos algorítmicos no incentivan una forma particular de
subjetivación, podríamos preguntarnos si podrían resultar prácticas
desubjetivantes. Y es posible, en cierta medida.
En 2019, exponiendo en un coloquio sobre estas cuestiones, un artista me
preguntó: «¿Y quién dice que queremos seguir haciendo esos esforzados e
infructuosos ejercicios de autodesciframiento?». Se refería así a una nueva
posibilidad que brindarían estos dispositivos, incluidos tanto las redes
sociales como las técnicas psicométricas y los test dentro y
fuera de línea, para la «asistencia», como la llama el investigador Eric Sadin
(2017), en conocerse a uno mismo. Una delegación, un vicariato que implica cierto
desasimiento, un relajamiento en los controles con respecto a ese debido
cuidado de sí que otras tecnologías del yo reclaman y exigen
Página 59
del sujeto. Quizás un deseo de ser exonerado de un peso, de una culpa
(¿por existir?) y de una responsabilidad. Tal vez un deseo de abandonar el yo,
de olvidarse de uno mismo por un rato —algo que los psicoanalistas conocen y
valoran bien—, solo que delegando esa tarea en mecanismos de los que no podemos
decir que van a realizar la tarea por nosotros de manera satisfactoria. Si
atendemos al problema de los sesgos tan discutido en la literatura sobre
algoritmos, no parecen ser muy sutiles.
Por otro lado, también cabe pensar que el hecho de que los
procedimientos algorítmicos se «salteen» al sujeto, desconozcan e incluso
omitan sus motivaciones, no significa que no produzcan, de todos modos, alguna
forma de subjetivación. Más bien por el contrario, el modelo de la
gubernamentalidad algorítmica no parece «olvidar» al sujeto, sino que lo
interpela tal como la teoría cibernética lo ha definido hace más de setenta
años: como una «caja negra» de la que solo es posible conocer el input y
el output. Por eso la gubernamentalidad algorítmica se concentra en
sus funciones comunicativas e interactivas: hacer clic, reaccionar,
intervenir, comunicar. Incentiva la producción de un usuario 1-click que
emite señales continuamente, un homo comunicans que participa,
como desconcertado donador, del ritual sacrificial de su propia autonomía.
Con todo, sin embargo, el sujeto supuesto por los dispositivos jurídicos
y técnicos del gobierno algorítmico de las conductas es un homo
œconomicus prudente que sabe, o debería saber, ponderar los riesgos de sus
acciones y reacciones, de sus comentarios, de su red de amigos (a quiénes pide
«amistad», a quiénes acepta o rechaza). Un supersujeto multitasking capaz
de evaluar los «términos y condiciones» de cada dispositivo, que
sabe elegir el software adecuado, que encripta y desencripta mensajes, que abre
las cajas negras de la tecnología y se maneja entre ellas como un ingeniero, un
especialista en seguridad, un lingüista, un contador, un experto en leyes y un
militante social, todo al mismo tiempo, antes de empezar a hablar de sus
intereses específicos. Pero como vimos, hoy eso es imposible. Y todos lo saben.
En este nuevo orden informacional, los dispositivos de captura se
dirigen al viviente humano en un doble juego. Por un lado, apuntan a ese
«sujeto supuesto saber» que es el «usuario prudente», que de tecnologías y
dispositivos en realidad sabe poco y nada, pero al que interpelan los
Página 60
protocolos regulatorios, los términos y condiciones, todo el aparataje
contractual que simplemente está allí para proteger a las empresas. Y por otro
lado, se dirige el estado metaestable emocional y afectivo de un viviente
humano al que se lo bombardea con propuestas, muchas de ellas atractivas y
convenientes, y se lo interpela y confronta con el fantasma de «su» perfil
personalizado, al que se lo incita a parecerse. No una representación sino una
simulación algorítmicamente lograda de aquello que podría ser su identidad, que
se le propone como espejo, no demasiado confiable pero operativo, de sí mismo.
Página 61
Hacktivismo, biometría y vigilancia genética
Ciencia forense y civilización de las costumbres: de cómo educar a
dueños «incívicos» de perros • ¿Y si alguien tira un chicle o una colilla de
cigarrillo? • Nuevas tecnologías para el viejo identikit • Sesgos, racismo,
imprecisión y vulnerabilidad de la evidencia de ADN
• Estrategias artísticas de anonimización en la «vida real» •
«Como un pariente lejano» • La cultura de la vigilancia: las personas le temen,
la reclaman y se divierten con ella • Chelsea Manning, los desaparecidos de
Ayotzinapa y un desfile de moda en París
La lucha por la subjetividad moderna pasa por una resistencia a las dos
formas actuales de sujeción: una que consiste en individuarnos según las
exigencias del poder, otra que consiste en vincular a cada individuo a una
identidad sabida y conocida, determinada de una vez por todas. La lucha por la
subjetividad se presenta, pues, como derecho a la diferencia y derecho a la
variación, a la metamorfosis.
Gilles Deleuze,
Foucault, 1986
Noticia 1. En mayo de 2016, el Ayuntamiento de
Mislata, en Valencia, España, promulgó una ordenanza que obliga a los vecinos a
realizar una extracción de material genético a sus perros para crear un banco
de datos de ADN canino. El propósito es sancionar a quienes no levanten los
excrementos que dejan sus mascotas en la vía pública. Para eso, la empresa
concesionaria de limpieza recoge muestras de los excrementos hallados en las
calles y las envía a un laboratorio, donde son confrontadas con el banco genético
del Censo Municipal para determinar la identidad
Página 62
del perro y de su dueño. Así, los propietarios «incívicos», como los
llama la prensa, deben pagar multas de hasta 200 euros por excrementos no
levantados, y 300 euros si los perros no están censados. Desde entonces, casi
treinta ciudades españolas han replicado esa metodología, con sanciones que van
de los 60 euros a los 600, y en algunos casos, 1500.
La práctica no es del todo nueva: la firma de biotecnología que patentó
el sistema, llamada Poo Prints (literalmente, «huellas de caca») y fundada en
2008, asegura que para 2021 hay más de 5000 comunidades en Gran Bretaña, Canadá
y los Estados Unidos que utilizan el método.
Noticia 2. La primera vez que se recurrió al
análisis de material genético como parte de una investigación criminal fue hace
unos treinta y cinco años. En 1986, Dawn Ashworth, una joven de 15 años, fue
violada y asesinada en Leicestershire, Inglaterra. Tres años antes se había
cometido en una localidad cercana un crimen similar, el de la también
quinceañera Lynda Mann. El análisis de ADN realizado a partir de muestras de
semen hallado en los cuerpos mostró que el autor de ambos crímenes era el
mismo, pero su comparación con el perfil genético del único sospechoso —quien,
además, había confesado su culpa en el segundo asesinato— no indicó
coincidencia. La prueba, en su estreno judicial, sirvió para dar fe de la
inocencia del imputado.
Para resolver el caso se realizó un análisis de perfiles genéticos de
5000 varones adultos residentes en la zona. Este trabajo duró seis meses, pero
no produjo resultado alguno. Poco después, el empleado de un bar oyó a un
hombre llamado Ian Kelly jactándose de haber obtenido 200 libras por haber
donado una muestra haciéndose pasar por su amigo Colin Pitchfork, panadero de
la localidad. El 19 de septiembre de 1987, Pitchfork fue arrestado. En el
interrogatorio posterior el panadero admitió su culpa en ambos crímenes, y
luego de cotejar las muestras de ADN, resultó ser el primer violador serial
identificado por un estudio genético tras una búsqueda masiva.
Página 63
¿Qué tienen en común estos dos casos tan distintos? Vemos, por un lado,
la presencia de rastros genéticos, y por otro, la preexistencia de una base de
datos o, en su defecto, un relevamiento que permite la creación de una base
semejante para, a partir de ella, establecer una comparación. Pero ¿qué sucede
si esa base no existe, y los relevamientos orientados a construirla fracasan?
Esto ocurre muchas veces, ya que en el mundo «real», el de la vida biológica,
no existen por ahora almacenes de datos suficientemente exhaustivos. Ese fue el
caso en 2011, cuando Candra Alston y su hijita Malaysia Boykin fueron
asesinadas en su departamento de Columbia, en Carolina del Sur, Estados Unidos.
Nadie registró el hecho, ni hubo cámaras que pudieran dar pistas del asesino.
En aquel momento, la policía recolectó ADN de más de 150 personas, pero la
investigación quedó en nada.
La genética forense siguió trabajando para superar esta limitación, y
desde hace más de diez años vienen desarrollándose técnicas que permiten
especular con la posibilidad de reconstruir un rostro a partir de restos de
ADN. La técnica se denomina fenotipado o fenotipificación de ADN (FDP, por sus
siglas en inglés). El FDP difiere de la tipificación de ADN tradicional, o
genotipado, en varios aspectos. En primer lugar, esta última no revela
información personal, sino que determina si dos muestras pertenecen a la misma
persona; o si hay probabilidades confiables de filiación entre dos personas. El
FDP, en cambio, parte del ADN que queda en un escenario cualquiera para crear
una posible descripción de la apariencia o identikit de quien estuvo allí. A
diferencia de la tipificación o genotipado de ADN, que confirma la identidad
dentro de un universo de personas posibles, el FDP busca predecir la
apariencia de una persona que no se conoce o no se encuentra.
La primera aparición pública de esta técnica en el ámbito de la
aplicación de la ley fue en enero de 2015, precisamente para reabrir el caso de
Alston y su niña. Ese año la policía de Columbia adquirió los servicios de la
empresa Parabon-NanoLabs, gracias a cuyo programa Snapshot pudo desarrollar y
dar a conocer un posible identikit del atacante. (El documento de difusión de
Parabon-NanoLabs puede consultarse en el sitio web de la empresa).
Página 64
Las indagaciones con este método permiten obtener datos probabilísticos
sobre sexo, color de ojos, color de cabello y un polémico «rango de etnicidad»
o «ancestría», elemento que causa gran inquietud porque señala el retorno de la
noción más o menos encubierta de raza que parecía haber quedado atrás desde
las Cuatro declaraciones sobre la cuestión racial de la
Unesco, redactadas por especialistas de distintas disciplinas
científicas en 1950, 1951, 1964 y 1967, como parte de un programa de dicho
organismo para fomentar el conocimiento de nociones científicas sobre la raza y
combatir los prejuicios raciales.
Esas búsquedas no permiten definir la edad, porque, como indicaba en
2010 el biólogo molecular Manfred Kayser, de la Escuela de Medicina de la
Universidad Erasmus de Rotterdam, Holanda, y uno de los grandes precursores en
la investigación de la técnica de FDP para la ciencia forense, no hay
marcadores de ADN para la edad. «Nos encontramos frente a un problema
—explicaba Kayser a la revista MIT Technology Review—, porque
normalmente el ADN no cambia con los años. […] De allí que tenemos
que buscar otra vía de acceso». Para eso Kayser, uno de los desarrolladores de
la prueba de ADN HIrisPlex, que permite predecir el color de cabello y de ojos,
desarrolló un método basado en el sistema inmunitario para establecer la edad a
partir de rastros de sangre con un margen de error de nueve años.
Identificaciones genéticas
Si atendemos a uno de los rasgos más significativos de nuestro tiempo,
que es la condición transdisciplinar y multiescalar de la tendencia técnica
orientada por la digitalización —una de cuyas manifestaciones es la
investigación de ciertos temas y problemas en ámbitos de aplicación
completamente distintos, así como su desplazamiento rápido a diferentes esferas
de la vida social y cultural—, no debería sorprendernos saber que
Página 65
esta tecnología, que se desplegó de manera pionera tanto en un
laboratorio privado de los Estados Unidos como en una universidad europea para
usos forenses, también fue desarrollada en los mismos años por una joven
artista en un laboratorio de «biología de garaje» o «DIYbio» (por Do It
Yourself, Hágalo Usted Mismo).
Se trata de Heather Dewey-Hagborg, una graduada en Artes de la
Información con conocimientos avanzados en programación de computadoras, quien
por entonces venía llevando adelante algunas piezas críticas de la tecnología,
como por ejemplo la obra de arte público Who owns you? (2008-2011),
instalada en el marco del proyecto Billboard Art Project. En una
sutil pero evidente crítica al gigante tecnológico, Dewey-Hagborg usó la
tipografía y los colores del logo de Google para escribir «¿Quién es tu dueño?»
en una cartelera electrónica gigante ubicada en la ruta de acceso a Utica,
estado de Nueva York.
A partir de 2012, Dewey-Hagborg comenzó a explorar las prácticas
de biohacking en el laboratorio Genspace, de Brooklyn: el
primer laboratorio de biología comunitaria del mundo, fundado en
2009, donde las personas, sin necesidad de títulos previos, pueden aprender
técnicas y procedimientos de las ciencias de la vida.
La artista decidió explorar las posibilidades de la identificación y
autenticación, ya no en el espacio cibernético, sino en el físico, el de la
información biológica. Y para esto llegó a desarrollar la técnica de
fenotipado, con métodos muy similares a los que comentamos antes, y a
utilizarla en el campo artístico al mismo tiempo, e incluso un poco antes, que
científicos, empresarios y agencias de gobierno. Expuso sus primeros resultados
en la serie Stranger Visions (2012-2013; la documentación de
la pieza está disponible en la página web de la artista), en la que
Dewey-Hagborg creó retratos esculpidos en tres dimensiones a partir del
análisis de material genético extraído de restos recogidos en lugares públicos,
como chicles, pelos o colillas de cigarrillo. Primero obtuvo y documentó el
hallazgo de esos materiales de desecho; luego procesó los restos de ADN
encontrados en ellos para concentrarse en las cadenas que proveen información
sobre sexo, color de ojos, de piel y de cabello, «rango de etnicidad», además
de ciertos rasgos faciales como el ancho de la nariz y la boca. Volcó esos
datos en un programa informático y, tras compararlos
Página 66
con bases de datos disponibles en la red, produjo una predicción o
estimación especulativa de los posibles rasgos faciales de la persona a la que
ese material pertenecía. Como la técnica no permite conocer la edad, los
retrató de unos 25 años (¿algo así como la nueva edad de los ángeles?), y los
imprimió en una impresora 3D a color en tamaño natural.
En 2015, ella contó esa experiencia en el texto «Sci-fi crime drama with
a strong black lead» (Drama criminal de ciencia ficción con un fuerte
protagonismo negro):
Entre 2012 y 2013, coleccioné obsesivamente pelos caídos, colillas de
cigarrillos, chicles masticados tirados en el piso y pedacitos de uñas para
investigar cuánto podía aprender sobre las personas que los habían arrojado al
piso. Lo que descubrí fue que al combinar un arsenal de investigaciones
publicadas, bioinformática y herramientas de aprendizaje maquínico, podía hacer
inferencias o predicciones estadísticas sobre cómo se veían y actuaban estas
personas, qué tipo de afecciones tenían e incluso cuáles eran sus apellidos. En
mi proyecto Stranger Visions me apropié de estas técnicas e
interpreté un subconjunto de ellas para crear retratos en 3D a todo color de
tamaño natural de los extraños cuyo ADN había recopilado.
Dewey-Hagborg expuso Stranger Visions a partir de 2012.
Como derivado de esa misma acción, e ingresando en la línea activista del
bioarte, o arte realizado a partir de técnicas y materiales biológicos, al año
siguiente comenzó a trabajar en técnicas de «contravigilancia», promoviendo el
ocultamiento de sus propios rastros de ADN, en una estrategia que recupera,
para la protección de la información biológica, el tópico de la anonimización
en la jerga informática (hay que recordar que Dewey-Hagborg se formó como
artista de la Información). La primera pieza en esa línea fue DNA
Spoofing o Falsificación de ADN, un video donde muestra
maneras de ocultar las huellas genéticas. En la página web de la artista
dedicada a esta pieza puede leerse:
Así como la suplantación de IP hace posible la navegación anónima en
internet, la falsificación de ADN amplía este potencial al codificar
Página 67
material genético, permitiendo trayectorias físicas anónimas igual que
las navegaciones ocultas en el mundo digital. En este espíritu, nuestro trabajo
ofrece algunas técnicas DIY para contrarrestar la vigilancia genética.
En 2014 la artista desarrolló el proyecto-producto Invisible,
que funciona como ocultador de ADN. Invisible incluye un kit
con dos envases de aerosol, uno llamado «Borrar» y otro «Reemplazar». «Borrar»
elimina el 99,5 por ciento del material de ADN sobre cualquier superficie,
mientras que «Reemplazar» oculta el restante 0,5 por ciento rociando una capa de
material genético arbitrario. No es difícil imaginar que este producto podría
ser utilizado para ocultar un crimen real. En una comunicación personal con la
artista, le pregunté cómo interpretaba estos potenciales usos no deseados de la
pieza, y ella respondió: «Se trata, en realidad, de un aspecto secundario del
trabajo». El punto central, agregó, es «llamar la atención sobre la
vulnerabilidad de la evidencia de ADN. Cuestionar su autoridad como “estándar
de oro” de la ciencia forense. Si el ADN puede ser pirateado, creado y
“plantado” como cualquier otra evidencia, ¿merece el elevado estatus que se le
confiere?».
Al año siguiente, fue una de las principales promotoras del colectivo de
artistas Biononymous.me, que integran también, entre otros, el crítico Brian
Holmes y la escritora y artista Dorothy Santos, y que se define como «un centro
para la investigación comunitaria en vigilancia biológica». Por vigilancia
biológica el grupo entiende «el medio por el cual se utiliza la ciencia
biológica para rastrear, monitorear, analizar y convertir cuerpos en datos»,
desde la extracción de ADN y microbios de nuestra piel, uñas, cabello y fluidos
corporales hasta el análisis para identificar partes del cuerpo, como rostros,
huellas dactilares e iris, pasando por «el seguimiento de la vida misma
mediante el calor corporal, el pulso, la transpiración y los movimientos
involuntarios: es la vulnerabilidad a la que nos enfrentamos todos los días por
la propia situación de ser humanos, simplemente por tener un cuerpo».
En el sitio web de Biononymous.me pueden encontrarse distintos recursos
para burlar los sistemas de identificación digital de huellas
Página 68
dactilares o instrucciones relativamente sencillas, a veces incluso
candorosas (maquillaje, peinados), para evadir el reconocimiento facial.
Biononymous es un proyecto precursor, no el único, que registró la
vulnerabilidad que implica, con relación a derechos fundamentales de las
personas, la combinación entre datificación, digitalización y datos masivos.
En efecto, desde que la técnica del reconocimiento facial comenzó a
utilizarse de manera intensiva, a comienzos de la década de 2010, atrajo el
interés de los defensores de la privacidad, como el Dazzle Club, un colectivo
de artistas con sede en Londres cuyos integrantes usan maquillaje para
camuflarse mientras hacen caminatas silenciosas para protestar contra el uso de
cámaras de reconocimiento facial por parte de la policía metropolitana. Se
trata de unas pocas pero efectivas líneas en colores primarios, o
contrastantes, que cruzan el rostro; a veces en forma de Y invertida, otras
atraviesan de manera horizontal frente, ojos, nariz y boca; otras cruzan el ojo
de arriba abajo.
Página 69
Imagen de los diseños antirreconocimiento facial de Dazzle Club.
No solo los artistas reaccionaron frente a los sistemas de vigilancia
biológica. En 2017, el ingeniero ruso Grigory Bakunov, director de tecnología
en Yandex, el equivalente de Google para el público en Rusia, desarrolló un
algoritmo que puede eludir algunos sistemas de reconocimiento facial con unas
simples líneas de maquillaje en la cara. En este caso cabe interpretar que está
en juego, también, cuál será la potencia que lidere la captura y el
procesamiento de esos datos. Aquí una vez más, lo personal —los propios datos—
es geopolítico.
Poco después, en otoño de 2020, durante los preparativos para el desfile
en París de su propia marca, Atlein, el diseñador francés Antonin Tron solicitó
a la maquilladora Fara Homidi que creara un estilo que estuviera en consonancia
con el algoritmo antirreconocimiento facial de Bakunov. El resultado fue una
«versión ligeramente más simple y desordenada» de los diseños futuristas del
experto ruso, según comentó Homidi, con formas de color negro azabache y
cobalto atravesando la
Página 70
nariz y un ojo. «Es en gran medida un maquillaje-declaración, y funciona
como equipamiento de batalla moderno», explica Homidi en su sitio de Instagram.
«Con las cámaras de los teléfonos móviles en todas partes — agrega—, no es
difícil imaginar que un algoritmo de reconocimiento facial pueda usarse contra
cualquiera que participe en protestas, incluso si tiene derecho a hacerlo».
Más recientemente, en enero de 2021, el artista estadounidense residente
en Berlín Adam Harvey desarrolló, junto con Jules LaPlace, el proyecto
Exposing.ai, fundado en años de investigación sobre los conjuntos de datos de
entrenamiento que se usan para perfeccionar las tecnologías de reconocimiento
facial y otros métodos de análisis apoyados en la biometría. Después de
rastrear y examinar cientos de conjuntos de datos, surgió un patrón: esos
conjuntos estaban integrados por millones de imágenes descargadas de
flickr.com, donde las licencias de contenido son muy permisivas y abundan los
datos biométricos. Uno de los objetivos del proyecto es «contar cómo las
fotografías de ayer se convirtieron en datos de entrenamiento de hoy», explican
Harvey y LaPlace.
El sitio de Exposing.ai (exposing.ai) proporciona un motor de búsqueda que permite que los usuarios verifiquen
si sus fotos personales de Flickr, subidas entre 2004 y 2020, están dentro de
los conjuntos de datos de acceso público creados para entrenar, probar o
mejorar tecnologías de vigilancia a través del reconocimiento biométrico, que
luego se utilizarán en aplicaciones académicas, comerciales o de organismos de
Defensa.
El propio Harvey trabaja, desde 2017, en el despliegue de la plataforma
VFRAME (Visual Forensics and Metadata Extraction, Extracción Visual de
Metadatos y Análisis Forense), que desarrolla tecnologías de visión por
computadora para apoyar a investigadores de derechos humanos y a periodistas
que trabajan en zonas de conflicto. Su tarea consiste en ayudarlos a procesar
grandes conjuntos de datos de video o imágenes, o a detectar por computadora
material peligroso disperso en el territorio.
Uno de los proyectos que integra VFRAME es el «Detector de municiones en
racimo», donde se desarrollan algoritmos de entrenamiento para descubrir
objetos, con el propósito de localizar municiones ilegales en
Página 71
zonas de conflicto a partir de visión computarizada. Otro proyecto
consiste en desarrollar inteligencia artificial para procesar los videos
compartidos en línea, que son la base de la documentación de violaciones a los
derechos humanos. Dado que la revisión manual de estos videos es costosa, y
dado que cada vez se publican más y más videos, es necesaria mucha colaboración
—o inteligencia artificial— para interpretar estos grandes conjuntos de datos.
VFRAME trabaja actualmente con las organizaciones Syrian Archive y Yemeni
Archive desarrollando herramientas de visión por computadora que les permita
abordar estos desafíos.
Otro trabajo que resignifica el uso de la técnica de vigilancia es Nivel
de confianza, del artista mexicano Rafael Lozano-Hemmer: se trata de una obra
de arte interactivo en cuyo archivo interno están registrados los rostros de
los 43 estudiantes desaparecidos de la escuela normalista de Ayotzinapa en
Iguala, México, en septiembre de 2014. La pieza consta de una cámara de
reconocimiento facial que «lee» los rostros de los visitantes o espectadores
que se enfrentan a ella, y utilizando algoritmos de reconocimiento facial, mide
cuánto se parecen a los rasgos de los estudiantes, generando un «nivel de
confianza» que muestra cuán cercana es esta coincidencia, expresada como
porcentaje. La pieza fue presentada el 26 de marzo de 2015, exactamente seis
meses después de que ocurrieron las desapariciones forzadas. Como se lee en la
explicación que proporciona el artista, ella «nunca encontrará una coincidencia
exacta, ya que sabemos que los estudiantes seguramente fueron asesinados y
quemados. Sin embargo, el lado conmemorativo de este proyecto es la búsqueda
incesante de los estudiantes y su superposición con los rasgos faciales del
público». Cualquier institución, centro cultural, galería o universidad puede
descargar gratuitamente el software del proyecto y ponerlo en funcionamiento.
Por otro lado, si un coleccionista quisiera adquirirlo, el artista estipuló que
los ingresos que provengan de su exhibición o venta vayan a la comunidad
afectada y se inviertan en ella, en forma de becas de estudio, entre otras
posibilidades.
Vale la pena detenerse por un momento en esta pieza memorial, que por un
lado denuncia el múltiple abandono del que fueron objeto estos 43 estudiantes,
primero llevados a la fuerza a participar de un mitin político,
Página 72
luego asesinados por un grupo todavía no determinado, presuntamente
quemados y nunca encontrados (solo los restos de uno de ellos fueron
reconocidos). Y por otro, se pregunta y nos pregunta por qué, existiendo estos
mecanismos cada vez más sofisticados de identificación, la violencia política
en su país y mucho más allá de él no es de una vez enfrentada con decisión y
justicia.
Antes de continuar, quisiera llamar la atención sobre el hecho de que,
al menos en los países centrales de Occidente, están siendo los artistas, los
diseñadores y las organizaciones no gubernamentales quienes más han
visibilizado la pregunta por los usos abusivos de estas tecnologías, frente al
comparativo silencio de las principales autoridades políticas, académicas y
científicas. Se trata de un elemento importante a tener en cuenta cuando
buscamos interpretar el papel de las manifestaciones culturales y artísticas en
relación con el campo social y político. Como decíamos en la introducción, este
síntoma nos da pistas acerca del papel no subordinado de estos campos respecto
de las zonas «duras» de la realidad; son, por el contrario, un motor de
interrogación, desafío e imaginación alternativa.
«interpretaciones especulativas»
Volviendo a Dewey-Hagborg, a partir de su primera exploración en Stranger
Visions continuó trabajando con la técnica del fenotipado, cada vez
más consciente de los peligros y las controversias que ella implicaba, tanto
con relación a la privacidad de las personas cuyo ADN se investigaba sin
permiso como respecto de los riesgos asociados a los sesgos y a las
deficiencias en las interpretaciones de los datos.
En 2013, la artista fue convocada por Hal Brown, del Instituto de
Medicina Legal de Dalware (EE. UU.), para trabajar en el caso de una mujer no
identificada que había muerto hacía veinte años. Después de ver
Página 73
la muestra de la artista, Brown la contactó y le preguntó si ella podía
hacer un retrato-imagen tridimensional de esta mujer, para ayudar a los
investigadores a identificarla, y Dewey-Hagborg aceptó el desafío. En
declaraciones a Matthew Herper, de la revista Forbes, la artista
señaló que solo aceptó este caso, entre otras propuestas de organismos de
aplicación de la ley, porque no era un asunto penal sino un caso de
identificación de restos: «Me molesta que esta tecnología se utilice en
investigaciones penales, cuando sigue siendo tan especulativa. […] El único uso
potencial que veo para esta tecnología hoy es la colaboración que he mantenido,
trabajando en restos no identificados. […] tengo serias dudas sobre el uso de
esta tecnología en la búsqueda de sospechosos. Los científicos tienen razón en
preocuparse», expresó.
En los últimos años, la artista realizó dos piezas de intervención con
Chelsea Manning como protagonista. Manning, registrada al nacer como Bradley
Edward, es ex soldado y analista de inteligencia del ejército de los Estados
Unidos que cobró notoriedad por haber filtrado a WikiLeaks cientos de
documentos clasificados sobre las guerras de Afganistán y de Irak. Esto incluyó
el controversial video conocido como Collateral Murder (Asesinato
colateral), que expone detalles acerca de un presunto ataque aéreo
en Bagdad del 12 de julio de 2007, cuando dos helicópteros estadounidenses
abrieron fuego contra un grupo de civiles. En el episodio murieron doce
personas, incluidos dos colaboradores de la agencia Reuters.
Manning fue detenido en 2010 y, tres años después, condenada por un
tribunal militar a cumplir una pena de 35 años de prisión. En enero de 2017, el
presidente Barack Obama conmutó el resto de la pena y Manning salió de la
cárcel el 17 de mayo de ese mismo año. Mientras estuvo presa, sin que
prácticamente nadie pudiera visitarla, Manning le envió a Dewey-Hagborg hisopos
con muestras de piel de su mejilla y algunos recortes de cabello. Con ese
material, la artista realizó en 2015 dos retratos: uno andrógino y otro
«femenino». Al colocar uno al lado del otro, puso en evidencia el reduccionismo
de fijar el género de una persona a partir de una lectura simplista del sexo
genético, una práctica rutinaria en el análisis forense del ADN. Ella explica
así, en su sitio, la pieza que ambos retratos componen, y a la que
bautizó Radical Love:
Página 74
Encarcelada desde su transición de género y convertida en invisible para
el público debido a la política prohibitiva sobre los visitantes, nadie excepto
su familia, viejos amigos y abogados ha visto a Chelsea Manning. Además de
llamar la atención sobre el borramiento de Chelsea Manning del ojo público, la
obra destaca la combinación forense de género y sexo asignado al nacer,
presentando un díptico de retratos para representar a Chelsea: uno con un
género algorítmicamente neutral y el otro femenino asignado. La exhibición de
estas dos caras posibles, una al lado de la otra, llama la atención sobre el
problema de utilizar cromosomas o el sexo fijado en el nacimiento para asignar
el género, así como un tema más amplio de lo que significa confiar en ideas estereotipadas
acerca de cómo «se supone» que una cara de tal o cual género tiene que lucir.
Las impresiones 3D que componen Radical Love se
exhibieron en el Foro Económico Mundial en enero de 2016, brindando visibilidad
a alguien que se había vuelto, en cierto sentido, invisible.
En una segunda pieza, titulada Probably Chelsea (Probablemente
Chelsea), de 2017, la artista fue aún más allá. La obra consiste en treinta
posibles retratos diferentes de Manning generados algorítmicamente a partir del
análisis de su ADN. Como dice Dewey-Hagborg, «los datos genómicos pueden contar
una multitud de historias diferentes sobre quién y qué eres. Probably
Chelsea muestra de cuántas formas puede interpretarse el ADN como
datos, y cuán subjetivo es realmente el acto de leer» el material genético.
Como ya se habrá notado, el método artesanal (DIYbio) que permitió a la
artista desarrollar las distintas obras y reflexiones inauguradas por la
pieza Stranger Visions se desarrolló en simultáneo —e incluso
con cierta anticipación— respecto de los procedimientos que tuvieron su origen
en ámbitos científicos y que fueron imaginados para uso forense. Y
sugestivamente, también en paralelo a los trabajos sobre psicometría, big
data y predicción del comportamiento que llevaron adelante Michal Kosinski
y sus colegas de la Universidad de Cambridge: aquellos que permitieron revelar
que con apenas 68 «me gusta» dejados por un usuario de Facebook era posible
predecir con altos grados de fiabilidad su color de
Página 75
piel, su género, su orientación sexual y su filiación política, entre
otros datos. No es completamente fortuito: la trama del nuevo orden
informacional favorece la sincronización de las acciones en áreas y campos
disciplinares muy diferentes, acelerando no solo los procesos de
compatibilización de los vivientes humanos con las tecnologías digitales, sino
también de transposición y migración de saberes, prácticas y sentidos entre muy
diferentes campos.
Para seguir ilustrando esto, permítanme mencionar un caso más. En un uso
que no tiene que ver tanto con la criminalística cuanto con el afán civilizador
de las costumbres —más en la estela de Poo Prints que de la criminología—, la
empresa transnacional de publicidad Ogilvy asesoró en 2015 a las autoridades de
Hong Kong, quienes, utilizando los servicios de la compañía Parabon-NanoLabs,
lanzaron en abril de ese año una campaña medioambiental titulada The Face of
Litter (El rostro de la basura). El objetivo: reducir los desechos callejeros
utilizando el viejo recurso de la vergüenza pública. Combinando la técnica de
fenotipado de ADN, la investigación demográfica local y acaso inspirada por la
serie Stranger Visions, la campaña utiliza muestras de ADN
encontradas en desechos para, a partir de ellas, predecir los
rostros de quienes los han arrojado en las calles y, supuestamente,
avergonzarlos en público divulgando sus retratos en afiches publicitarios,
redes sociales y publicaciones impresas.
Digo supuestamente porque, al menos en el estado actual de desarrollo de
la técnica, tal como vimos hace un momento, el FDP dista de poder representar
con certeza el rostro del portador del ADN encontrado. Según ha señalado
Dewey-Hagborg en diferentes oportunidades, las caras producidas a partir de
estas tecnologías son «levemente parecidas a cómo podrían ser» los reales
consumidores de los chicles o cigarrillos encontrados. Hay entre ambos apenas
«un aire de familia», asegura la artista, «como si fuera un primo lejano».
Algunos críticos de Stranger Visions objetan que la
serie puede estar transgrediendo límites éticos e incluso jurídicos, al usar
información genética personal sin consentimiento informado. Otros apuntan al
creciente movimiento DIYbio o biología de garaje: les preocupan las consecuencias
no deseadas de experimentos no regulados llevados a cabo en laboratorios no
tradicionales. Otros se concentran en la técnica de
Página 76
fenotipado y advierten que es todavía demasiado inexacta para producir
resultados fiables, algo que la propia Dewey-Hagborg suele señalar.
En 2015, la artista publicó en The New Inquiry el
documento ya mencionado «Sci-Fi crime drama with a strong black lead»: una
suerte de memoria del trabajo donde aclara, además, algunas de las ambigüedades
que le fueron señaladas. Allí cuenta:
Mi objetivo inmediato con este proyecto era crear un diálogo público
sobre la posibilidad emergente de la vigilancia genética. En ese momento,
muchos de los medios de comunicación descartaron esta idea como ciencia
ficción, pero ya no es un futuro especulativo, es un presente que preocupa. A
medida que estas tecnologías pasan rápidamente de la investigación a las
agencias de aplicación de la ley en todo el mundo, merecen escrutinio incluso a
nivel algorítmico.
Para Dewey-Hagborg, hay al menos tres riesgos en estos procedimientos.
El primero es la imprecisión: «¿Qué tan válidos son estos retratos derivados
del ADN? ¿Cuánto se asemejan a la persona real?», se pregunta la artista. Y
enseguida responde: «No mucho. Más precisamente, esas representaciones
predictivas pueden llegar a ser exactas en la medida en que el individuo se
asemeja a una representación promedio de sus rasgos genéticos y ancestrales tal
como han sido representados dentro de los datos de rutina». Y esto es así
porque el FDP no puede representar la edad, ni la influencia ambiental en la
expresión de los genes, ni las decisiones voluntarias respecto de la propia
apariencia: dieta, color del pelo, maquillaje, cirugías. Y agrega:
Realmente, no sabemos cuán exacto es. Ni siquiera tenemos una manera
precisa de probar su exactitud. Una de las razones por las que es difícil estar
seguro de la precisión de esta tecnología es que su fuente es completamente
opaca. Aunque ha anunciado planes para colaborar en un estudio de validación
revisado por pares, hasta ahora Parabon no ha revelado ni publicado ninguna de
sus investigaciones. Solo puedo suponer que se basan en publicaciones y marcos
existentes definidos por científicos como Manfred Kayser y biólogos
Página 77
como Mark Shriver, que han publicado ampliamente sobre el tema[2]. En la actualidad parece que no hay normas legales que rijan el uso de
tecnologías forenses no validadas en la fase exploratoria de una investigación.
Parabon afirma que es «más exacto de lo que uno podría pensar», pero ¿podemos
realmente tomar su palabra?
A esta observación de la artista se agregan otros elementos. Por un
lado, un corolario de lo que acabamos de leer. Los retratos obtenidos a partir
del FDP, al menos en el momento actual de la técnica, son —aunque suene
paradójico— retratos de individuos singulares que no obstante tienen algo de
genéricos: retratan aquello que quizá podríamos haber sido si no hubiésemos
estado expuestos a… la vida. Son la lectura de una serie de probabilidades
estadísticas sin la actualización concreta y efectiva de aquellas
posibilidades. Y aun cuando logre ser mucho más precisa de lo que es hoy, solo
se referirá a una potencia biológica genérica, no actualizada. Dewey-Hagborg lo
expresa así, retomando el paralelismo entre informática y biología:
Como una analogía, piense en un fenotipo predicho como su perfil de
gustos en Netflix, Spotify o un servicio de contenido similar. Ambos utilizan
estadísticas y herramientas de aprendizaje automático a partir de una base de
datos que agrupa, clasifica y hace predicciones sobre los usuarios. Dependiendo
de lo que el servicio ofrece, el contenido deseado puede o no estar presente.
En la medida en que su gusto se desvíe de algunas normas o patrones
predecibles, el servicio puede hacer sugerencias que a usted no le interesen.
De manera similar, con el fenotipo, en la medida en que el aspecto de un
individuo se desvíe del género predecible y de los tipos ancestrales definidos
en los datos de entrada utilizados para crear el modelo, será difícil de
predecir. No es tanto que la tecnología sea inexacta, sino que es reductiva,
como tantos algoritmos que configuran nuestras vidas hoy en día. En la medida
en que un individuo tiene alrededor de 30 años y mira al espectador como la
representación genérica de su sexo, ancestros y rasgos tal como están
representados en el software, puede que se parezca mucho a su fenotipo de ADN.
Y puede que no.
Página 78
Otro punto que inquieta a la artista es cuán invasivos podrían ser estos
procedimientos para la privacidad y los datos personales; sobre todo, en caso
de perfeccionarse la técnica. ¿Hasta qué punto puede permitirse a las
autoridades investigar, por ejemplo, la propensión a una enfermedad o a un
rasgo caracterológico? Y la tercera gran preocupación es que se utilice la
autoridad de la ciencia y la genética para producir lo que el sociólogo Troy
Duster (2015) llama la «reinscripción molecular de la raza»; esto es, la
restauración de estereotipos de género y raza en la investigación científica y
criminológica. Dewey-Hagborg dedica muy buena parte de su texto a este asunto.
Elementos para el debate
Llegados hasta aquí, me detendré solo en algunos de los muchos temas que
este panorama necesariamente reducido propone al pensamiento.
Así como es innegable que la nuestra es, al menos en parte, una «cultura
de los datos», ¿qué está en juego en la apuesta por comprendernos (y en la
incitación a autocomprendernos) como «conjunto de datos»? Mi respuesta
provisional es que estos intentos de identificación y desciframiento no
necesitan —aunque lo pretendan— postular una nueva definición científica,
filosófica, antropológica o psicológica del hombre. Ni dicen «la verdad» sobre
lo que somos —si bien pueden sacar a la luz, como en la inteligencia de los
espías, aspectos ocultos incluso para mostros mismos—. Esos dobles digitales
constituyen, como decía Michel Foucault en Nacimiento de la biopolítica en
referencia a la figura del homo œconomicus, «la superficie de
contacto entre el individuo y el poder que se ejerce sobre él»
(Foucault, 2007). Son aquello que hace posible a los poderes actuar sobre
acciones o reacciones. No nos definen, no nos representan fielmente, mucho
menos abarcan la totalidad de aquello que somos o podemos ser: simplemente (y
desde ya, nada de todo esto es
Página 79
simple) funcionan. Es decir: funcionan prediciendo e
induciendo nuestros eventuales comportamientos, revelando nuestros datos a
posibles interesados e identificando nuestro paradero con nuestro
consentimiento o sin él.
En segundo lugar, en cuanto al desarrollo de técnicas de vigilancia
biológica, la obtención y el procesamiento de material genético se suman a las
informaciones biométricas y constituyen uno de los soportes centrales de la
dimensión individualizadora e identificadora en el marco de lo que en otros
trabajos denominé biopolítica informacional o de vigilancia distribuida, como
la llama la investigadora brasileña Fernanda Bruno. Ellas constituyen parte del
herramental necesario para el momento en que, como afirmaba Foucault en la
conferencia «Nuevo orden interior y control social», ese sistema de información
general relativamente invisible y virtual requiera ser actualizado para
identificar a determinado individuo.
Tercero: como vimos, una de las fuentes de imprecisión de la técnica de
FDP —además de que no pueden deducirse de un perfil genético los modos en que
los genes van a actualizarse o expresarse a lo largo de una vida— es el hecho
de que las estadísticas poblacionales a partir de las cuales se proyectan
posibles variaciones como el ancho de la cara o el color de la piel eran, hasta
ahora, relativamente restringidas. Es dable imaginar que en poco tiempo el
volumen de datos biométricos y genéticos dará un salto cualitativo, no solo por
la información que está siendo reunida por Estados, agencias de gobierno e
institutos científicos o de la salud, sino también por la disponibilidad de
imágenes y datos que las mismas personas entregan con consentimiento, más aún a
partir de la pandemia. Es importante entonces no hacer depender las
evaluaciones solo sobre la imprecisión, sino también sobre la valoración social
y debidamente informada acerca de los beneficios y riesgos de utilizar la
técnica, para qué fines y con qué limitaciones, aun cuando sea mucho más
precisa.
Cuarto: es muy relevante que las personas no participen siempre por
obligación, sino también de manera voluntaria, en el desarrollo de bases de
datos. Según David Lyon, pionero en los estudios sociales de la vigilancia,
tras los atentados a las Torres Gemelas el 11 de septiembre de 2001 se ha
promovido una nueva «cultura de la vigilancia», en la que ser observados
Página 80
puede significar un riesgo para la intimidad o la privacidad pero
también una ayuda o una «asistencia» permanentes, muy bienvenidas incluso en la
vida cotidiana. Las personas ya no solo están familiarizadas con la vigilancia:
al mismo tiempo le temen, la reclaman y hasta se divierten con ella. Lyon pone
el acento en aquellas prácticas que incluyen la participación en la entrega de
datos personales «por nuestro propio bien», en un vaivén entre «seguridad» y
«privacidad», entre exposición y anonimato. Incluso más: esta vigilancia parece
estar siendo —de una manera diferente pero no del todo escindida del
panoptismo— una incitación, una provocación tecnológica a decir una verdad
acerca de nosotros mismos en la que se enlazan mecanismos de identificación y
dispositivos de subjetivación. Pensar las relaciones, las distancias y las
cercanías, las implicaciones y las diferencias entre ambos será parte de
nuestra tarea en los próximos años.
Quinto: vale tener en cuenta que la utilización forense y con posibles
propósitos de vigilancia no son los únicos usos que se les ha dado a las
tecnologías de identificación que utilizan la información obtenida a partir de
nuestro material genético. Estas tecnologías se desarrollaron desde los años
ochenta del siglo pasado en al menos cinco campos: la investigación
criminalística, la determinación de paternidad, la identificación de rastros
cadavéricos, las catástrofes masivas y el esclarecimiento de delitos de lesa
humanidad. En la Argentina, este último uso tuvo un desarrollo particularmente
significativo gracias a la organización Abuelas de Plaza de Mayo, que trabajó
duramente para obtener un método que permitiera determinar la filiación de
nietos mediante el análisis de material genético de los abuelos o abuelas, en
ausencia de sus padres, que habían sido secuestrados y desaparecidos por el
terrorismo de Estado entre marzo de 1976 y diciembre de 1983. Muchos niños
nacieron en cautiverio durante esos años, en centros clandestinos de detención,
o fueron secuestrados y luego apropiados por personas que, en muchos casos, les
ocultaron su identidad. La creación de la técnica nació de la mano del
genetista argentino exiliado en Estados Unidos Víctor Penchaszadeh, quien luego
de años de que las Abuelas de Plaza de Mayo intentaran por todos los medios ser
escuchadas, en noviembre de 1982 las puso en contacto con Eric Stover, director
del programa de Derechos Humanos de la Asociación para
Página 81
el Avance de las Ciencias (AAAS) de ese país y posteriormente, en 1983,
con Fred H. Allen, director del Banco de Sangre de Nueva York. Ellos las
recibieron y comenzaron a trabajar en la búsqueda de fórmulas
estadístico-matemáticas para establecer la filiación sin contar con alguno de
los progenitores inmediatos. Fue gracias al científico chileno Cristian Orrego,
del Instituto Nacional de Salud (NIH) estadounidense, y al equipo de la
genetista Mary-Claire King, de Berkeley, California, que se encontró una fórmula
estadística que, a partir de material genético, establece el parentesco con un
99,99 por ciento de fiabilidad. Este «índice de abuelidad» se presentó ante la
comunidad médica internacional en el Simposio Anual de la AAAS ese mismo año, y
constituyó una herramienta clave para el esclarecimiento de delitos de lesa
humanidad en la Argentina y en otras partes del mundo. La primera restitución
de identidad que incorporó dicho análisis como prueba fue en 1984 en el caso de
la nieta recuperada Paula Eva Logares. Para 2021 ya se identificaron 130
nietos.
Sexto: volviendo a nuestros casos, llamo la atención una vez más en la
simultaneidad temporal, y en la cadena equivalencial, que conecta y desdiferencia políticas
de la vida, tecnociencia, criminología, negocios científicos,
publicidad, activismo ciudadano, esfuerzos civilizatorios de las costumbres y
estrategias de conmoción y concientización provenientes del campo artístico.
Esta desdiferenciación, este encadenamiento entre esferas y prácticas tan
disímiles, es correlativa a la inmanentización, al «aplanamiento» o pérdida de
profundidad de nuestra autocomprensión en tanto vivientes humanos, que tiene
lugar sobre la base de una emergente formación epistémica y política para la
cual naturaleza y cultura, humanos y máquinas, vivientes y no vivientes, pero también
biología, arte y tecnología, negocios, entretenimiento y políticas públicas,
entran tendencialmente en fusión y confusión. Trazar mapas que permitan
identificar esas tendencias, para restituir a los procesos su densidad
histórica, con el objetivo de ser capaces de ejercer su crítica y entrever las
posibilidades de transformación, de justicia que habitan en y a pesar de ellas,
es una de las tareas más urgentes de nuestro tiempo.
Por último, en séptimo lugar, para hacer frente a estos procedimientos,
los artistas han buscado desarrollar diferentes tácticas. En las páginas
precedentes entrevimos algunas: la apropiación crítica de las tecnologías
Página 82
para explorarlas y resignificarlas, incluida la anonimización de
trayectorias en línea y en el mundo «real»; así como la «profanación» del
dispositivo a través de usos no esperados. En un caso, la apropiación crítica
de las tecnologías sirve para volcarlas contra su uso, real o potencial, en
manos de los poderes tecnológicos y gubernamentales, propiciando la «apertura
de la caja negra» de sus procedimientos, o bien utilizando las propias
posibilidades técnicas para develar los mecanismos de captura de individuos e
individuaciones. Lo hacen incluso a costa de asumir nuevos riesgos, respecto de
los cuales será importante seguir reflexionando.
En cuanto a las estrategias de anonimización, buscan construir una nueva
práctica y una nueva pedagogía de la distancia y la disidencia respecto de los
intentos de captura y apropiación de lo que hoy se llaman «huellas», marcas
singulares de nuestros modos de estar en el mundo. Y en las estrategias de
reapropiación del dispositivo tecnológico, la intención es abrir a partir de él
la posibilidad de algo nuevo: para recuperar la potencia de los cuerpos y del
pensamiento, algo nunca enteramente disponible en «bases de datos», para
interrogarnos, una y otra vez, cuál es, más allá y más acá de nuestros datos,
la singularidad de lo viviente.
Profanar, nos recuerda el filósofo Giorgio Agamben, significaba para los
juristas romanos devolver al uso libre de los hombres lo que había sido
retirado en una esfera separada. Profanar el dispositivo técnico desafiando
aquellos discursos y prácticas que nos incitan a autocomprendernos como
conjuntos de datos, como soportes de información predecible, modulable,
operacionalizable, es —parecen sugerir estas piezas— una de las tareas
inescapables para el pensamiento de nuestro tiempo. Como dijo Michel Foucault
en Obrar mal, decir la verdad, el curso que dictó en Lovaina en
1981: nuestra tarea es «estudiar la sujeción en cuanto procede, allá, de un
forzamiento objetivo, y aquí, de una recuperación subjetiva; captarla en el
punto preciso donde, debido a esa recuperación, la servidumbre se torna
voluntaria. Para abrir así un pasaje que conduzca del embuste de la
recuperación a la exigencia del desasimiento, de la docilidad a la indocilidad
reflexiva y de la servidumbre a la inservidumbre voluntaria».
Página 83
Formas de vida infotecnológicas
Las tecnologías se hacen «cuerpo» y «carne» • «Individuos
somáticos» orientados a la optimización, la programación biológica y la
prevención de las suceptibilidades • Entre el capital humano y el
transhumanismo • El cuerpo como dispositivo obsoleto • El
«imperativo hedonista»: eliminar no las causas, sino las sensaciones físicas del
dolor • Aplanamiento, estetización, aceleración • Ser significa ser visto • La
creación de la propia audiencia • Cables submarinos, satélites, edificios,
servidores… ¡el ciberespacio no es inmaterial! • 24/7: el fin de los tiempos
muertos
La Tierra es la cuna de la humanidad; pero uno no puede vivir en la cuna
para siempre.
Konstantín Tsiolkovski,
La filosofía cósmica, 1935
¿Qué tienen en común los ciento treinta y dos embriones interespecie que
combinan células de mono y de humano, producidos en 2019 para explorar la
creación de órganos para trasplante, y el artista Stelarc, quien en 2007 se
implantó una tercera oreja de tejido cultivado en su brazo izquierdo, con un
sensor, una microantena wifi y un micrófono que permite grabar
y transmitir sonidos? ¿Qué vincula al filósofo transgénero Paul Preciado,
registrado al nacer como Beatriz, quien se declara «ni hombre, ni mujer, ni
heterosexual, ni homosexual, sino un disidente del sistema sexo-género», con
Jamie Whitaker, el niño concebido por fecundación asistida en 2003 cuyo embrión
fue seleccionado para que sus tejidos fueran compatibles
Página 84
con los de su hermano Charlie, quien padecía la demoledora anemia de
Diamond-Blackfan?
El punto de conexión entre estas personas y estos acontecimientos, tengo
para mí, es la emergencia de aquello que, apoyándome en la formulación del
sociólogo británico Scott Lash, denomino «formas de vida infotecnológicas».
Este término refiere a un nuevo modo de habitar el mundo que implica dos
grandes transformaciones: en el plano de nuestra manera de comprender y
significar, interpretamos el mundo por medio de sistemas infotecnológicos. Y en
el plano de la ontología, los sistemas infotecnológicos se han superpuesto en
buena medida a los sistemas biológico-naturales, y en algunos casos incluso se
han fusionado con ellos.
En Crítica de la información (2005), Lash habla de
«formas de vida tecnológicas» en oposición a las «formas de vida modernas». Por
mi parte, prefiero «formas de vida infotecnológicas» dado que toda forma de
vida humana incluye desde siempre una dimensión tecnológica ineludible, por
elemental o rudimentaria que pueda parecernos —la primera de esas tecnologías
es, como sabemos, la lengua materna—, y porque identifico en las tecnologías de
la información y en su principal proceso asociado, la digitalización de lo
existente, el punto de discontinuidad entre las formas de vida contemporáneas a
nosotros, que leemos esto, y las inmediatamente anteriores en términos
analíticos y también —al menos para Occidente— cronológicos: las formas de vida
de la modernidad temprana en las que predominaban las tecnologías analógicas.
El proceso de infotecnificación atraviesa nuestras formas de vida en dos
sentidos: el primero, más general, se refiere al crecimiento exponencial de los
parques tecnológicos, la automatización de los procesos productivos, la
«massmediatización» de las relaciones sociales, el desarrollo de dispositivos
móviles para captar, producir y transmitir informaciones, la industrialización
de la medicina —así como de la vida y la muerte de los animales—, la producción
de software para trazar mapas de nuestras acciones y hasta de
nuestras emociones en tiempo real. Y el segundo llega al sentido más
restringido y literal del término vida, que se refiere al proceso por el cual
la tecnología, en el límite, se hace «cuerpo» y «carne»: se incorpora y encarna
en el viviente humano a través de implantes, trasplantes, intervenciones
quirúrgicas, terapias génicas, en un
Página 85
movimiento que abre la interpelación al propio cuerpo como una suerte de
proyecto inconcluso, un borrador que es posible y hasta deseable corregir según
los gustos, las necesidades, las exigencias sociales o una mezcla de los tres.
Algo menos nítido, aunque sin duda operativo, es el elemento
político, biopolítico, que intercepta y modula estas posibilidades
de intervención. Ese elemento es una matriz de disposiciones
móviles, pero no completamente arbitrarias, que ofrece las imágenes de lo
deseable y lo temible, las reglas no escritas, los sistemas de adecuaciones, de
premios y castigos, a través de los cuales se nos incita a entender,
codificar y experimentar la tecnificación. A la
matriz predominante en el momento actual, muchos investigadores
biopolíticos la denominan «gubernamentalidad neoliberal», para referir a un
modo particular de gobierno de las conductas que tiene como base la tesis
neoliberal según la cual —tal como expone uno de sus referentes más destacados,
el estadounidense Gary Becker, en su influyente libro El capital humano,
de 1964— es posible extender el dominio del análisis económico a un amplio
rango de conductas, incluyendo aquellas que no tienen en principio relación con
el mercado. Según este autor, lo que distingue a la economía de otras ciencias
sociales no es tanto el objeto propio, sino su perspectiva o acercamiento, que
consiste en asumir que un gobierno, un individuo, una empresa o un sindicato se
conduce de manera maximizadora con el objeto de lograr más utilidad o mayor
bienestar. Y eso supone interpretar todas las acciones humanas bajo el prisma
de la relación costo-beneficio.
Ahora bien: si observamos con atención las racionalidades, los sistemas
de creencias e incitaciones que acompañan el proceso de tecnificación,
advertimos que ellos buscan extender sobre la vida y sobre el cuerpo los
principios de autonomización de procesos, mejoramiento, optimización y
responsabilización por el cuidado de la dotación psicofísica. Esos principios
son propios de una particular combinación entre el código técnico del
capitalismo industrial y las modalidades de subjetivación que promueve desde la
década de 1960 la teoría neoliberal. Respecto del primer término, el filósofo
de la técnica canadiense Andrew Feenberg señala que el código técnico del
capitalismo industrial consiste en garantizar la autonomía operacional de los
procesos de producción y
Página 86
consumo, expropiándoles a los productores y consumidores el control de
dichos procesos; básicamente, el «control desde afuera» del proceso de
producción, de trabajo, de acción en y sobre el mundo (poco cambiará las cosas,
asegura Feenberg, que el sujeto revolucionario controle los medios de
producción si al mismo tiempo reproduce el código técnico a
partir del cual se produce).
En cuanto a la teoría política neoliberal, como decíamos recién, se
trata de la modalidad intensificada de la tesis liberal que supone analizar el
comportamiento humano como el resultado de una «programación estratégica» en
términos costo-beneficio económico. La tarea de la economía, sobre todo a
partir de la teoría del capital humano, es desentrañar cuál ha sido el cálculo
—que puede ser inconsciente, o aun irrazonable, pero es estratégico— por el
cual, dada la escasez de algún recurso, un individuo o más deciden destinarlo a
un fin y no a otro.
La interpretación que hacen los neoliberales de esa interrogación
produce un vuelco fundamental en la lectura que podemos hacer de la vida social
y personal, ya que ella dice que el sujeto que trabaja para percibir un salario
no lo hace porque esa es la única manera que tiene de vivir — vender su fuerza
de trabajo en el mercado—, sino porque tiene un capital del cual desea obtener
un rendimiento. ¿Qué tipo de capital? Su capital es el conjunto de sus
componentes físicos y psicológicos, dice esta teoría; es decir, su «capital
humano», integrado por aspectos innatos o hereditarios y aspectos adquiridos.
Entre los factores innatos del capital humano está, por supuesto, la dotación
genética. Entre los factores adquiridos, la teoría toma particularmente en cuenta
la educación, las «asociaciones matrimoniales» y los comportamientos que se
orientan al cuidado de la propia vida.
Un capital así considerado tiene dos características destacables. Una,
que los factores físicos y psicológicos se convierten en «bienes», partes de un
capital. Dos, que este capital es indisociable de su poseedor. De allí que la
figura dominante ya no es el ciudadano trabajador sino el «empresario de sí».
Desde la perspectiva neoliberal, la sociedad está constituida por la agregación
de unidades-empresas: un conglomerado de empresarios en el que cada uno es su
propio capital, su propio productor y la fuente de sus ingresos.
Página 87
Un ejemplo de esta visión orientada no al trabajo ni a la educación sino
al contrato matrimonial lo brindó en el año 2000 David Friedman, otro
entusiasta seguidor de las tesis neoliberales en los Estados Unidos, quien en
su libro Law’s Order. What economics has to do with law and why it
matters escribió:
Si bien en general pensamos que nuestros esposos o esposas son personas
que se ajustan a ese rol de manera única y excepcional, esto no es cierto; si
fuera así, la probabilidad de encontrarlas sería muy remota. Una vez hice un
cálculo más o menos grueso en relación con este tema y concluí en que mi esposa
es una entre doscientos mil posibles encuentros. […]
[Otras mujeres podrían haber cumplido bien el rol de mi esposa pero]
habría sido tonto de mi parte ponerme a investigar cada caso. Una vez que una
pareja está casada durante un cierto tiempo, ha hecho una serie de inversiones
específicas para la relación y afronta una serie de gastos que producirán sus
frutos solo si permanece unida. Cada uno de sus integrantes se ha convertido, a
un costo considerable, en un experto en cómo continuar junto al otro. Ambos han
invertido, tanto en lo material como en lo afectivo, en los hijos que tienen en
común. Aunque ambos han partido de un mercado competitivo, ahora están
encerrados en un monopolio bilateral con costos de negociación asociados. Una
manera de reducir esos costos es llegar a un contrato de largo plazo, hasta la
muerte de una de las partes.
La teoría del capital humano admite que los agentes que toman las
decisiones no necesariamente son conscientes de su esfuerzo por maximizar, ni
siempre pueden explicar por qué lo hacen, pero asume que la perspectiva
económica se aplica a toda la conducta.
Y algo más, importante para nuestro análisis, que observa Foucault
en Nacimiento de la biopolítica. Si el homo œconomicus liberal
era aquel a quien había que dejar hacer porque
—aun de manera involuntaria, guiado por una «mano invisible»—, siguiendo su
interés de forma espontánea, beneficiaría a todo el mundo, el homo
œconomicus neoliberal, en cambio,
Página 88
es alguien completamente diferente. Gary Becker lo describe como aquel
que «acepta la realidad y actúa de acuerdo con ella», y por ende es alguien
eminentemente gobernable. Dado que responde en forma sistemática a las
variaciones del medio, es posible conducir sus conductas mediante el control de
ese medio, de sus peligros, sus riesgos, sus accidentes, sus promesas.
Se trata, así, del desciframiento y la consecuente programación en clave
económica de toda una serie de comportamientos no económicos. No porque el
hombre entero se pueda reducir a la economía, sino porque esa clave constituye
la grilla de inteligibilidad que va a proponerse sobre el comportamiento del
individuo para poder gobernarlo. Es decir que si es posible ejercer alguna
influencia sobre el individuo, si se lo puede gobernar, será en la medida en
que puede identificarse con este nuevo homo œconomicus.
La «preparación cultural» para la tecnificación
Hecha esta aclaración, volvamos ahora a la tecnificación. Para entrever
cómo es que llegamos hasta aquí, vale la pena tener en mente que nuestro
presente es resultado de aquello que Lewis Mumford, en 1934, llamaba la
«preparación cultural» que hizo que el mundo maquínico pudiera ser acogido con
beneplácito en Occidente. Ya a comienzos del siglo pasado era evidente que esa
preparación cultural había sido un proceso de muy largo aliento, que no se
remontaba solamente a la máquina a vapor y los telares mecánicos de finales del
siglo xviii, sino que había llevado al menos ocho siglos.
Ella había implicado una nueva experiencia del tiempo sincronizado y
sincronizable a partir de la invención del reloj mecánico en los monasterios
benedictinos del siglo xi; una cierta experiencia del espacio geográfico a
partir de los grandes «descubrimientos» ultramarinos y
Página 89
también una cierta percepción del espacio representado, gracias a la
técnica de la perspectiva. Mumford sigue enumerando: tendencia a la
experimentación y la invención; redescubrimiento de la naturaleza con respecto
a lo sobrenatural; desarrollo del capitalismo, con el correspondiente pasaje
desde una economía del trueque y de escala doméstica hacia una economía
monetaria con estructura de crédito internacional, y donde el dinero comienza a
operar como «nivelador (o mediador) universal».
Menciona también el acostumbramiento de los humanos a participar en
megamáquinas sociales como los ejércitos o las corporaciones sacerdotales,
entre varios otros acontecimientos que detalla con exquisita erudición en los
dos volúmenes de Técnica y civilización. Y aunque no suele
reconocerse de manera suficiente, la noción de megamáquina será clave para toda
la filosofía de la técnica posterior; es, de hecho, la fuente a través de la
cual Gilles Deleuze y Felix Guattari, tanto en el Anti-Edipo como
en Mil mesetas, piensan la máquina social como
entidad colectiva.
Ese proceso de tecnificación —que como acabamos de vislumbrar, se inició
mucho antes pero se desplegó de manera acelerada desde la segunda mitad del
siglo pasado— se manifiesta hoy en una miríada de acontecimientos que se
constituyen como el mundoambiente, el medio o milieu de
nuestra experiencia cotidiana: la expansión de las tecnologías infocomunicacionales,
que atraviesan los ámbitos del trabajo, el ocio y hasta las relaciones
afectivas; el desarrollo de un modelo productivo de «acumulación flexible», que
implica dispersión territorial, descentralización productiva, tercerización,
predominio del trabajo llamado inmaterial; la difusión de prácticas de
manipulación y automanipulación de lo viviente en general y de los cuerpos
humanos en particular (biotecnologías, cirugías, trasplantes, implantes, body-sculpting);
el desarrollo de nuevos soportes tecnológicos para antiguos y novedosos
objetos culturales, lo que implica a su vez el armado de nuevos marcos
jurídicos, así como la aparición de nuevos actores y pulseadas en torno a esos
objetos.
Página 90
Optimización
Ahora bien, ¿qué implicaciones ha tenido todo esto en nuestro habitar el
espacio, en nuestra experiencia del tiempo, en nuestra relación con nosotros
mismos?
Según la tesis de Scott Lash, esa nueva modalidad de habitar el mundo
con la asistencia e intervención de infotecnologías implica transformaciones
tanto en el plano de nuestro modo de comprender y significar como en el plano
ontológico. Si pensamos, por ejemplo, en la manera de entender el propio
cuerpo, existen métodos y dispositivos que nos brindan la información sobre lo
que somos en niveles ya no molares —como en la medicina del
siglo xix, basada en el cuerpo orgánico individual del paciente—
sino moleculares. El empleo de técnicas como el screening genético
prenatal, los test diagnósticos presintomáticos, el escaneo cerebral,
los medicamentos que mejoran la memoria, la concentración y el humor, las
drogas que incrementan el rendimiento, entre muchas otras, nos emplazan hacia
modos de concebir la propia vida y actuar sobre ella, interpelándonos —tal como
afirma el sociólogo británico Nikolas Rose— como individuos somáticos,
como seres profundamente materiales y biológicos, orientados a la optimización de
nuestros recursos o de nuestro «capital humano»; incluso, como se insiste más
recientemente, nuestro «capital mental». Seres expuestos a susceptibilidades (no
tanto, o no solo, a enfermedades o riesgos ciertos, sino a
problemas potenciales) y dispuestos a programar o reprogramar aquello
que aparece no del todo eficiente, satisfactorio o adecuado.
Veamos estas tendencias más de cerca. Por optimización Rose
entiende un proceso por el cual las tecnologías contemporáneas de la vida ya no
están limitadas por los polos de la salud y la enfermedad. Esos polos siguen
existiendo, pero además, «muchas intervenciones procuran actuar en el presente
con el fin de asegurar el mejor futuro posible para quienes se someten a ellas.
Por lo tanto, esas tecnologías encarnan visiones de lo que puede ser, de hecho,
un estado óptimo, en lo que respecta a la vida humana tanto individual como
colectiva», sostiene en su libro Políticas de la vida (2012).
En el pasado, así como la vida parecía incontestablemente
Página 91
ligada al funcionamiento natural de los procesos vitales, la medicina se
orientaba a limitar la anormalidad, «a restablecer la norma vital natural y la
normatividad del cuerpo que le daba sostén», dice Rose. Pero hoy estas normas
naturales no nos parecen ya tan ineludibles, y mucho menos deseables; las
normatividades biológicas nos resultan una limitación que podríamos alterar.
En la medida en que vemos los cambios producidos por los psicofármacos
en las formas de manifestación de los estados de ánimo o en la capacidad de
sostener una actividad; o cuando se ven las normas de la reproducción y la
fertilidad alteradas por las tecnologías de reproducción asistida; cuando el
envejecimiento se ve postergado por terapias de reemplazo hormonal o por drogas
como el viagra, lo normal-natural de cada una de estas situaciones aparece
menos como un marco al cual tender que como un campo de opciones, al menos para
las clases prósperas de Occidente. Las antiguas líneas «que separaban
tratamiento, corrección y mejora» ya no se sostienen, afirma Rose.
Las nuevas tecnologías ya no se limitan a tratar de curar el daño o la
enfermedad orgánicos; tampoco a mejorar la salud, como es el caso de los
regímenes alimenticios o los programas orientados a lograr un buen estado
físico, sino que cambian aquello en lo que consiste ser un organismo biológico
haciendo posible refigurar —o abrigar la esperanza de refigurar— los procesos
vitales mismos, con el fin de maximizar su funcionamiento y mejorar sus
resultados. Su característica fundamental es su visión de futuro: estas
tecnologías de la vida buscan redefinir el futuro vital actuando en el presente
vital.
Importante es retener aquí el horizonte de «maximización de
funcionamiento»: a eso llamamos optimización. No es solo
«mejoramiento», porque no se trata de mejorar una función defectuosa en
relación con el orden de la normatividad natural, sino que se trata de
optimizar o maximizar los rendimientos y funcionamientos más allá de las
capacidades naturales.
Para ilustrar esta tendencia a la optimización, vale recordar la campaña
que llevaron adelante en 2014 las empresas Facebook y Apple con
Página 92
respecto a sus empleadas mujeres: les ofrecieron pagarles un tratamiento
para congelar sus óvulos, de manera que invirtieran más tiempo de su edad
fértil trabajando en esas empresas sin que ello significara renunciar a sus
deseos de convertirse en madres. Y de paso, madres de bebés «de calidad»,
cabría agregar, ya que esta segunda frase forma parte evidente del razonamiento
optimizador aplicado en este caso: si solamente postergaran la maternidad, es
esperable que después de varios años los óvulos no resulten tan «buenos» como
los congelados en la juventud temprana. Cuando la empresa contratada para este
servicio diseminó la noticia de que «Silicon Valley» —en realidad no era todo
Silicon Valley, sino dos empresas— estaba dando este «beneficio» a sus empleadas
y a las cónyuges de los empleados varones, tanto Facebook como Apple explicaron
que lo hacían porque ellas y ellos lo solicitaban. Apple dijo también que
quería asegurarse de que sus empleadas pudieran «hacer el mejor trabajo de sus
vidas». No se trata, entonces, solamente de mejorar las condiciones de vida,
sino de calcular posibles intervenciones que puedan saltearse la normatividad
natural y hacer que las cosas «funcionen» de una manera aún más conveniente que
como lo harían en el mejor escenario natural posible.
En el cruce de esta biomedicina técnica con la racionalidad biopolítica
neoliberal, la tendencia hacia la optimización se ensambla con la idea de
capitalización; la optimización del «capital humano», que últimamente se
polariza en algo aún más específico: el «capital mental». Esta tendencia permea
incluso las acciones de gobierno en un país que, como la Argentina, está
todavía fuertemente influido por el psicoanálisis. En efecto, entre los años
2016 y 2019 funcionó en la provincia de Buenos Aires, gobernada entonces por la
dirigente de centro-derecha María Eugenia Vidal, la Unidad de Coordinación para
el Desarrollo del Capital Mental en el ámbito del Ministerio de Coordinación y
Gestión Pública, cuyo Comité Consultivo Científico lideraban el neurólogo Facundo
Manes y el nutricionista Esteban Carmuega, e integraban también Andrea Abadi,
Christian Plebst y Miguel Larguía. Según un documento elaborado por la Unidad
en 2016, el capital mental se define como «la totalidad de recursos cognitivos,
emocionales y sociales con los que una persona cuenta para desenvolverse en la
sociedad, adaptarse al entorno e interactuar con los
Página 93
demás y con el medio ambiente». Dicho capital «puede desarrollarse,
fortalecerse y potenciarse, así como también deteriorarse o empobrecerse en
función de la estimulación y la dinámica entre la persona y el contexto
social», y comprende «una nutrición adecuada, capacidad cognitiva, inteligencia
emocional, capacidad de aprendizaje flexible y eficiente, y capacidad de
adaptación. […] trabajar desde el capital mental es aplicar los avances
científicos sobre el cerebro y las personas para mejorar la calidad de vida de
nuestra sociedad». Es relevante notar aquí que no se trata de prácticas,
habilidades o funciones nuevas; la noción de capital humano no muestra algo de
la realidad que antes no veíamos, sino que renombra acciones y prácticas ya
existentes y les da una nueva legibilidad, las interpreta en clave
estrictamente económica.
En una entrevista publicada en el diario La Nación en
julio de 2016, el especialista en nutrición infantil Esteban Carmuega expresó
que «existen decenas de experiencias exitosas que nos muestran un camino para
invertir en el capital mental de nuestra sociedad». Aludió a un estudio de
largo aliento en Guatemala, en el que «una intervención nutricional temprana
demostró, cuarenta años más tarde, un incremento del salario de más del 25 %»,
estableciendo así una relación que instruye acerca de la construcción del
argumento: la supuesta prueba del éxito de una intervención nutricional se
refiere, no a la posibilidad de una mejora de las condiciones de vida, tanto
efectivas como proyectadas, de esas niñas y niños, ni en relación con los
parámetros de salud deseables para la población objeto de la política, sino a
un potencial incremento en el porcentaje de salario esperable… cuarenta años
después. Es decir, proyectado a un momento con respecto al cual resulta
incierto conocer con un mínimo de fiabilidad cuáles serán las posibilidades de
empleo asalariado para aquellos a quienes se dirige la política.
Susceptibilidad y programación
Página 94
En cuanto a la susceptibilidad, ella abarca los dilemas
provocados por los intentos de «identificar y tratar, en el presente, a
personas a quienes se les pronostica algún mal futuro», según la sencilla
formulación de Rose. Para este autor, la preocupación contemporánea respecto de
la susceptibilidad genética reelabora creencias de larga data acerca de que las
debilidades se heredarían como predisposiciones —que podían pasar inadvertidas
hasta que ciertos hechos externos, que iban desde el exceso de alcohol hasta el
paso del tiempo, las dispararan— y que podrían conjurarse o atenuarse adoptando
un estilo de vida moderado y «saludable».
Al menos desde el siglo xviii, en Europa se entendía que una
predisposición era una falla o imperfección heredada que se manifestaría, en
determinadas circunstancias, como enfermedad o patología. Y que en la semántica
eugenésica y racista que operó en la Metrópoli durante siglos, la cesura entre
«vida digna» y «vida que no merece ser vivida» se asociaba con la noción de
degeneración, que para algunos estudiosos era el resultado del efecto nocivo de
la vida en la ciudad o de la débil constitución de los inmigrantes y de la
frágil descendencia que estos procreaban.
Esa preocupación respecto de la susceptibilidad genética también
reelabora e incorpora algunas tecnologías de evaluación, así como de predicción
y gestión de riesgo que ya estaban consolidadas. Su formulación contemporánea
remite a multitud de proyectos biomédicos que procuran identificar y tratar
personas asintomáticas con el objetivo de prevenir enfermedades o patologías
que podrían manifestarse en el futuro. De allí que vemos a nuestro alrededor el
despliegue y la expansión de la figura del «portador asintomático»: aquella
persona que, sin estar efectivamente enferma, sabe que tiene posibilidades de
desarrollar tal o cual enfermedad.
Uno de los casos más resonantes de la expansión de la figura del
«portador asintomático» ha sido, en los últimos años, el de la actriz Angelina
Jolie, quien en 2013, después de hacerse diferentes pruebas de diagnóstico
molecular y genético, decidió someterse a una doble mastectomía al conocer que
sus genes BRCA1 y BRCA2 presentaban ciertas mutaciones que estadísticamente
indican la posibilidad de elevar el riesgo de desarrollar tumores de mama y de
ovarios.
Página 95
Según Rose, el interés creciente por las susceptibilidades genéticas es
una de las consecuencias derivadas del alejamiento del determinismo biológico:
en efecto, ya no estamos determinados por nuestros genes, ellos no son un
destino, sino que podemos repensarlo e incluso transformarlo. ¿Para qué?
Primero, desde ya, para evitar el sufrimiento innecesario, el dolor que excede
las dificultades más o menos razonables asociadas al hecho de estar vivo. Pero
claro, ¿cuánto es «razonable»? Una pregunta que la optimización contemporánea,
sostenida en la racionalidad neoliberal, parece responder atendiendo a las
posibilidades económicas del consumidor: si puede pagar por evitarlo, es
razonable que lo haga.
Finalmente, la programación se refiere a la posibilidad
de intervenir en el genoma para reprogramarlo, tanto para alterar una
codificación defectuosa como para restablecer una codificación virtuosa que,
por accidente, se vio alterada. El caso del embrión seleccionado para que sus
tejidos fueran compatibles con los de su hermano Charlie fue el primero pero no
el único. Como también la selección del sexo del embrión en el contexto de un
tratamiento de fecundación in vitro, que en algunos países se
permite por razones médicas (por ejemplo, una pareja con antecedentes
familiares de hemofilia podría solicitar la selección de embriones del sexo
femenino, ya que las mujeres son portadoras, pero no padecen la enfermedad,
mientras que los varones sí la desarrollan) y en otros, como los Estados
Unidos, puede hacerse simplemente por preferencia de los progenitores.
Transhumanos
Por otro lado, en el plano de la ontología, los sistemas tecnológicos se
han superpuesto a —y en algunos casos incluso fusionado con— los
socioculturales y los biológico-naturales, de modo tal que las personas
habitamos y enfrentamos el mundo no solo desde los habitus
Página 96
interiorizados mediante las experiencias acumuladas, sino también desde
una interfaz, que en muchos casos implica incorporación, con los sistemas
tecnológicos. Y esto se refiere al uso tanto de aparatos técnicos complejos
—como el auto sin conductor— como de medicamentos para incrementar nuestro
rendimiento o cambiar nuestro estado de ánimo.
Una de las racionalidades que fundamentan esta autotransformación por
medio de la tecnología es la hipótesis transhumanista, aquella según la cual
«el cuerpo humano es un dispositivo obsoleto». Entre sus referentes más
conocidos está el científico, empresario e inventor Raymond Kurzweil, autor de
libros como La era de las máquinas inteligentes (1990) y La
Singularidad está cerca (2005); cofundador en 2008 de la Universidad
de la Singularidad en Silicon Valley, patrocinada por Google y por la NASA, y
desde 2012 director de Ingeniería en Google. Kurzweil es una figura clave de
nuestro tiempo por su versatilidad, por la vastedad de sus ideas y empresas, y
por un ethos tan controversial como enérgico en su voluntad de
poder.
Es la clase de «visionario» que anticipa en sus libros de predicción
aquello que performa o actúa como empresario. En su libro de 1999, La
era de las máquinas espirituales, predijo que los ordenadores demostrarían algún
día ser superiores a las mejores mentes del mundo financiero en la toma de
decisiones sobre inversiones. Ese mismo año, creó un fondo de inversión libre
llamado FatKat (Acelerador de Transacciones Financieras de las Tecnologías
Adaptativas de Kurzweil): un software destinado a reconocer patrones en las
fluctuaciones y tendencias de los títulos del mercado financiero. Lo mismo
sucede con sus emprendimientos de alimentación saludable: escribió junto a su
médico, Terry Grossman, dos libros sobre cómo llevar una larga vida, a la vez
que lanzó una compañía de alimentación saludable, Trascend, que produce los
suplementos dietarios que recomienda en el libro. En la década de 1970 fue un
pionero en el desarrollo de software de reconocimiento de caracteres (OCR).
Esto le valió una larga amistad con el popular músico ciego Steve Wonder, quien
lo inspiró para desarrollar, en 1984, el sintetizador Kurzweil 250 (K250), uno
de los primeros instrumentos por ordenador capaz de reproducir de manera
realista el sonido de otros instrumentos de una orquesta. Es conocido por la
llamada «ley de rendimientos acelerados»,
Página 97
que extiende la ley de Moore para describir un crecimiento exponencial
del cambio tecnológico.
A diferencia de la imagen más o menos corriente de un progreso lineal,
Kurzweil asegura que en los próximos cien años no veremos un despliegue
tecnológico similar al del último siglo, sino que se parecerá más bien a 20 000
años de desarrollo. «En unas pocas décadas —afirma en La ley de
rendimientos acelerados, de 2001—, la inteligencia de las máquinas sobrepasará
la inteligencia humana, llevándonos a la Singularidad: cambios tecnológicos tan
rápidos y profundos que representen una ruptura en la estructura de la historia
humana». De eso se trata, en efecto, su libro La Singularidad está
cerca, de 2005, que describe el advenimiento hipotético, en
pocas décadas, de una inteligencia artificial «general» o «superinteligente»
muy superior tanto en velocidad como en capacidades concretas, al intelecto
humano. Esta «Singularidad tecnológica» implicaría cambios sociales
inimaginables, imposibles tanto de comprender como de predecir, a partir de una
combinación inédita entre tecnología y biología que, afirma, «se expandirá por
el universo». Y puede llevar a la humanidad a la extinción o a la inmortalidad.
(Los transhumanistas lo dicen así, «desdramatizando» el asunto).
Los transhumanistas no solo creen en la posibilidad de perfeccionamiento
a través de las tecnologías —la informática, la robótica, la biología
molecular, la química y la farmacología, las ciencias cognitivas, la ingeniería
genética, la nanotecnología y la neurocirugía—, sino que sostienen «una nueva
forma de pensar más allá de la premisa de que la condición humana es
esencialmente inalterable». Para ellos, «alterar fundamentalmente la condición
humana a través de la razón aplicada, especialmente utilizando la tecnología»
para acabar con el envejecimiento e incrementar las capacidades intelectuales,
físicas y psicológicas del ser humano no solo es posible sino muy conveniente.
Si bien reconocen que las perspectivas que se abren gracias a estas nuevas
tecnologías «van desde un futuro ilimitadamente promisorio a posibilidades
extremas como la extinción de la vida inteligente», aseguran que el futuro se
vislumbra en general de manera extraña o confusa, pero sin dudas está «lleno de
posibilidades muy excitantes».
Página 98
Suele afirmarse que el primero en usar el término «transhumano» fue, en
1953, el biólogo Julian Huxley, el hermano de Aldous, a su vez autor de Un
mundo feliz (1932). Julian Huxley, primer secretario de la Unesco, abogaba
por la aplicación de las tecnologías para mejorar la condición humana. A
finales de la década de 1960 lo retomó el escritor futurista de origen persa
Fereidoun M. Esfandiary, quien a los cuarenta años logró cambiar su documento
para llamarse FM-2030, como símbolo de sus convicciones más esperanzadas: que
al cumplir cien años la tecnología le permitiría vivir para siempre. Según sus
seguidores, FM-2030 predicaba el transhumanismo en sus clases sobre «Nuevos
conceptos de lo humano», que dictaba en la New School for Social Research de
Nueva York. En ellas sostenía que el organismo tal como lo conocemos es una
«camisa de fuerza biológica» de la que hay que deshacerse lo antes posible. El
cuerpo, afirmaba, es estructuralmente un mal robot: rígido y poco flexible,
cuyo diseño hay que rehacer por entero. «Excepto el cerebro —aseguraba—, todo
lo demás es primitivo y se está volviendo superfluo».
Años más tarde, retomaron y expandieron esas consignas el filósofo sueco
Nick Boström y el británico David Pearce, fundadores en 1998 de la Asociación
Transhumanista Mundial, cuyas dos primeras tareas fueron la redacción de la
Declaración Transhumanista, publicada ese mismo año, y las Preguntas Frecuentes
sobre Transhumanismo, al año siguiente. En esas primeras definiciones —que hoy
no es fácil encontrar en internet, ya que en marzo de 2009 el documento
original fue transformado por el consejo de directores de Humanity+ en una
lista de siete puntos muy simplificada — se afirmaba:
El transhumanismo desecha el postulado de que la «condición humana» es
constante; que todo puede cambiar —la economía, la cultura, la política— pero
que la naturaleza humana sigue siendo siempre la misma. […] El transhumanismo
supone que la condición humana no es inalterable y aboga por el uso de
tecnologías que superen nuestras limitaciones biológicas y transformen esa
condición.
[…] Entre esas posibilidades figuran, por
ejemplo, las «máquinas superinteligentes» —capaces de superar a los mejores
cerebros humanos en prácticamente cualquier disciplina—; el «control de los
Página 99
centros del placer» a partir de nuevas drogas y/o fármacos que prometen
que la gente podrá optar por reducir drásticamente la incidencia de emociones
negativas en su vida, sin efectos colaterales y sin provocar adicción; las
«píldoras de la personalidad», nuevas drogas que, con el apoyo de la terapia
genética, permitirían modificar la personalidad y ayudar a resolver problemas
como la timidez o los celos, incrementar la creatividad y aumentar la capacidad
emocional; la colonización del espacio exterior; la ampliación radical de la
expectativa de vida; la clonación, la tecnosexualidad, las redes neuronales, la
ingeniería neuromórfica, etcétera (Declaración Transhumanista, de 1999; la
traducción es mía).
En una entrevista publicada en 2006 en The Guardian,
Boström, ya por entonces director del Instituto del Futuro de la Humanidad en
la facultad de Filosofía de la Universidad de Oxford —tarea que desarrolla
todavía hoy—, explicaba que el transhumanismo se dedica a analizar e investigar
las posibilidades y las implicaciones éticas de «modificar las capacidades
humanas, por ejemplo, interviniendo el proceso de envejecimiento, o bien
haciéndolo más lento o revirtiéndolo». Y agregaba:
Para el caso del envejecimiento, lo que necesitamos es, o bien hacer más
lento el proceso de acumulación de daños, o bien, una vez que el daño ha sido
hecho, ir y repararlo. Las células madre, por ejemplo, pueden utilizarse para
hacer crecer de nuevo las células que hemos perdido. Y podemos desarrollar
nuevas enzimas que sean capaces de proteger al cuerpo de aquellas sustancias
con las que él no puede vérselas.
Por su parte, David Pearce es un militante del llamado utilitarismo
negativo, que propone revocar mediante las biotecnologías la mayor cantidad de
«sufrimiento innecesario». Expone sus tesis en el manifiesto titulado El
Imperativo Hedonista: la exigencia ética de abolir el sufrimiento; no las
causas del sufrimiento, sino las sensaciones biológicas que provoca. Pearce,
vegano moral, explica en su «manifiesto abolicionista» que la desaparición del
dolor puede lograrse a través de tres
Página 100
posibles soluciones técnicas. Dos de ellas son parciales: la
estimulación cerebral de los centros del placer y el uso de drogas de diseño;
la tercera, en cambio, es la que propone como la más adecuada: «cambiar la
naturaleza humana literalmente reparando nuestro código genético». La clave del
argumento es que lo que falla es la dotación biológica, ya que los «estados de
conciencia desagradables existen porque fueron adaptativos genéticamente».
Si bien estamos algo lejos de ver realizadas estas ideas, ellas orientan
desde hace décadas el trabajo de científicos, ingenieros y tecnólogos. Y
algunos artistas colaboran realizando prototipos vivientes, como es el caso del
artista chipriota-australiano Stelarc. Desde la década de 1970, Stelarc ha
venido realizando una larga serie de piezas que exploran la posibilidad de un
cuerpo protésico, extendido, aumentado, con el objetivo de «suplir
tecnológicamente las limitaciones biológicas». Entre diferentes experimentos
performáticos, utilizó máquinas de suspensión antigravitatoria, operó con su
cuerpo una prótesis de seis patas mecánicas gigantes y en 2007 se hizo
implantar en su antebrazo izquierdo aquella «tercera oreja» hecha de células
cultivadas que mencionamos más arriba, que tiene un sensor y una antena wifi que
transmite los sonidos que ella misma «escucha». En una entrevista con Paolo
Atzori y Kirk Woolford para la revista CTheory en 1995, él
explicaba así su idea del cuerpo «incompleto» o «insuficiente»:
Para mí, el cuerpo es una estructura objetiva, evolutiva e impersonal.
Habiendo pasado dos mil años pinchando y hurgando en la psiquis humana sin
cambios reales discernibles en nuestra perspectiva histórica y humana, tal vez
necesitemos adoptar un enfoque fisiológico y estructural más fundamental, y
considerar el hecho de que solo a través de un rediseño radical del cuerpo
seremos capaces de tener pensamientos y filosofías significativamente
diferentes. Creo que nuestras filosofías están fundamentalmente limitadas por
nuestra fisiología. Y que una inteligencia verdaderamente otra se
producirá a partir de un cuerpo otro o de la estructura de una
máquina. No creo que a los seres humanos se les ocurran filosofías
fundamentalmente nuevas. […] El deseo de unidad bien puede ser el resultado de
Página 101
nuestro sistema sensorial bastante fragmentario, donde observamos el
mundo en paquetes de modos sensoriales discretos y diferentes. Así que nuestro
impulso de fusionarnos, de unirnos, esa unión religiosa, espiritual, muy bien
podría deberse a una insuficiencia o incompletitud en nuestra fisiología.
Es importante retener esta dimensión imaginaria y utópica del
transhumanismo, porque es el germen de mucha de su carga libidinal. El deseo de
superar los males que nos aquejan como vivientes no puede ser minimizado como
fuerza vital y como potencia de transformación.
También es importante saber que no se trata de una perspectiva
unilineal: la utopía transhumanista tuvo fuentes rusas a finales del
siglo xix, soviéticas más tarde, y está encarnada en la contracultura de
la experimentación californiana de la década de 1960, que es una de las raíces
de la ciberdelia de la década de 1990. De esta emerge el movimiento ciberpunk
liderado por William Gibson, inventor del término «ciberespacio» y autor de
novelas como Neuromante y Conde Cero; la
revista Wired y muchas de las ideas que aparecen objetivadas
en films de ciencia ficción que hoy consideramos clásicos, como Blade
Runner, Matrix o Brazil.
Podemos rastrear aquellas ideas en la Rusia zarista. El filósofo
cristiano ortodoxo Nikolái Fiódorov conectó, sobre finales del siglo xix,
dos tópicos que raramente habríamos imaginado juntos: «resurrección de la
carne» y «carrera espacial». Fiódorov buscaba crear materialmente, por medios
científicos y técnicos, la vida eterna. La misión de los sabios, sostenía, era
colaborar con la tarea de Dios en la Tierra; no solo propiciar la prosperidad y
la paz, sino también desarrollar las herramientas tecnológicas para
realizarlas, de modo que la inmortalidad de las almas fuera un hecho palpable.
Su motivación misericordiosa era completamente universal: la salvación debía
ser para todas las almas; las del presente, las del futuro, y también las de
los antepasados. En esto Fiódorov era un igualitarista rabioso: junto con la
inmortalidad, había que garantizar la vuelta a la vida de los ya fallecidos.
Claro que, una vez dominado el tiempo, ¿dónde ubicar a tanta gente? Conocer y
ocupar el cosmos, el imperativo literal de «tomar el cielo por asalto», pasó a
ser un requisito
Página 102
derivado del sueño de alcanzar la gran promesa cristiana de la
resurrección de la carne para toda la eternidad.
Las ideas cosmistas de Fiódorov, que hoy pueden parecer maximalistas,
fueron celebradas en círculos influyentes de su país a finales del
siglo xix y principios del xx: atrajeron a Tolstói, a
Dostoievski, a Maiakovski. Su seguidor más destacado en la ciencia rusa fue el
físico soviético Konstantín Tsiolkovski, uno de los pioneros de la cosmonáutica
mundial. De él se sabe que en la niñez quedó prácticamente sordo debido a la
escarlatina, por lo que no pudo asistir a la escuela; se formó entonces como
autodidacta en la Biblioteca Estatal de Moscú bajo la guía del entonces
bibliotecario, que era, precisamente, Fiódorov. Entre sus muchos aportes,
Tsiolkovski diseñó una nave a retropropulsión para viajes interplanetarios, y
sus ideas hicieron posible que el ser humano pusiera en órbita el primer
satélite artificial.
Aplanamiento
Sigamos caracterizando estas nuevas formas de vida infotecnológicas.
Para eso vamos a considerar tres rasgos principales, insinuados en la primera
formulación de Lash: que en estas formas de vida se da un proceso de aplanamiento o,
como podemos denominarlo también, inmanentización. Que su
existencia se da principalmente «a distancia»; es decir, que son
formas de vida mediales y mediadas. Y que son no lineales, lo cual
significa un triple proceso según el cual se aceleran, se comprimen y
a la vez —sin que esto implique contradicción, sino juego complejo— se
expanden.
En cuarto lugar, podemos añadir que estas formas de vida se
«desmaterializan» o se «virtualizan» solo aparentemente; más bien, su condición
de posibilidad es la existencia de nuevos espacios y materialidades, tanto por
los componentes que requieren muchos de los
Página 103
dispositivos que permiten los intercambios infocomunicacionales —que van
desde las placas de vidrio hasta elementos químicos como el silicio y el litio,
pasando por metales como el cobalto, la tantalita y la columbita— como por las
infraestructuras que esas telecomunicaciones requieren, así como por los restos
y desechos que sus dispositivos, ya sea en su producción o en su obsolescencia
planificada, dejan en la atmósfera, en el suelo y en los océanos. En quinto
lugar, finalmente, dependen de y dan lugar a saberes y prácticas
hiperespecializados, lo que implica tanto la multiplicación de disciplinas y
saberes expertos cada vez más cerrados sobre sí mismos, como el ocultamiento de
procesos internos, a la manera de una caja negra, de los distintos
procedimientos integrados en las infraestructuras y los dispositivos.
Veamos todo esto más en detalle. En cuanto al aplanamiento, tal como
afirma Lash, las formas de vida modernas se atenían a un esquema espacial
vertical y dualista. El suyo era un dualismo de la profundidad basado en un
término trascendental y otro empírico o de superficie, con sus respectivos
significados: uno «verdadero» pero oculto y otro más superficial que
funcionaba, en general, como reflejo o síntoma del primero.
En las formas de vida anteriores, el término trascendental subyacía al
empírico: el inconsciente en el psicoanálisis; la infraestructura en el
marxismo; el significado oculto de la intención expresiva del artista en
ciertas teorías del arte. En suma, las «estructuras profundas» operaban sobre
las superficies, que constituían, a su vez, las puntas del iceberg de la
verdad. En las formas de vida infotecnológicas, en cambio, el término
trascendental y el empírico entran en aplanamiento o desdiferenciación. El dualismo
se disuelve en un monismo radical. Este aplanamiento alcanza la supuesta
interioridad tanto del sujeto como del objeto del sentido, erosionando el
límite entre ellos. Ahora, dice Lash,
el inconsciente sale a la superficie en lo cotidiano, así como lo
trascendental de la economía se disuelve en la cultura de la vida diaria, y el
arte se convierte en un modo más de comunicación. Las formas de vida
tecnológicas no sugieren positivismo, que es el pensamiento clasificatorio del
tipo sujeto-objeto, sino empirismo, en
Página 104
el cual el observador no es, en principio, fundamentalmente diferente de
lo observado.
Otro aspecto de ese aplanamiento que describe Lash se manifiesta en el
debilitamiento tendencial de la distancia —que era también una jerarquía
— entre el cuerpo y la conciencia; lo que alguna vez fue el alma, más
tarde el «yo». En efecto, en la era de las formas de vida infotecnológicas,
comienza a reducirse la distancia entre ambos, y el cuerpo biológico comienza a
recobrar el terreno perdido o avasallado durante siglos: la cualidad de
constituir plenamente al sujeto.
Es significativa en esta transformación la tendencia a definir el propio
«yo» por elementos cada vez más externos (la apariencia física, la performance social)
y, al mismo tiempo, íntimos en sentido biológico (los genes, las
neuronas, la síntesis de serotonina). El homo psychologicus de
la era industrial, que buscaba dentro de sí un sentido que parecía ocasional o
fatalmente perdido, se ve tendencialmente reemplazado por un ser inquieto por
eventuales disturbios neuroquímicos, fallas genéticas, inadecuaciones estéticas
o «errores de programa», cuyo remedio ya no está en el recurso introspectivo,
sino en la intervención tecnológica.
Esto se hace posible por la conjunción de al menos tres factores. En
primer lugar, por el desarrollo de las neurociencias, que hacen de la
conciencia un epifenómeno de las variaciones químicas y eléctricas del
organismo, y en los últimos años, puntualmente del cerebro. Como escribió el
investigador Vernon Mountcastle, reconocido por haber descubierto en 1957 que
la corteza cerebral se estructura en columnas de neuronas cuyas conexiones
forman circuitos locales, considerados la unidad funcional del cerebro, en su
artículo «La ciencia del cerebro en el final del siglo», publicado en 1998 por
la revista científica Dædalus (y retomado por Rose en su
libro Neuro, de 2013):
El medio siglo de acumulación de conocimiento sobre la función del
cerebro nos ha puesto ante la pregunta acerca de qué significa ser humanos. No
pretendemos que existan respuestas disponibles, pero aseveramos que lo que hace
que el hombre sea humano es su cerebro
Página 105
[…] Las cosas de la mente, de hecho las mentes,
son cualidades emergentes del cerebro.
Es decir, en un tiempo relativamente corto se fue llegando a la idea,
suscripta por buena parte de quienes trabajan en neurociencias, de que existe
una base física de la mente en el cerebro. Dicho de otro modo, la mente es
aquello que el cerebro realiza, en la medida en que los procesos mentales
surgen de los procesos físicos del cerebro.
El segundo factor es la industria de medicamentos, que financia
investigaciones en áreas «de punta» y presiona para obtener resultados que
permitan introducir en el mercado productos para alterar funciones y estados
anímicos. Los psicofármacos, que evolucionaron desde los antipsicóticos típicos
de la década de 1950, como la clorpromazina, hasta los llamados
«tranquilizantes menores», como la clozapina, pasando por los ansiolíticos, los
antidepresivos y, a finales de los años 80 del siglo pasado, los inhibidores
selectivos de la recaptación de serotonina, como la fluoxetina, fueron
ingresando de a poco en la vida cotidiana. Primero se utilizaban en el
tratamiento psiquiátrico en hospitales y clínicas especializadas, pero poco a
poco pasaron a ser parte del botiquín cotidiano de las clases medias.
Estas drogas encarnan uno de los ideales de la «sociedad del
rendimiento», como la llama el ensayista surcoreano Byung-Chul Han, en tanto se
ofrecen como métodos para eliminar sin mayores esfuerzos los estados de dolor y
displacer, y para responder a los mandatos de éxito y productividad propios de
la competencia desenfrenada entre individuos solos y profundamente atemorizados
que está en la base de la gubernamentalidad neoliberal. Esta carrera sin fin es
el correlato de la libertad paradójica de los nuevos «empresarios de sí», que
se autoexplotan alternando la estimulación con la depresión, la motivación con
la frustración, la eficacia con la mortificación.
Curiosamente, estos psicofármacos han comenzado a encarnar la promesa de
que son capaces de hacer que las personas vuelvan a ser «ellas mismas». Como
estudiaron Nikolas Rose y Joelle Abi-Rached en Neuro, en un primer
momento estaban asociados con la idea de poder hacer frente a las dificultades
—ayudaban a enfrentarse a las presiones y las exigencias
Página 106
de la vida—, pero con el tiempo «la promesa fue haciéndose más positiva:
volver a ser uno mismo», dicen estos autores. Quienes las utilizan abrigan la
esperanza de recobrar la autonomía, el dominio y control de la propia vida.
Finalmente, el tercer factor que favorece la autopercepción de los
sujetos como «individuos somáticos» son los discursos y las prácticas asociadas
al fitness; no solo la disciplina física sino el conjunto de
prácticas y aprestamientos corporales relativos a la apariencia, a lo «externo»
del cuerpo, que tradicionalmente se consideraba secundario en el desarrollo de
una identidad personal, pero que en la era de las formas de vida
infotecnológicas adquiere un nuevo e inusitado peso, en la medida en que se
propone que una intervención quirúrgica o una ejercitación continua del cuerpo
tendrán efectos visibles y relativamente inmediatos en la complexión psíquica.
Un ejemplo de esto lo proporcionaba pocos años atrás la ONG Agita Mundo,
patrocinada por la Organización Mundial de la Salud y con representaciones en
treinta y tres países (entre ellos: la Argentina, Alemania, Cuba, España,
Estados Unidos, India, Irán, Malasia y Suiza). La Declaración de San Pablo, su
documento fundacional, afirma que uno de los principales motivos para impulsar
la actividad física a nivel mundial son «los beneficios psicológicos [que ella
promueve], incrementando la autoimagen, la autoestima, el bienestar general, la
agilidad mental, disminuyendo la soledad, el estrés, la ansiedad y la
depresión».
Estos procesos, unidos a todo un nuevo conjunto de conocimientos
expertos, de tecnologías y prácticas de evaluación e intervención, orientan
nuestros modos de autocomprendernos hasta considerarnos —como dice Rose— «seres
cuya individualidad se encuentra anclada, al menos en parte, en la existencia
carnal, corporal, y que se experimentan, se expresan, juzgan y actúan sobre sí
mismos, en parte, en el lenguaje de la biomedicina». «Soy celíaca», «soy
obeso», «soy bipolar», «soy ansioso» son maneras de autocomprensión que
implican, además, toda una biosocialidad: grupos de ayuda mutua, de intercambio
de experiencias, recetas y consejos, salidas en común y mucho más.
Es posible hablar, así, de un verdadero «régimen somático» propio de las
formas de vida infotecnológicas, que conlleva un modo de
Página 107
interpretación del cuerpo biológico en su doble faz: el molecular
interno y el aparencial o externo, como sede parcial pero cada vez más
significativa de la subjetividad. Como algo modelable, operable, intervenible,
modificable, en tanto obra a realizar de manera responsable. En
definitiva, como lo que Foucault denominaba la «sustancia ética», es decir, la
materia —o la parte de sí mismo— sobre la cual el individuo ejercita su
conducta y a la cual da forma para convertirse en un sujeto ético. Esta doble
dimensión del cuerpo es, entonces, la materia del trabajo de autorregulación
que realiza el individuo para tratar de equilibrar y orientar los imperativos
éticos y estéticos de la «autopoiesis», la creación de sí como una suerte de
obra, contemporánea.
Estetización
Es importante resistir la tentación a considerar la dimensión estética
como un fenómeno de superficie y, por lo tanto, trivial. La relevancia del
cuerpo-signo está conectada de manera íntima con las necesidades que la propia
época activa, en términos de comunicabilidad de sí, de legibilidad en un mundo
globalizado (mostrarme de manera rápidamente identificable ante los otros,
señalar mi pertenencia a determinada tribu urbana o juvenil) e incluso de
capitalización. En el capitalismo espectacular, el cuidado de la propia
apariencia no es algo que podemos elegir no hacer: no prestarle atención a cómo
nos presentamos ante los demás es, también, una decisión e involucra un
mensaje.
En 2008, el teórico del arte alemán Boris Groys comentaba en una
entrevista concedida al diario El País de Madrid esta
instructiva anécdota:
Cuando Alexander Shaburov, un amigo artista, empezó su carrera en los
años noventa, fue saludado con muy buenas críticas. Pero no tardaron en
advertirle que tenía un problema muy grave: una mala
Página 108
dentadura. Sin embargo, tuvo suerte, y le concedieron una beca para que
se arreglara los dientes. Y lo hizo. Y le ha ido bien. Hoy no se puede ser un
buen artista si algo va mal a la hora de sonreír.
Por supuesto que no se trata solamente de lucir bien ante las cámaras.
Tal como explica con gracia el mismo Groys en su artículo «La obligación del
diseño de sí», incluido en el volumen Volverse público (2014),
el sujeto de los siglos xx y xxi, esto es, el sujeto posterior a
la muerte de Dios —que había sido hasta ese momento el único «Observador del
alma»—, se ve en la necesidad de expresar su interior a través de su exterior:
La única manifestación posible del alma empieza a ser la apariencia de
la ropa que usa una persona, las cosas cotidianas que la rodean, los espacios
que habita. Con la muerte de Dios, el diseño se volvió el medio del alma, la
revelación del sujeto oculto dentro del cuerpo. Por eso el diseño adoptó una
dimensión ética que no tenía antes. […] El sujeto moderno tenía ahora una nueva
obligación: la del autodiseño, la presentación estética como sujeto ético. […]
Al diseñarse a sí mismo y al entorno, uno declara de alguna manera su fe en
ciertos valores, programas e ideologías. De acuerdo con este credo, uno es
juzgado por la sociedad y este juicio puede ser, por cierto, negativo e incluso
amenazar la vida y el bienestar de la persona involucrada.
De allí que, dice Groys, el diseño moderno transformó todo el espacio
social en un ámbito de exhibición en el que los individuos aparecen como
«artistas y obras de arte autoproducidas». Basta pensar en el uso de un pañuelo
de color para transmitir la pertenencia a uno u otro grupo en el debate por los
derechos reproductivos y la despenalización del aborto para ver la fuerza
política del diseño. Porque también hay intensas tensiones por el diseño en los
movimientos políticos, centrales o alternativos, en las que reaparece la antigua
discusión sobre la convivencia compleja —no imposible, pero sí laboriosa— entre
vanguardia política y vanguardia artística.
En este sentido, resulta muy provocativo e iluminador a la vez lo que
comenta el crítico británico Mark Fisher en su artículo «Deseo
Página 109
postcapitalista», de 2012. Para Fisher, uno de los mayores problemas de
los movimientos alternativos y anticapitalistas de las grandes ciudades ya
entrado el siglo xxi es su conservadurismo estético y formal, así
como su ideal de «retorno» a un pasado mítico que —afirma— los deslibidiniza
por completo. En lugar de abrazar el «éxodo» de las formas visibles y
semióticas de la mercancía, como proponen los ascetismos políticos de la
imagen, que están más bien a la defensiva frente al capital y sus estrategias, Fisher
sostiene que es necesario comprender el «cambio de régimen libidinal» que
acompaña al pasaje de las sociedades disciplinarias a las sociedades de
control. Y agrega: «concretamente, se intensifica el deseo por los bienes de
consumo». Pero frente a esto ya no puede oponérsele, dice, «la afirmación de la
antigua disciplina de clase», porque sencillamente ya no somos ese tipo de
sujetos disciplinarios. No es que nos falte disciplina o voluntad, dice Fisher,
sino que cambió totalmente el régimen de producción, la biosfera que habitamos
está siendo tendencialmente reemplazada por la tecnosfera y, con estos (y
otros) cambios, han variado también las subjetividades emergentes. De allí que
tratar de volver atrás, «reducirnos al mínimo» o «desaparecer de la visibilidad
pública», como una suerte de principio de quiescencia budista, es una
estrategia demasiado débil. Mucho más importante, sostiene, es buscar nuevos
motivos libidinales, nuevas imágenes que les permitan a las personas vislumbrar
un futuro utópico atractivo, alegre y vital, antes que, como lo decía Fredric
Jameson, «hacer juicios moralizantes o practicar la nostalgia regresiva».
De allí que los retos del autodiseño, de convertirse en una obra
viviente, implican entonces un enorme esmero relacionado con comprender las
«reglas del arte»: ¿qué puedo ser? (o en qué tribu me inscribo), ¿qué puedo
innovar-transgredir-aportar? (o cuál es mi singularidad), son algunas de las
muchas preguntas que nadie atento a estas señales de la época puede soslayar.
Veamos tres modos en que distintos artistas han aceptado este reto del
autodiseño. El primer caso es muy conocido: se trata de la artista francesa
Orlan, quien desde 1965 realiza piezas que tienen como eje su propio cuerpo.
Sus primeros trabajos fueron instalaciones, esculturas, performances y
ejercicios de travestismo y striptease. Desde 1990 y a lo
Página 110
largo de varios años llevó adelante una provocativa cruzada por
convertirse en una escultura maleable, una «obra de arte total», empleando como
soporte su propia carne y, como técnica, la cirugía plástica. Según afirmaba,
su intención era denunciar el peso represivo que los ideales de belleza
femenina ejercen sobre las mujeres. La pieza con la que inauguró el género que
ella misma bautizó «arte carnal» es la operación-performance La
reencarnación de santa Orlan, una obra en cinco tiempos que consistió en transformarse
en un collage de rasgos célebres: entre 1990 y 1995, los cirujanos fueron
trasladando al rostro de la artista la frente de la Gioconda, los ojos de la
Psique de Gérome, la nariz de una Diana de la escuela de Fontainebleau, la boca
de la Europa de Boucher y el mentón de la Venus de Boticelli. Cada operación
era difundida en directo; paciente y médicos llevaban trajes diseñados por Paco
Rabanne, Frank Sorbier, Issey Miyake y Lan Vu. Mientras duraba el
procedimiento, Orlan leía en voz alta textos de Antonin Artaud y Julia
Kristeva, entre otros. En 1999 la artista lo recordaba y lo explicaba así: «Mi
trabajo es una lucha contra lo innato, lo inexorable, lo programado, la
Naturaleza, el ADN (que es nuestro rival directo como artistas de la representación)
y contra Dios». Y agregaba: «Mi cuerpo se ha convertido en un lugar de debate
público que presenta preguntas cruciales para nuestra época».
En efecto se trata de un caso límite de artista experimental, de
experimento con el propio cuerpo y con la forma de vida, en la que la
existencia corporal se convierte, con intensa ironía, en laboratorio de pruebas
y preparación para un futuro mutante. La artista sacrifica, para eso, su
presencia pública y social convirtiéndose en prototipo defectuoso, incluso
risible. Pero justamente en ese gesto, Orlan atestigua la potencia que aún
conserva el arte para provocar un shock tanto en la mirada como en el pensamiento.
El segundo ejemplo es la paradójica pieza Savon de Corps,
que la artista plástica rosarina Nicola Costantino presentó en 2004 en el Museo
de Arte Latinoamericano de Buenos Aires (Malba). Esta consistía en cien jabones
con forma de espalda, cintura y cadera femeninas, que contenían un tres por
ciento de grasa del propio cuerpo de la artista, obtenida de una liposucción a
la que se sometió para llevar adelante este proyecto —y de paso, para mejorar
sus formas—. La obra incluía las piezas de una
Página 111
supuesta campaña publicitaria que decía: «Prends ton bain avec moi»
(báñate conmigo), junto a una imagen de Costantino en traje de baño a punto de
sumergirse en una pileta. Al mismo tiempo autora, modelo de campaña y materia
prima del producto. «La mirada ácida de Costantino sobre la industria del
cuerpo —se puede leer en el sitio web de la artista— toma forma en un jabón con
el que no compramos la imagen identificatoria del cuerpo de la modelo, sino que
compramos “el cuerpo de la modelo”, en una nueva concepción de consumo. El
eslogan es la clave donde reside el concepto del trabajo».
Inmediatamente después de la apertura de la muestra, se hicieron
escuchar las voces críticas a la pieza. Particularmente duro fue el artículo
que escribió el historiador y crítico del arte argentino José Emilio Burucúa en
el diario Página/12, quien llamó públicamente a no asistir a la
exposición y escribió:
Aun cuando la artista asegura tener una especie de nihil obstat de
quienes pudieran sentirse afectados por la metáfora inevitable que liga la
operación realizada por Costantino a su equivalente del pasado, atribuida a los
nazis y realizada con grasa que no era la de esos verdugos sino la de sus
víctimas, es decir, los judíos internados en los campos de concentración
durante la Segunda Guerra Mundial, aunque tal dispensa existiese, ello no quita
que Nicola ha buscado provocar un estremecimiento en el público, atenuado
quizás por las refracciones que la violencia simbólica del acto de extracción
de la grasa ha experimentado a través del mundo amable de lo cotidiano, pues
esto es lo que implica el haber perfumado y haber dado formas sugerentemente
eróticas a los jabones. Tal producción de un cierto temblor interior,
finalmente edulcorado por una estetización ramplona, parecería vincular el arte
de Costantino con el kitsch.
Pero claro, el kitsch proyectado sobre la muerte engendra conglomerados
significantes y emocionales que, gracias a los estudios de Saul Friedlander,
hoy descubrimos íntimamente asociados a las prácticas culturales nazis.
Página 112
Sin dudas, aquella resonancia sombría se mantiene activa en esos jabones
esculpidos. Pero al menos tan importante como aquella es la tensión que la
pieza provoca por medio de la ambivalencia radical en la que la propia artista
se sumerge cuando vuelve exiguo su lugar, cuando exagera la ambigüedad de su
trabajo. Quizás en ese gesto de demolición está el núcleo de esta pieza. La
denuncia de una praxis social extendida de autolaceración que se lleva a cabo
con dos de los elementos más cargados de sentido de la época: material
biológico y estetización.
El tercer caso puede resultar dislocador dentro de este conjunto, pero
me interesa ese potencial desconcierto para analizar las posibilidades
políticas del gesto de estetización. Se trata de la serie Fábulas para
mirar, realizada entre 2012 y 2013 por la artista brasileña Virginia de
Medeiros. Ella retoma la tradición nordestina de la fotopintura, una técnica
casi extinta, cuya característica central es retocar la imagen fotográfica con
tinta de color incorporando accesorios —como joyas, maquillajes, adornos,
vestidos, flores—: detalles que procuraban dar cierto prestigio a los
personajes. «Extraña magia —dice la artista en el texto de catálogo— que hacía
despertar en el retrato una latencia en lo real». Rescató este oficio artesanal
en una experiencia que realizó con veinte personas en situación de calle, a
quienes entrevistó durante un mes y medio, fotografío en blanco y negro, y les
hizo una pregunta clave que direcciona el sentido de la serie: «¿Cómo le
gustaría ser visto por la sociedad?».
Para realizar cada una de esas imágenes deseadas invitó al fotopintor
cearense Mestre Júlio Santos, artista que trasladó la fotopintura al mundo de
la tecnología digital consiguiendo preservar los signos y las texturas de la
técnica tradicional. En su texto la artista explica:
Cruzar esta técnica en retratos de personas que viven en situación de
calle, donde la miseria material es confundida con la miseria subjetiva y
existencial, es una forma de retirar esta imagen del sistema de información
haciendo que ella se abra al mundo de una forma que no conocíamos de antemano.
La pregunta abre el campo de subjetividad de los individuos retratados que,
fabulando su condición, se transforman por un momento, y adviene un instante en
el que lo real y lo imaginado se vuelve indiscernible.
Página 113
Las personas retratadas ya no son solo objetos de la mirada escrutadora
de la sociedad, sino sujetos que se proyectan y crean un mundo imaginario,
transitorio, precario, pero no por eso menos real. El conjunto resulta de una
doble estetización: la que se realiza a través de la fotografía y de la técnica
de la fotopintura, y la que convierte estos retratos en «obra artística» de
grandes dimensiones, que se presentan junto con breves pero conmovedores
relatos de sus vidas, cuidadosamente recogidos por De Medeiros y exhibidos en
marcos de madera antiguos. Y mediante ese doble procedimiento, disloca el
sentido práctico de la estetización oportunista y conduce a los observadores
hacia la escena política primaria de la división de lo sensible; para decirlo
en términos de Jacques Ranciére: ¿podemos imaginar, a través del arte, un mundo
más justo?
Creadores de la propia audiencia
«La subjetividad expresiva del artista, el analizante, el filósofo, la
interioridad de la conciencia proletaria, sufren una erosión», afirma Lash
en Crítica de la información para referirse a este
complejo aplanamiento de la profundidad subjetiva que veníamos
describiendo. Y agrega: «La subjetividad expresiva suponía la conciencia como
un monólogo interior. En cierto modo, el significado estaba en la conciencia.
Uno lo construía para sí». Hoy, en cambio, «la creación de sentido es para
otros».
De esto habla también el escritor italiano Alessandro Baricco en su
ensayo Lo que estábamos buscando (2020), sobre la
pandemia como mito construido cuidadosamente con la materia de nuestros temores
y de nuestros deseos más íntimos. En el fragmento 10, Baricco señala que la
profundidad también es, como la pandemia, como el inconsciente, una criatura
mítica:
Página 114
Rara vez hemos construido [mitos] mejores y más eficientes. En una sola
palabra se fijaba la eventualidad de un lugar que daba sentido a mil
presentimientos, un entero sistema ético y una precisa idea de alma. Por al
menos dos siglos ha guiado casi todo nuestro sentir. No obstante ahora la
estamos abandonando, porque no es adecuada para descifrar el mundo
contemporáneo. Es un mito que se está disolviendo. Cuando todavía se usa para
describir lo real, sugiere mapas que, tomados al pie de la letra, generan situaciones
fastidiosas, no pocas veces incluso cómicas. Convencidos de tener que escalar
paredes escabrosas, nos encontramos frente a praderas. Donde la distancia está
trazada en el orden de las horas, se alcanza la meta en algunos minutos.
Diseñados con minucia admirable e inmutable belleza, pueblan aquellos mapas
ríos disecados, confines abolidos, magníficas ciudades ahora en ruina y
misterios ya hace tiempo develados. Es el continente de la profundidad. En los
espacios blancos, allí donde aparece escrita la espléndida expresión hic
sunt leones, nosotros nos hemos ido a vivir (la traducción es mía).
En las formas de vida infotecnológicas se desdibuja tendencialmente esa
constitución minuciosa del «sí mismo» introspectivo, silenciosa y muchas veces
solitaria que modeló los procesos de individuación en la modernidad ilustrada,
y que era promovida por tecnologías del yo como la rememoración o el examen de
conciencia. En su lugar adquieren mayor relevancia la aparición en público y la
creación de sentido orientada hacia los otros. El sentido se construye como
comunicación, por medio de comentar las actividades cotidianas, mostrarlas,
exponerlas ante diferentes auditorios, desde las redes sociales hasta los reality
shows y, en otra esfera, los grupos de autoayuda que proponen, como
parte de la posibilidad de «regreso a sí», el intercambio de experiencias y
refuerzos junto a otros que padecen o han padecido lo mismo.
Desde esta perspectiva, la reflexividad comienza a volcarse hacia una
práctica comunicativa a través de la cual el yo se expone y, exteriorizándose,
se organiza a sí mismo. En este contexto, decir que la reflexividad se produce
como práctica comunicativa es advertir que las tecnologías del yo
contemporáneas se apoyan más en dispositivos de
Página 115
visibilidad y en relatos de corta duración que en dispositivos de
introspección y relatos de larga duración como la autobiografía o la
construcción psicoanalítica de una «novela familiar».
Estamos ante una nueva cultura del yo que se exhibe ante los demás; un
sujeto que, así como asume la individualidad somática, se reconoce también como
emisor continuo de señales, como obra viviente, que se experimenta, se expresa,
se juzga y actúa sobre sí, en parte, en el lenguaje del espectáculo. Y que se
entrena como creador de su propia audiencia.
En La intimidad como espectáculo (2008), la antropóloga
Paula Sibilia analiza, desde una perspectiva muy crítica inspirada en las tesis
de Guy Debord, dos tendencias complementarias de la contemporánea «cultura del
yo»: la exhibición de la intimidad y la espectacularización de la personalidad.
Por exhibición de la intimidad se refiere a nuevos hábitos asociados con poner
en el espacio público materiales, informaciones, fotografías, imágenes que
hasta hace poco se entendían como correspondientes a la esfera de la intimidad,
a través de redes sociales o de medios de comunicación masivos, lo que incluye
la participación de profesionales del espectáculo, pero también de políticos,
intelectuales e incluso personas no necesariamente conocidas por haber
realizado obra alguna, en shows donde se interviene narrando la propia
biografía; la exhibición de la propia casa o de la vida familiar en revistas de
actualidad; la asistencia a eventos sociales donde se sabe que será filmado y
reproducido.
Sibilia señala, con agudeza, la paradoja de que en nuestra época se
protegen cuidadosamente ciertos datos personales —en especial bancarios y
comerciales— contra posibles invasiones de la privacidad mientras por otro lado
«se promueve una verdadera evasión de la privacidad en campos que antes
concernían a la intimidad personal». El género típico de esta nueva era es el
«diario éxtimo», los fotologs, las páginas personales de las redes sociales,
las fotografías y videos subidos a sitios como YouTube (un servicio nacido en
abril de 2005 cuyo eslogan era, significativamente, Broadcast yourself),
y que ha dado lugar a un verdadero entrenamiento en la exposición.
Incluso, con los años, se han desarrollado subgéneros novedosos como el de la
humillación en cámara. No me refiero tanto a la humillación involuntaria (las
«cámaras sorpresa» de la década de 1990 ya
Página 116
no concitan tanta atención), sino sobre todo la intencional: los
certámenes en los que los participantes son conscientes de que saben poco y
nada acerca de la habilidad exigida, y participan alegremente frente a la burla
de jurados y presentadores, como en la competencia de pasteleros
aficionados Nailed It! de Netflix; o como los desafíos
de Roast Yourself, en los que youtubers famosos se
ríen de ellos mismos componiendo canciones a partir de los
comentarios más crueles de sus haters.
Por espectacularización del yo, Sibilia entiende la conversión de la
propia personalidad en un objeto de afeites, cuidados cosméticos y
estilizaciones para difusión instantánea. Un ejemplo de esto es precisamente el
género reality show, en el que los participantes se convierten en
personajes y estilizan sus reacciones e intervenciones para ser votados por la
audiencia. Sibilia analiza estas dos tendencias a la autotematización como
verdaderas rupturas más que continuidades con prácticas anteriores, como
«signos de una transformación en los modos de ser: una mutación en la
subjetividad», asociadas a nuevas reglas para la constitución del yo y nuevas
maneras de relacionarse con el mundo y con los demás. E interpreta esto en
relación con las nuevas necesidades del capitalismo:
Para poder funcionar correctamente, el capitalismo globalizado de
principios del siglo xxi requiere otros tipos de cuerpos y otros
modos de ser. En ese sentido, tanto aquellos «cuerpos dóciles y útiles» de la
sociedad industrial como aquellas subjetividades «interiorizadas» que
protagonizaron los tiempos modernos están quedando obsoletas. Ya no son tan
necesarias como solían serlo, han perdido buena parte de su «utilidad» porque
dejaron de ser «compatibles» con nuestro medio ambiente. El mundo contemporáneo
solicita otro tipo de sujetos para llevar a cabo sus actividades y proyectos:
necesita cuerpos más ávidos, ansiosos, flexibles y reciclables.
Cabe pensar, en este sentido, que uno de los principales efectos de la
participación activa en las redes sociales virtuales como Facebook o Twitter es
el entrenamiento de las personas «comunes» en la creación y el trato frecuente
con audiencias: con sus propias audiencias. En efecto, estas
Página 117
redes constituyen el lugar en el que los participantes aprenden a atraer
a los otros para que los sigan, aprueben con «me gusta» sus publicaciones,
celebren sus ocurrencias, comenten sus actividades, ideas y opiniones, evalúen
sus fotografías, los inviten a eventos. Es decir: estas nuevas superficies
mediáticas no solo permiten la acción de los públicos en su faceta de
productores de contenidos (la figura del prosumidor, que se evoca a menudo en
relación con los consumidores que con sus preferencias y colaboraciones
ingresan en un régimen mixto de consumo y producción). Tampoco únicamente su
rastreo y eventual gestión por parte de las industrias que organizan los
tránsitos de la información allí volcada. Son verdaderos campos de
entrenamiento para ejercitar la comunicación con públicos, donde se practican
habilidades que cada vez más son imperativos de nuestra hiperactiva, ruidosa y
a su manera también salvaje vida multitasking.
Ha sido el pensador italiano Paolo Virno quien identificó un aspecto
central de esta correlación entre industria cultural y formación
personal-profesional. En Gramática de la multitud (2003),
Virno sostiene que los medios de comunicación tienen hoy la tarea fundamental,
no solo y no tanto de producir productos (programas, películas, música), sino
fundamentalmente de producir productores. Ellos entrenan a los
individuos en destrezas que serán empleadas luego en muy diferentes actividades
e industrias: la informalidad meticulosamente administrada, la gestión
oportunista de la «buena presencia», la facilidad para inventar un chiste o una
frase persuasiva, la capacidad de improvisar súbitas variaciones de tema o de
intensidad, la seducción, la indignación superficial, la calculada grosería
—simétrica y opuesta a la «mayor consideración» con que se encabezaban años
atrás las cartas comerciales — son todos adiestramientos rigurosos. Virno lo
explica así:
Mi hipótesis es que la industria de la comunicación (o mejor, del
espectáculo; o la industria cultural) es una entre otras, con sus
especificidades técnicas, sus procedimientos particulares, sus beneficios
peculiares, pero que cumple también el rol de industria de los medios de
producción. Tradicionalmente, la de los medios de producción es la industria
que produce máquinas y otros
Página 118
instrumentos que se emplean luego en los más diversos sectores
productivos. Sin embargo, en una situación en que los instrumentos de
producción no se reducen a máquinas sino que consisten en competencias
lingüístico-cognitivas características del trabajo vivo, es lícito sostener que
una parte significativa de los así llamados «medios de producción» consiste en
técnicas y procedimientos comunicativos. Y bien, ¿dónde se forjan estas
técnicas y procedimientos si no en la industria cultural? La industria cultural
crea (innova, experimenta) los mecanismos comunicativos que son destinados
después a funcionar como medios de producción aun en los sectores más
tradicionales de la economía contemporánea. Una vez que el posfordismo se
afirma plenamente, este es el rol de la industria de la comunicación: industria
de medios de comunicación.
A distancia
Retomando las características de las formas de vida infotecnológicas,
una que ha sido mencionada muchas veces es el hecho de que existimos y
funcionamos «a distancia». Lo cual implica que solo nos es posible atravesar
esas distancias mediante interfaces maquinales; en buena medida, a través de
las máquinas de comunicación y transporte de signos.
Esto no es nuevo: tal como enseña la teoría sociológica clásica, ya los
lazos orgánicos de la comunidad tradicional habían tenido que dar lugar a los
vínculos a distancia de las «comunidades imaginadas» del
Estado nación. Hoy, sin embargo, esa distancia se incrementó hasta tal punto
que el lazo social espacial se desgarra y se reconstituye como link,
enlace de red, vínculo fundamentalmente sociotécnico.
Y con todo, eso no es lo más llamativo. Más curioso resulta comprobar
que incluso la naturaleza puede ser hoy «a distancia». El primer paso en ese
sentido fue la posibilidad técnica de desacoplar la vida humana del
Página 119
cuerpo humano. El desacople del par cuerpo-vida,
conseguido a lo largo del siglo xx, permitió construir reservorios o
bancos de «material anatómico humano» disponible, que se sostiene con vida
mediante una intervención tecnológica intensiva hasta el momento de ser
utilizado, reinsertado en un cuerpo o desechado. Más tarde, entre finales del
siglo pasado y comienzos de este, el Proyecto Genoma Humano reveló que lo más
intrínseco e interno de nuestra complexión biológica, nuestro genoma, puede
externalizarse y conservarse en bases de datos. Basta ver una sencilla línea
del tiempo para retener algunos hitos en esta secuencia.
1914- Se dieron los primeros intentos de almacenamiento de sangre con
citrato sódico (Argentina)
1917 y citrato de glucosa (EE. UU.).
|
1922 |
Se creó el primer banco de sangre en Leningrado (entonces URSS). |
|
|
|
|
1937 |
Se creó en Chicago, EE. UU., el primer banco de sangre internacional. |
|
|
|
|
1987 |
Se creó el Banco Nacional de Datos Genéticos de la Argentina,
promovido por el Poder |
|
|
Ejecutivo Nacional y organismos de derechos humanos, especialmente la
organización |
|
|
Abuelas de Plaza de Mayo. |
|
|
|
|
1992 |
Se creó el primer Banco de Células de Cordón Umbilical en el New York
Blood Center |
|
|
(EE. UU.). |
|
|
|
|
2003 |
Finalizó la secuenciación del genoma humano, que permitió identificar
y cartografiar sus |
|
|
entre 20 000 y 25 000 genes desde un punto de vista físico y
funcional. |
Tal vez podamos incluir en esta «naturaleza a distancia» el reto por
llegar a producir un corazón bioartificial a partir de células del propio
paciente, o un órgano artificial impreso en 3D, completamente funcional y
compatible —una competencia que ya está en vías de desarrollo desde 2013 y que
ha tenido importantes avances entre 2018 y 2019—. O la oreja producida a partir
del cultivo de condrocitos que luego fue implantada en el brazo izquierdo de
Stelarc.
En efecto, si el lazo social orgánico es reemplazado por la red
sociotécnica, también la biología de los organismos es de a poco relevada por
la biotecnología y la biología computacional, que se proponen dar juntas el
salto bifronte hacia los «artefactos biológicos»: su comprensión, la predicción
de su funcionamiento, su secuenciación, eventualmente, su programación. Tal es
el objetivo en común de la biología molecular, la biología sintética y la
inteligencia artificial.
Por otro lado, el hecho de que las formas de vida infotecnológicas están
desarraigadas tampoco es novedoso: la espacialidad geográfica ha
Página 120
sido siempre el obstáculo a sortear de las grandes infraestructuras del
transporte y las telecomunicaciones. Con todo, hoy su locus típico
no es únicamente la gran urbe y las autopistas que unen una ciudad con otra,
sino los espacios «genéricos» de la cultura mundializada: aeropuertos, shoppings,
estudios de cine o TV, museos, laboratorios. Y por supuesto, el ámbito
«virtual» de las telecomunicaciones y de las redes informáticas: el llamado
ciberespacio, que fue reconocido por la Cumbre de la OTAN de 2016, realizada en
Varsovia, como un nuevo dominio de las operaciones junto a los de tierra, mar,
aire y espacio exterior.
No está de más recordar que el soporte de esta nueva
ciberterritorialidad, lejos de ser una «nube», es un conjunto fuertemente
material, hecho de cables submarinos, satélites, backbones o
cables continentales, edificios, puntos neutros, servidores… Más allá de las
merecidas burlas, internet no está tan lejos de lo que el senador republicano
Ted Stevens, de Alaska, simplificó de manera extrema con la imagen de «una
serie de tubos» en 2006. Para tener presente esa materialidad, conviene retener
algunas imágenes. Una de ellas, la de los cables submarinos que recorren el
planeta llevando el 98 por ciento del tráfico internacional de internet a
través de fibra óptica. El mayor proveedor mundial de este servicio es Google,
con 14 cables que suman más de 112 000 kilómetros bajo el agua. La base de la
red mundial de telecomunicaciones submarina está formada por casi 400 cables
que suman más de un millón de kilómetros. La fibra óptica es una
infraestructura robusta, con resistencia a las inclemencias meteorológicas, menor
latencia y mayor ancho de banda que la comunicación por satélite, que desde
hace varias décadas quedó relegada a la transmisión de eventos deportivos, la
comunicación en lugares remotos o la navegación aeronáutica y marítima.
En el sitio submarinecablemap.com es posible ver en tiempo real ese
tendido sobre el planisferio: no es poco curioso que, en líneas muy generales,
los trazos se parecen a los que ya a finales del siglo xix mostraban
el cableado del telégrafo recorriendo el Atlántico y otros océanos del mundo.
Se puede seguir la historia de ese cableado submarino, con información
detallada desde el tendido del primer cable en 1850, que
Página 121
conectaba las ciudades de Londres y Nueva York, hasta nuestros días, en
el sitio atlantic-cable.com.
Por otro lado están los grandes edificios que alojan puntos neutros,
espacios de interconexión y convergencia para compradores y vendedores de ancho
de banda. Entre ellos, algunos de los más conocidos son The Hub, el edificio de
telecomunicaciones ubicado en el número 24 de la Avenida de las Américas, en el
barrio de Tribecca, en Nueva York, o el edificio que era conocido como Western
Union Building de la calle Hudson número 60, que abarca toda una manzana y está
ubicado en el mismo barrio. Son dos de los concentradores de internet más
importantes del mundo. Allí tienen oficinas centenares de empresas de
telecomunicaciones (AT&T, British Telecom, Deutsche Telekom, Level 3, Telx
y Verizon, entre muchas otras), que intercambian tráfico de internet mediante
enlaces de fibra óptica. En el ex Western Union Building hay oficinas, un
auditorio, cafetería, tiendas y salas de equipo, junto con más de setenta
millones de metros de cable. Las empresas de finanzas se mudan hoy cerca de
ellos para ganar nanosegundos en las negociaciones de alta frecuencia. Hay que
considerar que la velocidad de la luz es un límite estricto: no es posible ir
más rápido que 300 millones de metros por segundo. De allí que estar 300 metros
más cerca significa llegar un microsegundo antes que la competencia, una
ventaja que las compañías financieras aprecian muy bien.
Con todo, si vemos el mapa general de internet 2021, los cinco
concentradores más grandes del mundo están en las ciudades de Frankfurt,
Londres, Ámsterdam, París y Singapur, lo que pone a Europa en el centro de la
escena tanto en capacidad como en la alta disponibilidad de acceso directo a
las «nubes» de las siete grandes empresas que ofrecen ese servicio a minoristas
como Dropbox o iCloud: Amazon (que concentra el 40 por ciento del negocio),
Google, IBM, Microsoft, Alibaba y Oracle.
El mapa muestra también que la capacidad internacional total se triplicó
en menos de cinco años: de 200 terabits por segundo (Tbps) en 2016 a 600 Tbps a
finales de 2020, lo que incluye un crecimiento del 35 % entre 2019 y 2020.
Con respecto a la infraestructura, como último dato de color, es
llamativa la solución que en 2015 comenzó a explorar Microsoft: la
Página 122
instalación de centros de datos en el océano. ¿Por qué? Porque uno de
los costos más abultados de la industria de la tecnología es el aire
acondicionado, de allí que para evitar el recalentamiento de los servidores,
así como para evitar los costos de arrendamiento y mantenimiento, el gigante de
Bill Gates comenzó a probar, más que con una «nube», con un «arca» submarina.
Museificación, exclusión
A la vez, cabe señalar que estas formas de vida estimulan la creación
de, al menos, otros dos tipos de espacio. Uno, los territorios museificados o
patrimonializados del turismo internacional y de la «gentrificación». Lugares
que traducen las diferencias multiculturales para las audiencias remotas —donde
los habitantes se visten los domingos «como nativos» para atraer al turismo— y
donde las clases medias se educan en lo que Mike Featherstone, en Cultura
del consumo y posmodernismo (2000), llama el «descontrol controlado de
las emociones» y aprenden a jugar, no sin sarcasmo, «el juego de la realidad».
Es esta clase de experiencia la que parece proponer una página de
internet brasileña de turismo, que entre sus servicios ofrece tours por las
favelas cariocas:
La idea de participar en tours por las favelas de Río de Janeiro puede
suscitar emociones contradictorias y comentarios polémicos. Es posible pensar
que no tiene sentido realizar un paseo «turístico» por los barrios más pobres
de Río, tal vez porque no se va a ver nada bonito, porque puede resultar
peligroso o incluso porque puede resultar ofensivo para sus habitantes, ya que
pueden sentirse observados como animales raros encerrados en un zoológico
suburbano.
Página 123
Pese a esto, los autores de la página insisten:
Existen muchas razones que animan a conocer una favela, entre ellas:
Comprender mejor la realidad social de Río.
Tomar fotografías desde miradores con vistas incomparables de la ciudad.
Tomar clases de samba, capoeira y maculelê.
[…]
Saborear la comida típica brasileña como la feijoada de
la tía Léa.
Comprar artesanía, cuadros o ropa para colaborar con el desarrollo
local.
El segundo espacio al que me refiero es el patio trasero de toda gran
ciudad, incluida por supuesto Silicon Valley, considerada una de las zonas más
desiguales del mundo. «Nuestros profesores, nuestros bomberos, nuestros
policías no tienen cómo asumir el costo de vida porque los precios son
astronómicos», señalaba en 2019 Russell Hancock, presidente y director
ejecutivo del centro de estudios Joint Venture Silicon Valley, a la cadena de
noticias BBC Mundo. «El costo de la vivienda es el más alto de Estados Unidos y
un tercio de la población no puede sostenerse sin ayuda», agregaba.
Por su parte, el informe anual Silicon Valley Pain Index realizado por
investigadores de la Universidad Estatal de San José, California, arrojó en
2021 que en esta zona sur de la Bahía de San Francisco hay registradas 11 515
personas sin techo, 9 por ciento más que en 2020. Que en un año se perdieron
más de 79 mil empleos, de los cuales solo 13 por ciento tenía ingresos
superiores a 60 000 dólares anuales.
Si se comparan los datos con los que arrojaba el mismo informe el año
anterior, el patrimonio neto de los diez magnates más ricos, todos varones
blancos, era en 2020 de 248 mil millones de dólares, y en 2021 pasó a ser 571
mil millones: un aumento de 230 por ciento en un año. Ya el informe 2020
señalaba que el 57 por ciento de los hogares latinos no era autosuficiente, y
el 46 por ciento de los hogares negros tampoco. El ingreso promedio anual per
capita de los latinos en 2021 es de 30 618 dólares y el de los negros,
40 381; el de los asiáticos, 69 172 dólares; y el
Página 124
de los blancos, 88 886; todo esto contra un mínimo de 126 800 dólares
anuales que se considera que debería ganar una familia para poder gastar el 30
por ciento de ese ingreso en lo que cuesta el alquiler de un departamento de
dos ambientes.
Lo que se evidencia aquí es cómo, en el epicentro mismo de la industria
que sostiene el «giro hacia lo digital» que ha permitido la continuidad de la
vida durante esta pandemia, se han consolidado y multiplicado la desigualdad,
la pobreza, la miseria y la exclusión, que — como estas cifras muestran— es una
de las acciones sociales más persistentes del capitalismo tecnológico
desenfrenado.
Compresión, aceleración, expansión
Llegando al final de este capítulo, repasemos la proposición según la
cual las formas de vida infotecnológicas son no lineales. Esto
significa, en términos de Lash, que como unidades de sentido entran en un
régimen de compresión y aceleración. A lo que cabe
agregar, sin que esto implique una contradicción sino una muestra
de que estamos ante un sistema complejo, también se expanden.
En la era de la comunicación digital, las unidades lineales de sentido
como la narración, el diario íntimo, el discurso crítico meditado tienden a
comprimirse en formatos abreviados: de manera paradigmática, los 140 caracteres
de Twitter, sí, pero también los hashtags, las siglas, los
eslóganes, la frase rimbombante. Como ya escribió a mediados del siglo pasado
Herbert Marcuse en El hombre unidimensional (1964), estos
formatos abreviados como el eslogan y la sigla son formas de estandarizar el
lenguaje para que ya no diga, incluso quizá para que oculte, aquello que está
efectivamente diciendo.
En estas comunicaciones comprimidas importa menos el desarrollo del
mensaje que la conexión misma. El individuo expresa y exhibe, ante todo,
Página 125
que está comunicando, que se está en un flujo, en una marea u ola de
opinión. O bien que se está visible y, por lo tanto, que existe: en la lógica
del espectáculo y la exhibición-estetización, «ser» es «ser visto», y quien no
es visto se ve amenazado por la posibilidad de «no ser». Se manifiesta así la
exaltación de aquella función fática o de contacto de la que hablaba Roman
Jakobson; la reiteración, vacía de contenido específico pero crucial, de que el
otro (y uno mismo) «está ahí», uno de cada lado del canal. La confirmación de
que constituimos algún tipo de comunidad, aunque solo se trate de una comunidad
hueca, sin atributos.
Esto también significa que nos inscribimos en un régimen de oscilación
entre el orden de la representación y el de la expresión simplificada de
emociones instantáneas. En definitiva, reacciones motivadas por la necesidad de
ser visibles, de estar ahí ante los demás.
El desafío, lo sabemos, es construir un espesor narrativo en este nuevo
marco cognitivo y medial. Aún no conocemos del todo las herramientas, pero
hemos visto acelerarse la sucesión de este mismo acontecimiento. Lo que antes
ocurría al cabo de varias generaciones, ya no nos toma por sorpresa.
De esto hablamos, también, cuando nos referimos a la aceleración. Ella
ha implicado una transformación radical en los modos de relacionarnos con el
mundo. Primero, al multiplicar las actividades que desarrollamos — el
modelo multitasking—, que de la mano de la miniaturización y la
portabilidad de los dispositivos de comunicación, es responsable por la
eliminación de nuestros «tiempos muertos» cotidianos. La existencia entendida
como una cinta transportadora cada vez más intensa, como denuncia Jonathan
Crary en 24/7: El capitalismo tardío y el fin del sueño. Para este
autor, la fórmula 24 horas por día, siete días a la semana evoca «una
constelación de poderosos procesos de nuestro mundo contemporáneo
caracterizados por la actividad, la acumulación, la producción, las compras, la
comunicación, el juego, o cualquier otra cosa, incesantes». Señala que cada vez
resulta más difícil hacer una pausa, estar desconectado. E indica la inflexible
traducción a valor monetario de cualquier intervalo de tiempo o de cualquier
relación social que seamos capaces de imaginar —incluso el «hacer crochet» de
Donna Haraway, su llamamiento a tejer nuevas prácticas de relación, de
vivir-con y morir-con
Página 126
otros organismos, puede ser traducida a una acción productiva más,
convertible a los valores del mercado—. Como buen heredero de la teoría
crítica, Crary también identifica como tendencia propia de nuestro tiempo el
hecho de que progresivamente cada uno de los deseos y necesidades humanos —el
hambre, la sed, el erotismo, el cuidado, los vínculos y hasta la expresión de
las emociones— se van transformando artificialmente en formas mercantilizadas.
Y agrega, con contundencia: «un entorno 24/7 tiene la apariencia de un mundo
social, pero en realidad es un modelo no social de conducta maquinal y una
suspensión del acto de vivir que encubre el coste humano exigido para sostener
su eficacia».
Ese multitasking maquínico nos obliga a manejar
diversas temporalidades: hay tempos desiguales en los
distintos tipos de dispositivos y en las diferentes «ventanas». Gestionamos
entonces no solo tareas simultáneas sino tiempos diferentes pero sincrónicos. Y
también «personalidades» o máscaras que tenemos que nutrir en cada espacio en
red. La aceleración es, además, fuente de incertidumbres y riesgos: como
nuestras energías colectivas, incluidas (o acaso principalmente) las
inversiones bursátiles, se dirigen a un futuro incierto, ella es también fuente
de la demanda de control imposible de satisfacer. Es evidente que tampoco queda
claro qué deberíamos controlar, exactamente.
Para cerrar, quiero solamente comentar dos imágenes a través de las
cuales podemos entrever la cuestión de esa expansión en modo alguno
incompatible con la compresión y la aceleración. Una se refiere a una campaña
publicitaria, «Piles of files» («Pilas de archivos»), que la empresa Maxtor,
productora de discos duros, realizó en 2005 en diferentes aeropuertos, y que
permitía visualizar cuántos materiales preciados — fotografías, música— podía
almacenar por aquel entonces una laptop como las que transportamos a diario. La
empresa montó pilas de aproximadamente dos metros de largo por uno de ancho y
dos de altura. Algunas estaban compuestas por fotografías impresas —todas las
que el disco rígido de una laptop promedio era entonces capaz de guardar—,
otras por CD —toda la música en MP3 que ese mismo disco estándar, de uso
doméstico, podía almacenar.
Pocos años después, el fotógrafo y crítico holandés Erik Kessels comenzó
a exponer su pieza 24 horas en fotos (2011), en la que
recopila e
Página 127
imprime 350 mil fotos disponibles en sitios para compartir imágenes,
como Flickr, subidas durante ese lapso. Luego, las esparce libremente por el
sitio de la exposición, creando un cúmulo gigantesco de millones de recuerdos
privados, en los que anima a los visitantes a sumergirse. Con este conjunto de
fotos, Kessels busca crear conciencia sobre el consumo hiperveloz de imágenes
digitales en internet, sobre el hecho de que al subirlas a la red, las
fotografías pasan del ámbito privado al público, y sobre el cambio en los modos
en que nos relacionamos con grandes cantidades de datos. Kessels comentó en una
entrevista que, al imprimir todas esas imágenes, visualizó «la sensación de
estar ahogándome en las representaciones de experiencias de otras personas».
Vemos aquí de qué modo la paradojal coexistencia y mutua intensificación
de dos puntos extremos de una polaridad, como la compresión (miniaturización) y
la expansión (producción globalizada), resuena a su vez como tensión en otras
líneas de fuerza. Por un lado, dos ámbitos de la experiencia cultural cercanos
pero también muy diferentes: los mundos del arte y la publicidad. Por otro
lado, dos escalas: la escala humana y el dilema personal, existencial, en
relación con los archivos de la propia historia, y la escala planetaria y el
drama ecológico de la superproducción de excedentes y restos. Por eso el
conjunto nos interpela. ¿Qué archivo nos llevaríamos a un futuro desierto?
Página 128
Epílogo
El malestar en la cultura digital
El shock de virtualización • «Solo Dios sabe qué le está haciendo al
cerebro de nuestros hijos» • Cómo orientar el Tech New Deal:
descentralización, desconcentración, comunidades y soberanía tecnológica •
¿Quién les pone el cascabel a las GAFA? • La encrucijada del Tecnoceno: cuando
el Mundo y la Tierra se encuentran
• ¿Google nos está volviendo estúpidos? • El fantasma
que recorre el mundo digital: la Singularidad • El Flash Clash de 2010 y los
«accidentes normales» de la Inteligencia Artificial
El juego en cuestión consistía en trasladarse a un mundo poblado por una
especie inteligente, el dominio sobre ese planeta. Y se ganaba siempre, con los
procedimientos de guerra superadaptables creados y perfeccionados por la
compañía creadora del juego. Mis hijos, como otros miles adolescentes, eran
jugadores impenitentes y no pasaba día en que no ganaran una partida, es decir,
destruyeran un mundo.
César Aira,
El juego de los mundos,
edición revisada, 2019
Desde que en 2013 el entonces consultor tecnológico y ex empleado de la
Agencia Central de Inteligencia (CIA) y de la Agencia de Seguridad Nacional
(NSA) Edward Snowden hizo públicos documentos secretos sobre los programas de
vigilancia masiva que la NSA venía aplicando sobre ciudadanos de distintos
países con ayuda de las grandes compañías
Página 129
de internet, la conciencia colectiva de estar frente a alguna forma de
distopía algorítmica de gran escala vuelve como mantra casi cada año.
Ya sea por las fake new, entendidas como un efecto no
deseado pero tampoco suficientemente controlado de la competencia por ganar la
opinión a cualquier costo, o por el uso de datos personales sin permiso, como
en el escándalo que envolvió entre 2017 y 2018 a la consultora política
Cambridge Analytica por haber manipulado datos de más de 80 millones de
usuarios de Facebook a partir de una aplicación para hacer un test de
personalidad, la inquietud está a la orden del día.
En este último caso, gracias a los datos obtenidos a partir del
test-trampa ThisIsYourDigitalLife.com, que completaron unos 270 mil
usuarios de la red social, la empresa logró acceder a sus cientos de miles de
contactos y, tras analizar los perfiles, realizar campañas para incidir en las
votaciones de Donald Trump, en el Brexit en Gran Bretaña y también en las
elecciones que ganó Mauricio Macri en la Argentina. (No deja de resultar
llamativo que el uso de tecnologías similares no causó tanta animadversión cuando
quien las utilizó fue Barack Obama: al parecer, que empresas y Estados usen
nuestros datos sin permiso no es tan problemático si se trata de instituciones
con las que nos identificamos, sintetizó en 2021 el editor Rob Lucas).
También en 2017, Sean Parker, cofundador de Napster y primer presidente
de Facebook, admitió en una entrevista que la red social de Mark Zuckerberg
«explota una vulnerabilidad de la psicología humana» al incentivar a los
usuarios a buscar un «me gusta» tras otro para obtener aceptación social, y
agregó: «Solo Dios sabe qué le está haciendo al cerebro de nuestros hijos».
A estas preocupaciones se suman el abuso por parte de las grandes
empresas de su posición dominante en el mercado, y el debilitamiento de hábitos
y valores que solíamos apreciar, como la empatía o la capacidad de reflexión,
gracias a un proceso a la vez técnico e ideológico que el francés Eric Sadin
analizó en la clave de una «silicolonización del mundo». Para este autor, el
modelo tecnoliberal que emerge de los grandes gigantes de la tecnología digital
implica no solo una praxis económica que pretende extraer beneficios de cada
uno de nuestros gestos a través de los dispositivos conectados, sino que se
trata de un verdadero paradigma
Página 130
civilizatorio. Uno que, sobre la base de «la organización algorítmica de
las sociedades», sumerge a los sujetos en una doble desposesión: la del poder
de deliberación colectiva sobre el fenómeno de la digitalización de la vida,
que se pretende inevitable, y la de la libre decisión y espontaneidad humanas.
Lo cierto es que en dos décadas, la última ola de tecnoeuforia que había
arrancado en 1995 con el libro Ser digital de Nicholas
Negroponte —donde el gurú del Instituto de Tecnología de Massachusetts, MIT,
anunciaba la buena nueva del Fin del Mundo Analógico con el lema «El futuro ya
está aquí y solo hay dos alternativas: ser digital o no ser»—, empezó a
resquebrajarse.
No es que en estos años no haya habido advertencias, ni crisis de fe.
Entre estas últimas, las más conocidas a finales del siglo xx fueron
el apenas recordado Y2K bug, o error informático del año 2000, y
casi enseguida la crisis de la burbuja financiera de las empresas puntocom.
Pero los atentados del 11 de septiembre de 2001 sancionaron la importancia de
las tecnologías digitales para la seguridad individual y colectiva. Del mismo
modo que la pandemia del coronavirus, y el silencio de las altas dirigencias
políticas y científicas de buena parte del mundo, volvió a ubicar a las grandes
empresas tecnológicas en el lugar de las aliadas de los pueblos, o de los
públicos, ya que sus servicios fueron imprescindibles durante los largos meses
de aislamiento y de restricciones a la movilidad impuestos en casi todo el
planeta.
En cuanto a los reparos, acompañaron todo el desarrollo de la tecnología
moderna, y la rama crítica de la filosofía de la técnica constituyó un campo de
estudios cada vez más consistente al menos desde finales de la Segunda Guerra
Mundial. Es sintomático, sin embargo, que el campo entró en una dinámica de
dispersión disciplinar justo en la década de 1970, cuando coincidieron dos
hechos fundamentales. Por un lado, las potencias en pugna en la Guerra Fría,
los EE. UU. y la URSS, habían alcanzado lo que el matemático John Von Neumann,
bautizó con macabra ironía el momento MAD, de Mutua Destrucción Asegurada; una
situación en la cual el uso de armamento nuclear por cualquiera de dos bandos
podía resultar en la completa destrucción tanto del atacante como del defensor.
Por otro lado, se iniciaban las pruebas de ingeniería genética que
Página 131
permitiría la «producción» de nuevas especies híbridas imposibles de
cruzar en la naturaleza.
Fue justo en ese momento, insisto, en el que se habían alcanzado una
inédita capacidad de destrucción de la vida y una inédita capacidad de generar
vida, justo en el momento en que la cuestión de «la técnica» habría necesitado,
como necesita imperiosamente hoy, un abordaje de conjunto, transversal,
transdisciplinar y ecológico, empezaron a proliferar los estudios cada vez más
especializados: sociología de la ciencia y la tecnología, antropología de la
técnica, estudios CTS y muchas otras microespecializaciones. Pese a esto, no
obstante, y sobre todo después del boom de internet comercial
en la década de 1990, la «pregunta por la técnica» no paró de
expandirse.
Y eso, con motivos fundados. Fue en estas dos décadas cuando el mapa de
los asuntos que abarca la revolución infotecnológica creció hasta el punto de
desbordar e incluso multiplicar el territorio. Ningún área o disciplina de
estudios, ningún campo profesional, ninguna dimensión de la experiencia
individual o colectiva: la política, las relaciones sociales, el arte, la
economía, la ciencia, la salud, la comunicación interpersonal o masiva, la
escuela, la vida urbana, la relación con el medioambiente, con el propio cuerpo
y hasta con la descendencia, ha quedado inmune a las metamorfosis que la
técnica les ha ido imponiendo.
En semejante contexto, no de duplicación digital del mundo, como se ha
sugerido, sino de multiplicación vertiginosa de las posibilidades de operar
sobre el mundo y sobre nuevos mundos de red, producida primero por la
datificación y luego por la digitalización, ¿cuáles son los desafíos que la
nueva era digital, y en especial el shock de virtualización al que nos proyectó
la pandemia, obliga a pensar de manera urgente?
Shock de virtualización
Página 132
Consideremos cuatro grandes grupos. El primer desafío está en cómo
enfrentar la combinación de grandes volúmenes de información digitalizada,
aprendizaje maquínico y la vigilancia extendida capilarmente por toda la
sociedad tras los atentados del 11-S y devenida verdadera «cultura». Cuando
digo «enfrentar» lo digo en el sentido más amplio posible: cómo mirar el tema
de frente. Para empezar: ¿qué preguntas hacernos a partir de lo que hasta ahora
sabemos? ¿Cómo describimos y cómo afrontamos los retos que identificamos?
Hemos visto que un problema en este campo es la protección de datos
personales. Sobre todo porque no es sencillo saber qué significa esto hoy,
exactamente. Uno de los hallazgos surgidos del análisis de datos masivos es
que, si se tienen bases de datos suficientemente robustas, no es necesario
brindar datos personales para que distintas agencias obtengan información
sensible sobre nosotros. Como decían Kosinski y su equipo ya en 2013, dada la
cantidad cada vez mayor de huellas digitales que dejamos, se hace difícil
controlar qué atributos estamos revelando; no alcanza con evitar ciertos
contenidos —políticos, religiosos, de orientación sexual o los que queramos
proteger— para impedir que otros descubran nuestras inclinaciones.
De allí que no se trata tanto de cuidarse en o de las redes —algo que en
pandemia no ha sido demasiado posible, además: mucha de nuestra vida
transcurría a través de aplicaciones o plataformas digitales—. Pero entonces,
¿de qué se trata exactamente? Esta pregunta hoy no tiene respuesta concluyente.
«Decir no» a las aplicaciones y plataformas no parece una opción. Por eso
conviene prestar atención a las fuerzas que están empujando este shock de
virtualización. Cuando hablo de shock me refiero tanto a la velocidad del
proceso como al tipo de reacción que se nos propone asumir ante él: la
aceptación de lo que se vislumbra, si no como solución definitiva, como
paliativo aunque sea rudimentario. Es el tipo de reacción supuesta en todas las
terapias y también en todas las políticas de shock: aprovechar la confusión y
el agotamiento de las sociedades en beneficio de algunos agentes concretos.
Con respecto a la virtualización, entre 2020 y 2021 nacieron
innumerables aplicaciones para rastrear contactos, para controlar movimientos,
obtener permisos de circulación, hacer autodiagnóstico, así
Página 133
como nuevos usos de inteligencia artificial para tomar decisiones tanto
personales como de políticas públicas. Si bien no hay duda de que algunas de
estas tecnologías han sido útiles para limitar la propagación del virus, tal
como señala el informe «The Internet Health Report 2020» aún no alcanzamos a
medir sus riesgos. Porque no estoy hablando de evitar las tecnologías, sino de
diseñar políticas de conjunto —no personales, de cada usuario, sino
comunitarias, nacionales o regionales— que permitan analizarlas, compararlas,
elegir las mejores y construir defensas frente a los riesgos de aquellas de las
cuales evaluemos que, al menos por el momento, son peligrosas pero inevitables,
como debe hacerse con cualquier industria de alto riesgo.
En efecto, así como la pandemia visibilizó y potenció un estado de cosas
que implica considerables vulnerabilidades sistémicas —entre ellas: el alto
grado de concentración de las empresas Big Tech, incluidas las famosas GAFA:
Google, Amazon, Facebook y Apple; la enorme desigualdad socioeconómica que se
refleja en el acceso a la inclusión y la alfabetización digital (más de 40 por
ciento de la población mundial aún no tiene acceso a internet); la opacidad
algorítmica o la imposibilidad de decidir realmente si aceptar o no términos y
condiciones de servicios cuya mediación es forzosa para actividades educativas,
sanitarias o económicas de primera necesidad—, también proyectó nuevas
prácticas que tendrán consecuencias que nos afectarán mucho más allá de la crisis
actual.
En la base de esta situación está el hecho de que la vida durante y
después de la crisis pandémica, que vino acompañada de una recesión económica
indudable y un nuevo ciclo de empobrecimiento de los sectores más pobres,
requiere de un uso intensivo de plataformas, aplicaciones y dispositivos cuyos
servicios, esencialmente, pagan los ciudadanos de sus bolsillos —utilizando sus
propios teléfonos o computadoras personales para el trabajo, para la educación
propia o de sus hijos, para las consultas médicas; pagando la electricidad y el
acceso a internet; entregando de manera gratuita y a la vez compulsiva cientos
de datos personales, tanto biométricos como comportamentales, a través de esas
mismas plataformas — en beneficio de unas muy pocas empresas.
Página 134
luces y sombras del TECH NEW DEAL
Y esos beneficios, como vimos en el primer capítulo, son enormes.
A partir del inicio de la pandemia a comienzos de 2020, desde diferentes
ámbitos se declama la necesidad de un Screen New Deal o Tech
New Deal para enfrentar la pospandemia. Con todo, estas expresiones implican
sentidos muy distintos según quién las formula. De acuerdo al ex CEO de Google
Eric Schmidt, quien en 2020 encabezó una comisión para «reimaginar la realidad
poscovid» del Estado de Nueva York, «necesitamos buscar soluciones que se
puedan presentar ahora y acelerar la utilización de la tecnología para mejorar
las cosas». ¿Cuáles? «Las primeras prioridades se centran en telesalud,
aprendizaje remoto y banda ancha», enumeró.
El entonces gobernador de Nueva York, Andrew Cuomo, dijo algo parecido
en mayo de ese mismo año en un encuentro en la Fundación Bill y Melinda Gates.
Habló de la necesidad de desarrollar «un sistema educativo más inteligente», y
expresó que la pandemia ha propiciado «un momento en la historia en el que
podemos incorporar» las ideas de los Gates sobre digitalización: «Todos estos
edificios, todas estas aulas físicas, ¿para qué, con toda la tecnología que
tenemos?», se preguntó, de manera retórica.
Es decir, para un sector de poderosos empresarios y gobiernos, se
trataría de un acuerdo para profundizar la virtualización de la vida cotidiana.
Una estrategia bifronte y sumamente regresiva cuya contracara implica
desfinanciar —abaratando costos y flexibilizando actividades— las
infraestructuras esenciales cuyo debilitamiento nos arrojó de hecho a la
pandemia en la que nos encontramos: infraestructuras de salud, de educación, de
información de calidad, de empleo formal.
La abogada guatemalteca Roxana Ávila, directora de la Fundación
Ciudadanía Inteligente, utiliza en cambio esta misma expresión para referirse a
la necesidad de trabajar en pos de recuperar algunas condiciones básicas para
la «democracia digital». Ella menciona cuatro: desde el punto de vista de la
sociedad y del Estado, descentralizar los servicios a partir de leyes estrictas
que favorezcan la competencia, tanto en
Página 135
las infraestructuras básicas que son críticas para la economía del mundo
hoy (cables submarinos, satélites, backbones continentales)
como en los proveedores de internet, pasando por los sistemas operativos y las
plataformas de publicidad y datos o de comercio electrónico. Desde el punto de
vista de los ciudadanos, garantizar tres derechos: a la protección de los datos
personales y la seguridad, en particular frente a las grandes empresas
transnacionales a las que por el momento no es posible alcanzar con la
legislación nacional; a la inclusión digital, que se refiere a la asequibilidad
de los servicios; y a una genuina alfabetización digital, que se refiere a la
adquisición de competencias no solo como usuario, cliente y proveedor gratuito
de datos, sino también como creador de contenidos e incluso como programador.
A esas condiciones podrían añadirse otras dos. Con respecto a la escala
nacional y regional, desarrollar una política pública sostenida de soberanía
tecnológica, lo cual implica invertir, como Estado y como sociedad, en el
desarrollo de infraestructura crítica, de hardware y de software de
código abierto para no entregar la información sensible de los ciudadanos a
empresas transnacionales, e incluso para exportar esos servicios, con mejores
estándares en cuanto a la protección de derechos fundamentales como la
privacidad. Y con relación a la escala de los ciudadanos, someter a periódica
revisión, y eventualmente limitar, los términos y condiciones de las empresas.
No es admisible que la aceptación de condiciones por defecto sea el estándar
para acceder a servicios cuya mediación es forzosa para realizar actividades de
primera necesidad.
Reciprocidad, redundancia, responsabilidad
El segundo gran desafío se vincula con las relaciones que deberemos
establecer con las empresas que lideran estas tecnologías. ¿Estamos en
condiciones de poner reglas cumplibles?
Página 136
De esto hablan muchos trabajos recientes, como Capitalismo de
plataformas (Nick Srnicek), Realismo capitalista (Mark
Fisher), Capital is dead, Is this something worse? (McKenzie
Wark). Se habla de «capitalismo de vigilancia» (Zuboff), «digital»
(Schiller), «de datos» (Mayer-Schönberger y Ramge); de «colonialismo de datos»
(Couldry y Mejías) e inclusive de «extractivismo de datos» (Morozov). Sabemos
gracias a estos y otros trabajos que empresas tecnológicas antiguas y novatas
lideran los rankings bursátiles. Que buscan orientar nuestras compras y nuestras
votaciones. Que comparten nuestros datos con agencias de inteligencia y con
grandes poderes fácticos. Que utilizan algoritmos sesgados para segmentar
poblaciones y targets (un ejemplo es la aplicación FaceApp,
que se hizo famosa por su filtro «edad», que permite al usuario ver cómo
luciría en la vejez; en 2017, después de un escándalo, debió cambiar su
algoritmo para hacer selfies más atractivas porque, entre las
instrucciones, una hacía que la piel luciera más blanca). Sabemos, finalmente,
que su ámbito de acción es la escala planetaria: junto con las empresas
financieras, las tecnológicas han sido las principales impulsoras de la escala
global y de los protocolos de intercambio de información o de divisas en
cualquier parte del mundo. Su unidad de medida no es el ciudadano, ni el Estado
nación, sino las poblaciones-público a las que pueden dirigirse en cualquier
punto del globo.
Nuestro reto como habitantes de una nación y una región con enorme
potencial —a la que, no casualmente, se la castiga en forma periódica con
deudas escarmentadoras o violentos golpes de Estado, o ambos a la vez— es
construir las herramientas para limitar la incidencia de esos poderes en las
soberanías nacionales y diseñar las condiciones materiales e infraestructurales
para otro esquema de relaciones.
En la Unión Europea (UE) hay dos herramientas que no existen en otras
partes del mundo: una es la normativa sobre neutralidad en la red, que impide a
las empresas privilegiar algunas aplicaciones sobre otras para su propio
beneficio. Esto significa que los proveedores de acceso a internet no pueden
gestionar el tráfico en sus redes para favorecer ciertos servicios («gestión
razonable del tráfico»), ofrecer un acceso privilegiado a «servicios
especializados» o dar acceso a algunos servicios de forma
Página 137
gratuita, injusta y anticompetitiva a la vez que cobran una tarifa a los
clientes para descargar otros servicios (zero rating). La transgresión a
esta norma es el motivo por el que Google fue multado tres veces en los últimos
años: por 2400 millones de euros en 2017; por 4300 millones en 2018; y por 1490
millones en 2019. La segunda es el Reglamento General de Protección de Datos
(RGPD), que contiene severas restricciones a las transferencias internacionales
de datos, ya que todo proveedor externo de servicios a la UE que utilice datos
de ciudadanos europeos debe someterse a esta normativa. Intentar alcanzar un
estándar internacional sobre la cuestión es un desafío en el que la Argentina y
América Latina toda tienen mucho para aportar.
En general, y como principio orientador, cabe retener lo que dice el
sociólogo experto en sistemas complejos Charles Perrow en su libro The
next catastrophe: teniendo en cuenta el sistema de escala planetaria que internet
contribuye a consolidar, es clave estimular la reciprocidad entre diferentes
jugadores antes que la dependencia de unos pocos. Eso aumenta la redundancia,
que es una de las principales formas de defensa ante cualquier posible
accidente natural, organizacional o incluso ante un ataque deliberado.
Si hubiese que imaginar un nuevo acuerdo que permita construir soberanía
y crecimiento sobre la base de la potencia de las tecnologías, cuatro puntos
serían fundamentales: en primer lugar, ampliar la infraestructura crítica
nacional y regional. En segundo lugar, impulsar la recuperación y el desarrollo
de cooperativas, pequeñas y medianas empresas en las distintas provincias y
regiones para descentralizar las comunicaciones. Esto va en el sentido señalado
por Perrow y por Ávila, e implicará tanto robustecer el sistema, al volverlo
menos dependiente de unos pocos jugadores gigantes, cuanto fomentar la
actividad económica federal y regional. Tercero: promover el desarrollo
de software de código abierto para las distintas necesidades
de las administraciones públicas nacionales, provinciales y municipales, una
medida que no solo implica apuntalar la industria y el empleo domésticos, sino
que localiza los datos dentro de cada país. En cuarto lugar, exigir que las
grandes empresas de internet, de datos y de comercio electrónico, que se han
beneficiado enormemente en los últimos meses, aporten para la inversión en
Página 138
infraestructuras —edificios, insumos, investigación— tanto de salud como
de educación, no solo en sus países sedes, sino también en los que operan, para
que el esfuerzo colectivo extraordinario que ellas recogen se refleje en
contribuciones fehacientes a evitar futuras crisis.
Recién en junio de 2021 el G7 dio un paso en ese sentido y propuso un
gravamen mínimo de sociedades de al menos un 15 por ciento, así como una
imposición a las empresas con márgenes de beneficio superiores al 10 por ciento
que las obliga a pagar al menos un 20 por ciento de los impuestos sobre sus
beneficios globales en el territorio en el que operan, y no solo donde tienen
su sede. Únicamente extendiendo estos criterios a otros países, limitando las
riquezas acumulables y obligando a las empresas a responder por los efectos
ecológicos de toda la cadena de extracción y consumo de los materiales que
utilizan en sus procesos y servicios —haciendo constar dónde dejarán sus
desechos y qué harán para garantizar la renovación de los bienes comunes que
empleen, como el agua potable, para empezar— será posible avanzar en una
planificación de gestiones de crisis y de riesgos a nivel planetario.
Llegados hasta aquí, desde ya que es necesario democratizar el acceso a
internet a las personas que aún no lo tienen y robustecer la inclusión digital
tanto en el nivel del uso como en el nivel de la programación. Pero si no se
hace todo lo anterior, estas necesidades se enfrentarán mediante respuestas muy
poco sostenibles, ya que se estará trabajando principalmente para otros.
Como dice el economista canadiense Nick Srnicek, la manera en que
conceptualizamos el pasado y el presente es importante para pensar
estratégicamente y desarrollar tácticas orientadas a transformar aquello que
requiere ser mejorado. Un Tech New Deal solo será deseable si
nos ayuda a fortalecernos como personas, como naciones y como región. Para eso
es necesario asumir la complejidad y la vulnerabilidad sistémicas que nos
arrojaron a esta pandemia. Y a tomar conciencia de las fragilidades, pero
también de las oportunidades, que ella expuso —por primera vez en la historia—
frente a los ojos de todo el planeta.
Página 139
Entre geología e historia humana: tecnologías
El tercer gran desafío no es nuevo, pero los meses pandémicos lo han
visibilizado de una manera inédita. Se trata de la evidente crisis que las
aceleraciones que desencadenaron el Tecnoceno están provocando en el
medioambiente terrestre: en la atmósfera, en los océanos y en las capas
superficiales de la tierra.
En este libro enfoqué los aspectos no necesariamente ocultos pero sí
poco analizados que provienen de utilizar las tecnologías digitales: la
vida 24/7 en las pantallas, la cultura de la vigilancia, la
tendencia a la búsqueda de la optimización, entre otras. Requeriría
otro libro enfocar los problemas relativos a la crisis ambiental. Pero aunque
sea de un modo extremadamente breve, y por ende simplificado, quisiera al menos
comentar dos de las fricciones que se abren cuando se busca poner en relación
crítica y dialéctica el desarrollo tecnológico-industrial —que es hoy
exclusivamente capitalista pero ha sido también socialista en el «socialismo
real»— y el cuidado del medioambiente.
La primera tensión, como bien observan Germán Palacio, Alberto Vargas y
Elizabeth Hennessy en su artículo «Antropoceno o Capitaloceno en fricción.
Des-encuentros entre geociencias e historia», se inicia cuando se ponen en
relación las tesis globales de los peligros que enfrente el
planeta Tierra con las tesis locales y situadas que
se refieren al actor colectivo y complejo que empuja esta nueva era geológica.
Los tres autores leen esta tensión en clave de los desacuerdos entre las «dos
culturas» científicas, es decir, las diferencias de enfoque entre los
científicos naturales y los científicos sociales y de las humanidades.
Sintéticamente, los primeros hablarían de «la Tierra», los segundos hablaríamos
del «Mundo». Los primeros muestran el problema frente al cual nos encontramos
con la noción de Antropoceno, y piensan en el agente de esas transformaciones
en términos de «especie humana», mientras que los segundos tratamos de entender
y de incidir en cómo las sociedades humanas funcionan realmente, de qué modo
sus (nuestras) relaciones, modos de producción y de intercambios han sido
decisivos para llegar al momento en el que nos encontramos. De allí que el
problema
Página 140
no es solo ambiental, sino socioecológico. Y personalmente agregaría:
socio-tecno-ecológico.
Para estos autores, las ciencias sociales y humanidades deben reconocer
la necesidad de revisar su aproximación a la sociedad como si la naturaleza no
existiera y como si los seres humanos no fueran parte de la naturaleza.
Algo parecido dice el físico e historiador indio Dipesh Chakrabarty en
su artículo «El clima de la Historia: cuatro tesis», cuando recuerda que para
buena parte de los historiadores y políticos del siglo xx, la naturaleza
era poco más que un «telón de fondo», cuyos cambios son tan lentos que su
historia es «casi eterna». No estaba extendida la idea, ahora generalizada
gracias a la literatura de la crisis ecológica global, según la cual el clima o
el ambiente pueden alcanzar un punto de inflexión en el que este lento y
aparentemente intemporal «telón de fondo» se transforma con tal rapidez que
puede implicar una catástrofe para los vivientes.
Es necesario hacer el mismo gesto con relación a los desarrollos
tecnológicos de alta complejidad, y eso es, en parte, lo que este libro se
propone: no pensar las tecnologías ingenuamente como «instrumentos neutrales»,
a los que los humanos podemos darles diferentes usos según nuestros proyectos
políticos, sociales y culturales, sino incluirlas firmemente en la agenda
propia de las ciencias sociales y humanidades. Porque estas tecnologías, sus
infraestructuras, sus procesos de producción y de circulación, sus efectos en
la constitución de la sociedad y de las subjetividades, sus accidentes y sus
«restos» son hoy la interfaz que vincula, justamente, la «sociedad» y la
«naturaleza»: ellas son parte sustancial de nuestro mundoambiente.
Son la Tierra —los residuos radiactivos del plutonio que dejan marcas duraderas
en la capa estratigráfica del planeta; los desechos industriales que invaden
los océanos; las minas de extracción de litio; la fracturación hidráulica
o fracking para extraer gas y petróleo del subsuelo— y son el
Mundo de sentido que habitamos.
El «antropos» del Antropoceno no puede ser reducido a una especie, sino
que es una entidad socioecológica, advierten Palacio, Vargas y Hennessy. De
allí que sean críticos de la noción de Antropoceno. Para argumentar, recorren
las cuatro alternativas de periodización que se
Página 141
propusieron para esta nueva era. «Una versión, muy minoritaria, propone
que hace unos 8 mil años, con la invención de la agricultura», comienzan. Es
una idea difícil de sostener, porque habría que probar que la composición
química de la atmósfera fue transformada sustancialmente o trastocada a escala
global desde entonces. El segundo argumento es más conocido: el momento clave
sería desde el inicio de la Revolución Industrial, con la invención de la
máquina a vapor y el uso a gran escala de energías fósiles, carbón y petróleo;
si tomamos en cuenta las distintas fuentes, podría incluso hablarse de un largo
comienzo, que se extendería de mediados del siglo xviii a finales
del xix.
La tercera alternativa corre este largo inicio hacia atrás, y la cuarta,
la que ya hemos presentado, hacia delante. La que la corre hacia atrás se
retrotrae a la acumulación originaria del capital, que da inicios al
capitalismo, allá por 1450; esta hipótesis incluye procesos históricos,
sociotécnicos y políticos de enorme importancia: el cierre del paso de los
europeos hacia Asia por los otomanos; los procesos de «descubrimiento» y
conquista por parte de las potencias europeas sobre América y otros lugares del
planeta durante la segunda parte del siglo xv y el siglo xvi; la
dinámica de expropiación y despojo al campesinado a través del cercamiento de
tierras en el siglo xviii, que arroja a estos como proletarios al mercado
de trabajo.
La cuarta hipótesis es la que se comenta al comienzo de este libro: la
aceptada por el Grupo de Trabajo del Antropoceno, compuesto por un conjunto de
científicos de la Universidad de Leicester bajo la dirección de Jan
Zalasiewicz. Hasta fines de 2015, la comunidad científica no había terminado de
aceptar el término oficialmente, pero en 2016, el equipo de geólogos realizó
pruebas estratigráficas que mostraron la presencia de aluminio, hormigón,
plástico, restos de pruebas nucleares, el aumento del dióxido de carbono, entre
otras huellas en los sedimentos. En consecuencia, este grupo votó la tesis de
que el Antropoceno comenzó en 1950, con los residuos radiactivos de las bombas
atómicas, pues la marca que determina ese cambio es la de los residuos
radiactivos del plutonio. Tal como afirman Palacio, Vargas y Hennessy, datar el
inicio del Antropoceno en torno a 1950 señala el momento de emergencia de lo
que se ha denominado el complejo militar-industrial. Un término que
enunció
Página 142
por primera vez en 1961 el presidente Dwight Eisenhower, en lo que
algunos consideran la despedida presidencial más recordada de la historia
estadounidense después de la de George Washington. Eisenhower dijo entonces:
Nuestro trabajo, los recursos y los medios de subsistencia son todo lo
que tenemos. En los consejos de gobierno, debemos evitar la compra de
influencias injustificadas, ya sea buscadas o no, por el complejo
industrial-militar. Existe el riesgo de un desastroso desarrollo de un poder
usurpador y [ese riesgo] se mantendrá. No debemos permitir que el peso de esta
conjunción ponga en peligro nuestras libertades o los procesos democráticos.
Se refería así a los grupos industriales interesados en mantener la
carrera armamentística entre los Estados Unidos y la Unión Soviética durante la
Guerra Fría para su beneficio económico. Hoy el término se usa para aludir a la
amplia red de contratos y flujos monetarios y de recursos que circulan entre
los contratistas privados de Defensa, el Pentágono y el Congreso y el gobierno.
E incluye a las grandes empresas de infraestructura en tecnologías de la
comunicación y la información.
Capitalismo, tecnoindustria y bio-tanato-política
Puede tener sentido entonces lo que afirman Palacio, Vargas y Hennessy,
que si tenemos en cuenta la preminencia de las detonaciones nucleares para el
diagnóstico, podríamos hablar de «Capital-Nuclear-ceno», en la medida en que
«lo que llaman Antropoceno no es el producto de una especie humana
indiferenciada sino de una especie que hizo de la combinación entre la
acumulación capitalista y la guerra un mundo de cambio climático».
Página 143
Con todo, Chakrabarty ha advertido que restringir el Antropoceno al
capitalismo puede ser reductivo. Aquí se ancla la segunda de las fricciones: la
que concierne a identificar no solo y no tanto a los responsables de la crisis
climática —no alcanza con encontrar a los culpables, si bien hacerlo es
importante para exigir reparaciones—, sino también los alcances de las
responsabilidades que es necesario que los distintos agentes asuman de ahora en
adelante.
Chakrabarty propone el ejercicio contrafáctico de suponer un escenario
en el cual todos los países tuvieran prosperidad y una significativa equidad en
la distribución de los recursos. Ese mundo, sostiene el autor, sería más justo,
pero la huella ecológica sería de todos modos grande. Si esto que Chakrabarty
afirma es cierto, significa que nuestra capacidad de actuar como especie
geofísica va más allá del propio capitalismo. Él lo argumenta así:
Denominar a los seres humanos como agentes geológicos implica desbordar
nuestra imaginación de lo humano. Los seres humanos son agentes biológicos,
tanto colectiva como individualmente. Siempre lo han sido. La historia humana
no tenía sentido cuando los humanos no eran agentes biológicos. Pero solo
podemos llegar a ser agentes geológicos, histórica y colectivamente, cuando
hayamos alcanzado números e inventado tecnologías que sean de una escala lo
suficientemente alta como para tener un impacto en el planeta. Llamarnos
a nosotros mismos agentes geológicos implica atribuirnos una fuerza de la misma
escala que la liberada en otros tiempos, cuando hubo una extinción masiva de
especies. Parece que actualmente estamos pasando por este tipo de periodo. […]
Nuestra huella no fue siempre tan grande. Los humanos comenzaron a adquirir
esta agencia solo desde la Revolución Industrial, pero el proceso realmente se
disparó en la segunda mitad del siglo xx. Nos hemos convertido en agentes
geológicos muy recientemente en la historia. (La cursiva es mía).
Lo que este autor sugiere es que necesitamos pensar, de manera conjunta,
cómo terminar con la desigualdad creciente y cómo organizar, ralentizar o
Página 144
modular las distintas aceleraciones para que todos los habitantes del
planeta puedan tener condiciones de vida dignas. Porque lo que estamos
necesitando, para una verdadera crítica del Antropoceno, es combinar estos
interrogantes con la exigencia política más fundamental: aquella por la cual
todos los vivientes humanos cuentan. Y no solo como potenciales clientes de
nuestros productos, como trabajadores a nuestro servicio o como «resto» más o
menos abandonado por las políticas neocoloniales, que combinan extractivismo,
desposesión de poblaciones de sus territorios, deforestación masiva,
apropiación irresponsable de bienes comunes, desarrollo insustentable y
rentabilidades extraordinarias. Eso es lo que nos trajo donde estamos.
Pensar la escala de la especie desde las ciencias
sociales y humanas, el encuentro entre historia natural e historia humana,
implica en primer lugar asumir que todo viviente humano importa. Y para que sea
así, las ciencias tanto naturales como sociales y humanas nos dicen que también
tienen que contar las otras especies, el suelo, la atmósfera y los océanos.
Las ciencias sociales y humanas incluyen, como se sabe, las ciencias
económicas, las ciencias políticas y el derecho. Estos tres saberes-poderes
deben asumir su tarea para desmontar la edificación, desde hace siglos — cuando
no milenios—, de un modelo civilizatorio basado en la cesura entre «propios» y
«ajenos», entre «vidas cualificadas» y «meras vidas», entre vidas que importan
y vidas que no importan. Este es el eje bio-tanato-político de la crítica del
Antropoceno que no podemos soslayar. No solo la producción de plusvalor propia
de toda industria de escala, sino también la cesura política y económica entre
poblaciones protegidas y poblaciones expuestas o abandonadas. Y este paradigma
político, el que — como explica con nitidez Giorgio Agamben en el primer libro
de la serie Homo sacer— conecta íntimamente el poder soberano con
la vida desnuda, el poder político con un violento poder de muerte,
es en Occidente mucho más antiguo que el capitalismo.
Esto no significa quitar responsabilidades a los agentes concretos,
sino, de manera complementaria, señalar líneas de acción a seguir. Como dice la
socióloga argentina Maristella Svampa:
Página 145
Pensar al Antropoceno desde la noción de especie humana, como fuerza
telúrica, es condición necesaria, aunque no suficiente. […] hay que reconocer
el peso que tiene en la crisis actual la geopolítica del Antropoceno, y sus
inequívocas raíces históricas. Así, aunque todos somos responsables del
desastre ecológico, hay algunos que son más responsables que otros. Volviendo
al informe de The Carbon Majors, este encontró que más de la mitad de las
emisiones industriales mundiales desde 1988 corresponden a 25 empresas y
entidades estatales. Grandes empresas petroleras como ExxonMobil, Shell, BP y
Chevron están entre las más emisoras. Asimismo, a fines de noviembre de 2018,
se difundió un informe que advierte que el 76 % de las emisiones globales de
dióxido de carbono es generado por los países del G-20. Encabezan el ranking de
contaminación China (29,36 %), Estados Unidos (14,27 %), la Unión Europea
(9,57 %), India (6,77 %), Rusia (4,85 %) y Japón (3,45 %). América Latina, con
Brasil a la cabeza (1,54 %), parece estar muy lejos de las escalofriantes
cifras de las grandes potencias en la emisión de gases de efecto invernadero.
Esta autora nos recuerda que desde inicios de la Modernidad los pueblos
del sur vienen pagando los mayores costos ambientales en términos de injusticia
ambiental y de profundas desigualdades, no solo entre el norte y del sur, sino
también dentro de las mismas sociedades del llamado Tercer Mundo. De allí que,
para Svampa, «la deuda ecológica resulta imposible de cuantificar». Más aún,
«toda idea de compensación económica resulta insuficiente», agrega, ante la
devastación ambiental que señala a las periferias globalizadas como «zonas
liberadas» o «zonas de sacrificio» para producir commodities baratos.
¿Es posible un transhumanismo crítico?
Página 146
Finalmente, el último gran desafío de esta época se refiere a las
presiones que la nueva vida digital impone a la subjetividad. Qué resonancias
tiene en nuestros modos de actuar y autocomprendernos como individuos y como
sociedades.
Se ha hablado de la conversión de la intimidad en un espectáculo; de las
«subjetividades 1-click», bombardeadas por continuas demandas de atención y de
reacción emocional —los «cerebros vulnerables» a los que se refería Sean
Parker—, a las que se les insta a traducir de manera inmediata sus deseos en
acciones de consumo.
Se habló quizá menos del declive de lo que Alessandro Baricco considera
el mito de la profundidad, incluida por supuesto la profundidad psicológica. En
2011, el escritor Nicholas Carr advertía de manera muy convincente en su
libro Superficiales que «Google está volviéndonos estúpidos»
(los signos de pregunta que envolvían la frase eran obviamente retóricos). En
2021, Carr comentó en una entrevista que las investigaciones de los últimos
diez años confirman aquel diagnóstico. Entre otras cosas, «cuando tenemos cerca
el teléfono, aun aunque esté apagado, nuestra capacidad para resolver
problemas, concentrarnos e incluso tener conversaciones profundas, disminuye».
También los procesos colectivos cambian profundamente. Están atravesados
por una ola generalizada de «ludificación»: no solo de entrecruzamiento entre
tiempo de ocio y tiempo de trabajo —visto desde la perspectiva crítica:
¡trabajamos hasta cuando jugamos!—, sino que buena parte de las actividades
tienden a adquirir la forma de un juego. Es la tesis del libro The Game,
de Baricco, para quien no solo las cosas no son tan graves sino que hasta
pueden resultar interesantes. La superficie no solamente es lo que vemos
primero: es lo que manda. Las «cajas negras» de la tecnología, lo complejo, lo
profundo desaparece de la vista. Precisamente la utopía de colonizar el cosmos
(o el ciberespacio), de hacer de todo un juego, de usar aplicaciones para
cualquier tontería, de resolver los problemas en soledad (o con tutoriales), de
volver fluidos los límites entre real y virtual, entre hombre y máquina, eso es
lo que para el escritor italiano es la «posexperiencia»: el futuro en su máxima
expresión.
Como podemos entrever, en el centro de la distopía algorítmica que
recorre el mundo está el espectro del transhumanismo. Para los
Página 147
transhumanistas, como dijimos, el cuerpo es un dispositivo obsoleto. Que
es igual que decir, el humano tal como lo conocemos se está
volviendo obsoleto. El cuarto gran desafío de nuestro tiempo es saber qué
significa tomarse esa proposición en serio.
Un aspecto de ella —solo uno, que es crucial— tiene que ver con los
desarrollos de Inteligencia Artificial y la hipótesis de la Singularidad
tecnológica. Es una de las ideas más complejas en las que vienen trabajando
poderosas agencias de Occidente, como la NASA —que es una de las sedes de la
universidad de la Singularidad, cuyo cofundador ha sido Ray Kurzweil—, la
SingularityU de los Países Bajos en Europa y el MIT, y de Oriente, como la
Universidad de Tokio.
La idea de Singularidad se refiere a la posibilidad —por ahora
hipotética, pero en la que confían muchos de los tecnólogos más influyentes de
Silicon Valey—, de que la Inteligencia Artificial (IA) tal como la conocemos
hoy hará, ella también, en las próximas décadas su salto de escala; su «Gran
Aceleración». Que primero pasará de ser la Inteligencia Artificial Estrecha
(ANI, por Artificial Narrow Intelligence) que conocemos hoy (una inteligencia
artificial que se especializa en una tarea limitada, como jugar al GO u
orientarnos en una ciudad), a ser una Inteligencia Artificial General, o AGI
(una inteligencia artificial que es al menos tan desarrollada intelectualmente
como un ser humano, en distintos ámbitos). Y que eso pronto podría derivar en
una Superinteligencia Artificial, o ASI (una inteligencia artificial que es
mucho más veloz y cualitativamente mucho más inteligente que cualquier humano,
e incluso que la humanidad en su conjunto, en todos los ámbitos). Llaman a este
punto de inflexión la Singularidad, porque creen que es imposible predecir cómo
se desarrollará el futuro humano después de él. Y aseguran que una vez que
estas máquinas existan, poseerán una inteligencia que será tan incomprensible
para nosotros que ni siquiera podemos adivinar racionalmente cómo se alterarían
nuestras experiencias de vida.
En 2015, el escritor Tim Urban escribió un detallado artículo en su
sitio Wait but why en el que comenta las tesis más entusiastas
—como la de Kurzweil o Vernor Vinge, según la cual el mundo se está acercando
rápidamente a un punto de inflexión, donde el ritmo acelerado de máquinas cada
vez más inteligentes pronto superará todas las capacidades
Página 148
humanas— y otras más escépticas, como la del cofundador de Microsoft
Paul Allen, el informático de la Universidad de Nueva York Ernest Davis y el
empresario tecnológico Mitch Kapor, para quienes pensadores como Kurzweil están
subestimando demasiado la magnitud del desafío porque en realidad no estamos
tan cerca de la ASI. Según ellos, la «asombrosa complejidad de la cognición
humana» es el verdadero asunto, porque sin tener una comprensión
científicamente profunda de la cognición es imposible crear el software que
podría desencadenar la Singularidad. En lugar del avance cada vez más acelerado
predicho por Kurzweil, Allen considera que hay un constante «freno de
complejidad» que hace que una vez que se comienza a investigar un sistema
complejo como el que es capaz de desencadenar un pensamiento, o una acción
social suficientemente sofisticada, las cosas se vuelven más y más difíciles y
la carrera de los «rendimientos acelerados» se frena indefectiblemente. Es
preciso tener en cuenta «la creatividad de los investigadores para idear nuevas
teorías, la forma en que organizamos socialmente el trabajo de investigación en
estos campos y difundimos el conocimiento resultante».
Con todo, la sola perspectiva de una «explosión de inteligencia
artificial» es un punto de inflexión, y a él ya hemos llegado. Así lo expresa
el filósofo transhumanista Nick Böstrom, director del Instituto Futuro de la
Humanidad en la Universidad de Oxford, de quien no podría decirse que es un
teórico crítico:
Ante la perspectiva de una explosión de inteligencia, los humanos somos
como niños pequeños jugando con una bomba. Tal es el desajuste entre el poder
de nuestro juguete y la inmadurez de nuestra conducta. La Superinteligencia es
un desafío para el que no estamos preparados ahora y no lo estaremos por mucho
tiempo. Tenemos poca idea de cuándo ocurrirá la detonación, aunque si
sostenemos el dispositivo contra nuestro oído podemos escuchar un leve tic-tac.
Para empezar, las ciencias sociales y humanas deben ya darse la tarea de
trabajar intensamente en el desarrollo de alternativas de Inteligencia
Artificial orientadas por las necesidades humanas y del conjunto del
Página 149
sistema Tierra; desarrollar IA con patrones de cooperación antes que de
competitividad.
Según Böstrom, el escenario más probable es que la primera computadora
que llegara a ASI vería inmediatamente un beneficio estratégico por ser el
único sistema ASI del mundo. Y en el caso de un despegue rápido, si lograra ASI
incluso solo unos días antes del segundo, estaría lo suficientemente adelantado
en inteligencia para suprimir de manera efectiva y permanente a todos los
competidores. Böstrom llama a esto una ventaja estratégica decisiva, que
permitiría que el primer sistema ASI del mundo se convierta en lo que se llama
un singleton: una ASI capaz de gobernar el mundo a su antojo;
llevarnos a la inmortalidad o borrarnos de la existencia.
Tim Urban deduce de esto que «si las personas que piensan más sobre la
teoría de la IA y la seguridad humana pueden encontrar una forma segura de
lograr una ASI amistosa antes de que cualquier IA alcance la inteligencia a
nivel humano, la primera ASI puede resultar amistosa». Pero si las cosas van al
revés, si la prisa global por desarrollar IA llega al punto de despegue de ASI
antes de que se desarrolle la ciencia de cómo garantizar la seguridad de la IA,
«es muy probable que emerja una ASI hostil».
No es necesario apelar a la amenaza de la extinción masiva para entender
qué está en juego. Basta recordar uno de los primeros «accidentes normales» de
la Inteligencia Artificial del siglo xxi: el Flash Crash financiero del 6
de mayo de 2010, producido cuando un programa de IA reaccionó de forma
incorrecta a una situación inesperada y provocó que el mercado de valores se
desplomara durante nueve minutos, llevándose consigo un billón de dólares en
valores de mercado, de los cuales solo una parte se recuperó cuando se corrigió
el error. Como dijimos al comienzo del libro, no alcanza con identificar el
factor desencadenante: un software no suficientemente bien
diseñado, el sabotaje deliberado de un hacker. Estos son elementos
perfectamente previsibles —aunque no completamente inevitables— dentro del
sistema hipercomplejo que es el mundo financiero internacional. Del mismo modo
que era ultraprevisible la posibilidad de un bombardeo a las infraestructuras
de comunicaciones durante una situación de guerra, para lo cual se buscó
inventar,
Página 150
precisamente, un sistema de comunicaciones descentralizado, que fue una
de las bases de la actual internet. La tarea inaplazable de nuestro tiempo es
prevenir los próximos «accidentes normales» de una IA diseñada según un código
técnico de competitividad no sustentable, que profundiza las desigualdades
y es, en definitiva, poderosamente destructivo. Acompañar la innovación digital
con nuevas y mejores imaginaciones sociales, culturales y subjetivas en
su propio terreno es quizá la misión más importante del presente y del
futuro.
Página 151
Agradecimientos
Este libro es el resultado de años de trabajo, en colaboración con
muchas personas y con el respaldo de diferentes instituciones. Quiero agradecer
especialmente a mis colegas y amigos del Seminario de Informática y Sociedad de
la Facultad de Ciencias Sociales de la Universidad de Buenos Aires (UBA), con
quienes desde la década de 1990 compartimos el asombro antes los problemas que
nuestro tiempo propone al pensamiento. Ese ámbito, impulsado por quien fue mi
director de doctorado, Héctor Schmucler, conducido luego por Patricia Terrero y
más tarde por Christian Ferrer, alumbró para muchos de nosotros la posibilidad
de pensar con rigor, audacia y libertad. En este marco, un particular
agradecimiento a las sucesivas generaciones de estudiantes que, con sus afiladas
intervenciones, nos exigen y acompañan en el camino.
Agradezco a los colegas de la red internacional de Filosofía de la
Técnica, en particular a Agustín Berti, Javier Blanco, Diego Lawler, Diego
Parente, Anahí Ré, Darío Sandrone y Andrea Torrano, quienes con generosidad han
persistido en formularse la «pregunta por la técnica» aun cuando parecía
inaudible.
Nada de lo escrito aquí podría existir sin el intercambio permanente con
Pablo Manolo Rodríguez, Julián Mónaco, Lisandro Barrionuevo, Camilo Ríos Rozo
y, en sus personas, con los integrantes de los equipos de investigación que
dirigimos con Manolo en la UBA desde 2008. Tampoco sin la investigación que
llevamos adelante con Claudia Kozak desde 2003 sobre poéticas tecnológicas, en
la que participaron Alejandra Torres, Jazmín Adler, Pablo Farneda, Lucía
Stubrin, entre muchos valiosos colegas.
Ha sido igualmente fundamental la amistad y el intenso diálogo
intelectual con Christian Ferrer, Margarita Martínez, Paula Sibilia, Juan
Página 152
Pablo Arancibia, Fernanda Bruno, Claudio Celis Bueno, Jordi Carmona
Hurtado, Gustavo Chirolla, Rodrigo Karmy, Daniel López del Rincón, Jonnefer
Barbosa, Iván Pincheira, Andrés Maximiliano Tello y, en sus personas, los
colegas de distintas partes del mundo que han expandido mi visión de los
problemas aquí abordados.
El haber ingresado en 2014 a la Carrera del Investigador Científico y
Tecnológico del Conicet me permitió enfocarme mucho más intensamente en la
investigación. Con el apoyo de esta institución me concentré en un tema que
había quedado inconcluso tras finalizar mi tesis doctoral: el de las formas de
vida infotecnológicas como modo de existencia paradigmático de nuestro tiempo,
y sus manifestaciones culturales y artísticas. El capítulo dedicado a ellas
condensa diferentes textos, clases y conferencias en los que abordé la
cuestión. Entre otros, los artículos «Formas de vida tecnológicas: multitasking y
aplanamiento», incluido en Modos de vida, resistencias e invención,
compilado por July Chaneton (La Parte Maldita, 2015), y
«Tecno-poéticas de lo viviente. Cuando el artefacto se hace carne (y
viceversa)», que integra el volumen Investigar en cuerpo, arte y
comunicación, compilado por Martín Scarnatto y Fabián De
Marziani (Teseo y UNLP, 2020). Fui invitada a exponer versiones preliminares en
el Congreso Internacional Art and Speculative Futures, organizado por la
Universidad de Barcelona y la Universitat Oberta de Catalunya (Barcelona, 2016)
y en el seminario Conocer el mundo contemporáneo para pensar la educación,
coordinado por Guillermina Tiramonti (Flacso, 2019).
La idea de este libro nace de tres fuentes. La primera es la
investigación que comencé en 2016 sobre tecnologías de la vigilancia, gracias a
que ese año miembros de la Red Latinoamericana de estudios en Vigilancia,
Tecnología y Sociedad, Lavits, me invitaron a coorganizar su encuentro anual en
Buenos Aires. Los capítulos «Big data, algoritmos y el nuevo orden
informacional» y «Hacktivismo, biometría y vigilancia genética» tienen su
génesis en esa experiencia, y expuse avances parciales en artículos y conferencias.
Entre ellos, en «Omnes et singulatim en el nuevo orden
informacional. Gubernamentalidad algorítmica y vigilancia genética», en Poliética:
Revista de Ética e Filosofia Política (San Pablo, Vol. 5 N.º 1, 2017);
«Nuestros datos, ¿nosotros mismos?», incluido en el
Página 153
libro Corporalidades desafiantes, compilado por Daniel López
del Rincón y Víctor Ramírez Tur (Barcelona, 2018); y «To be or not to be –a
data set. Art, technology and identity in the new informational order»,
en Scripts, Dossier Art at the dawn of the Genetic and AI
Revolution (Bruselas, 2020). En 2019 comencé a interceptar esta
cuestión con la noción de Tecnoceno, como en la conferencia «Persistencias de
lo humano en el Tecnoceno», que dicté ese año en la Pontificia Universidad
Javierana de Bogotá.
La segunda fuente de este libro fue el impulso que implicó la escritura
de mi artículo «La pandemia como “accidente normal”», publicado en abril de
2020 a partir de un encargo de Mario Greco para la revista Anfibia,
de la Universidad Nacional de San Martín (Unsam). Le agradezco a él
esa invitación, así como a María Mansilla su delicada edición. Más tarde, de
nuevo Mario Greco, junto con Micaela Cuesta, me sugirieron escribir una segunda
parte, referida al «shock de virtualización», que se publicó en Review Revista
de Libros #25, en 2021. A ellos, gracias por su valoración de mi
trabajo. De esos textos nacieron las bases de la introducción y el epílogo,
respectivamente.
El tercer impulso me lo dio mi extraordinaria editora, Ana Laura Pérez,
que esperó con paciencia que todo este material cuajara en un libro. Su
confianza de hierro, su lectura afinada, sus consejos sabios son el tipo de
abrazo que toda «persona en situación de autor» necesitaría tener. Mercedes
Sacchi fue mi lectora-editora ideal: por obra de su capacidad analítica y sus
sugerencias criteriosas, el texto es mucho más amable para las lectoras y los
lectores. Gracias también a la dedicación de Laura Mazzini y en su persona, a
todo el equipo editorial.
Sobre el final, quiero agradecer el apoyo incondicional de Alejandro
Covello, quien no solo promovió enfáticamente la escritura del libro sino cuyas
conversaciones fueron clave para entender los alcances transversales del «salto
de escala» que estamos atravesando. Del mismo modo, sin el amor inmenso de mis
hijos, Julia y Lucio, nada sería posible para mí: son personas increíbles, que
me llenan de orgullo y refuerzan mi convicción en que cada esfuerzo que hacemos
por lo que sabemos que es sustancial multiplica el sentido de nuestro mundo. Mi
deseo íntimo es que algo de esto que escribí para ellos, para sus amigos y
congéneres, les resulte en el futuro de alguna manera valioso.
Página 154
Bibliografía
Introducción. el vértigo del salto de escala
Agamben, Giorgio ([1995] 2014), Homo sacer. El poder soberano y
la vida desnuda, Buenos Aires, Adriana Hidalgo.
Costa, Flavia (2012), «Biopolítica informacional. Apuntes sobre las
tecnologías de gobierno de los públicos», en Revista Espacios Nueva
Serie N.º 7, Universidad Nacional de la Patagonia Austral.
Foucault, Michel ([1977] 1991), «Nuevo orden interior y control social»,
en Saber y verdad, Madrid, La Piqueta.
—, ([1984] 1994), «¿Qué es la Ilustración? (Qu’est-ce que les
Lumières?)», en Revista Actual N.º 28.
—, ([1976] 1977), «Derecho de muerte y poder sobre la vida», en Historia
de la sexualidad I. La voluntad de saber, Madrid, Siglo XXI.
Martins, Hermínio (2018), The Tecnocene. Reflections on Bodies,
Minds and Markets, Londres, Anthem Press.
Moore, Jason W. (ed.) (2016), Anthropocene or Capitalocene?
Nature, History and the Crisis of Capitalism, Oakland, Kairos.
Morozov, Evgeny (2020), «The Tech “Solutions” for Coronavirus Take the
Surveillance State to the Next Level», en The Guardian,
15/4/2020. En
internet: theguardian.com/commentisfree/2020/apr/15/tech-coronav irus-surveilance-state-digital-disrupt
Nancy, Jean-Luc (2015), «The Existence of the World Is Always
Unexpected», J-L Nancy en conversación con John Paul Ricco, en Davis, H. y
Turping, E. (eds.), Art in the Anthropocene (ob. cit.).
Noto la diega, Guido y Waldem, Ian (2016), «Contracting for the
“Internet of Things”: Looking into the Nest», en European Journal of
Página 155
Law and Technology, Vol. 7, N.º 2.
Oxfam 2020; Lawson, Max; Parvez butt, Anam; Harvey, Rowan; Sarosi,
Diana; Coffey, Clare; Piaget, Kim y Thekkudan, Julie (2020), «Los
milmillonarios del mundo poseen más riqueza que 4600 millones de personas»,
en Tiempo para el cuidado, informe enero 2020. En internet: www.oxfam.org.
Oxfam 2021; Berkhout, Esmé; Galasso, Nick; Lawson, Max; Rivero
morales, Pablo; Taneja, Anjela y Vázquez pimentel, Diego (2021), El virus de
la desigualdad, informe enero 2021. En internet: www.oxfam. org
Perrow, Charles ([1984] 1999), Normal Accidents: Living with
High Risk Technologies, edición actualizada, Princeton, N. J., Princeton University
Press.
Quammen, David (2012), Spillover. Animal Infections and the Next
Human Pandemic, Nueva York, W. W. Norton & Co.
—, (2020a), «Questo virus è più pericoloso di Ebola e Sars», entrevista
de Stella
Levantesi, en Il Manifesto, Roma, 25/3/2020. En internet: ilmani festo.
it.
—, (2020b), «Somos más abundantes que cualquier otro gran animal. En
algún momento habrá una corrección», entrevista de Marc Bassets, en El
País, Madrid, 19/4/2020. En internet: elpais.com
Simmel, Georg ([1903]1986), «Las grandes urbes y la vida del espíritu»,
en El individuo y la libertad. Ensayos de crítica de la cultura,
Barcelona, Península.
Sloterdijk, P. (2015), «The Anthropocene: A Process-State at the Edge of
Geohistory?», en Davis, H. y Turping, E. (eds.). Art in the
Anthropocene: Encounters Among Aesthetics, Politics, Environments and
Epistemologies, Londres, Open Humanities Press.
Steffen, Will; Broadgate, Wendy; Deutsch, Lisa; Gaffney, Owen y Ludwig,
Cornelia (2015), «The trajectory of the Anthropocene: The great acceleration»,
en The Anthropocene Review, vol. 2, N.º 1.
Svampa, Maristella (2019), «El Antropoceno como diagnóstico y
paradigma. Lecturas globales desde el Sur», en Utopía y Praxis
Latinoamericana, vol. 24, N.º 84.
Página 156
Wilson, Edward (2003), El futuro de la vida, Barcelona,
Galaxia Gutenberg.
Zuboff, Shoshana (2020), La era del capitalismo de la vigilancia,
Barcelona, Paidós.
Sitios web consultados
Big data, algoritmos y el nuevo orden
informacional
Deleuze, Gilles ([1990] 2005), «Posdata sobre las sociedades de
control», en Ferrer, Christian (comp.), El lenguaje libertario.
Antología del pensamiento anarquista contemporáneo, La Plata, Terramar.
Foucault, Michel ([1977] 1991), «Nuevo orden interior y control social»,
en Saber y verdad, Madrid, La Piqueta.
—, ([2004] 2006), Seguridad, territorio, población, Buenos
Aires, FCE.
—, ([2004] 2007), Nacimiento de la biopolítica, Buenos
Aires, FCE.
—, (2001), «El sujeto y el poder», en Dreyfus, Hubert y
Rabinow Paul: Michel Foucault: más allá del estructuralismo y la
hermenéutica, Buenos Aires, Nueva Visión.
Grassegger, Hannes y Krogerus, Mikael (2016), «Ich habe nur gezeigt,
dass es die Bombe gibt», en Das Magazin N.º 48, 3/12/2016.
Han, Byung-Chul (2014), Psicopolítica. Neoliberalismo y nuevas
técnicas de poder, Barcelona, Herder.
Hilbert, Martin (2017), «Obama y Trump usaron el Big Data para lavar
cerebros», entrevista de David Hopenhayn en revista The Clinic,
Santiago de Chile, 19/1/2017. En internet: www.theclinic.
cl.
Kosinski, Michal, Stillwell, David y Graepel, Thore (2013), «Private
Traits and Attributes are Predictable From Digital Records of Human
Página 157
Behavior», en Proceedings of the National Academy of Sciences
(PNAS), vol. 110, N.º 15, 5802-5805.
Lazzarato, Maurizio (2006), Por una política menor.
Acontecimiento y política en las sociedades de control, Madrid, Traficante
de Sueños.
Malik, Momim (2020), «A hierarchy of limitations in machine learning»,
arXiv:2002.05193 (cs, econ, math, stat). En internet: arxiv.org.
Rouvroy, Antoinette y Berns, Thomas ([2013] 2016),
«Gubernamentalidad algorítmica y perspectivas de emancipación. ¿La disparidad
como condición de individuación a través de la relación?», en Adenda
Filosófica N.º 1, Santiago de Chile.
Sadin, Eric ([2013] 2017), La humanidad aumentada, Buenos
Aires, Caja Negra.
Tello, Andrés (2018), Anarchivismo, Buenos Aires y Madrid,
La Cebra.
Tiqqun (2016), La hipótesis cibernética, Buenos Aires,
Hekht.
Van dijck, José, Poell, Thomas y De vaal, Martijn (2018), The
Platform Society. Public Values in a Connective World, Nueva York, Oxford University
Press.
Youyou, Wu, Kosinski, Michal y Stillwell, David (2015), «Computer-Based
Personality Judgments are More Accurate than Those Made by Humans», en Proceedings
of the National Academy of Sciences (PNAS), vol. 112, N.º 4, 1036-1040.
Zuboff, Shoshana (2020), La era del capitalismo de la vigilancia,
Barcelona, Paidós.
Zukerfeld, Mariano (2014), «Todo lo que usted quiso saber sobre Internet
pero nunca se atrevió a googlear», en revista Hipertextos, vol. 2,
N.º 1, 64-103.
Sitios web consultados
www.cloudinfrastructuremap.com
Página 158
Hacktivismo, biometría y vigilancia genética
Agamben, Giorgio (2005), Profanaciones, Buenos Aires,
Adriana Hidalgo. Dewey-hagborg, Heather (2015), «Sci-Fi Crime Drama With a
Strong Black Lead», en The New Inquiry, 6/7/2015. En internet:
thenewinquiry.com/sci-fi-crime-drama-with-a-strong-black-lead.
Duster, Troy (2015), «A Post-Genomic Surprise. The Molecular
Reinscription of Race in Science, Law and Medicine», en The
British Journal of Sociology, vol. 66, 1-27. En internet: doi.org
Foucault, Michel ([1977] 1991), «Nuevo orden interior y control social»,
en Saber y verdad, Madrid, La Piqueta.
—, ([2004] 2007), Nacimiento de la biopolítica, Buenos
Aires, FCE.
—, (2014), Obrar mal, decir la verdad, Buenos Aires, Siglo
XXI.
Herper, Matthew (2013), «Artist creates portraits from people’s DNA.
Scientists say “That’s impossible”», Forbes, 31 de mayo. En
internet: www.forbes.com.
Lyon, David (2018), The Culture of Surveillance. Watching as a
Way of Life, Cambridge, Polity Press.
Martialay, Mary (2013), «Stranger Visions. Interview with Heather
Dewey-Hagborg», en The Approach. Discovery, Innovation and Imagination
at Rensselaer Polytechnic Institute, 11/4/2013. En internet: approach.rpi.edu/2013/04/11/stranger-visions.
Sitios web consultados
Página 159
Formas de vida infotecnológicas
Agita mundo (2002), Declaración de São Paulo para promover la
actividad física en el mundo. Documento de Trabajo, San Pablo, 12/10/2002. En
internet: portalagita.org.br
Baricco, Alessandro (2020), Quel che stavamo cercando [Lo
que estábamos buscando]. En internet: libroprivato.it
Becker, Gary ([1964] 1983), El capital humano. Un análisis
teórico y empírico referido fundamentalmente a la educación, Madrid,
Alianza.
Crary, Jonathan (2015), 24/7. El capitalismo tardío y el fin del
sueño, Buenos Aires, Paidós.
Featherstone, Mike (2000), Cultura del consumo y posmodernismo,
Buenos Aires, Amorrortu.
Feenberg, Andrew (2002), Transformar la tecnología, una nueva
visita a la teoría crítica, Bernal, Ed. Universidad Nacional de Quilmes.
Fisher, Mark ([2012] 2016), «Deseo postcapitalista», en Realismo
capitalista. ¿No hay alternativa?, Buenos Aires, Caja Negra.
Foucault, Michel ([2004] 2007), Nacimiento de la biopolítica,
Buenos Aires, FCE.
Friedman, David (2000), Law’s Order. What Economics Has To Do
With Law and Why it Matters, Princeton, N. J., Princeton University Press.
Groys, Boris (2014), «La obligación del diseño de sí», en Volverse
público, Buenos Aires, Caja Negra.
Página 160
—, (2008), «El consumo es hoy la gran ideología», en Babelia, El
País, Madrid.
Kurzweil, Ray ([2005] 2012), La Singularidad está cerca. Cuando
los humanos transcendamos la biología, Berlín, Lola Books.
Lash, Scott (2005), «Formas tecnológicas de vida», en Crítica de
la información, Buenos Aires, Amorrortu.
Marcuse, Herbert ([1964]1993), El hombre unidimensional,
Buenos Aires, Planeta.
Ministerio de coordinación y gestión pública, Unidad de Coordinación
para el Desarrollo del Capital Mental (2016), «Capital Mental. Por qué
es importante y cómo potenciar su desarrollo», soporte PDF, Provincia de Buenos
Aires. En internet: www.gba.gob.ar
Mountcastle, Vernon (1998), «Brain Ciencie at the Century’s Ebb»,
en Dædalus 127, N.º 2, 1-36.
Mumford, Lewis ([1934] 1982), Técnica y civilización,
Madrid, Alianza. Orlan (1999). «Orlan Conférence», Madrid, Círculo de
Bellas Artes, 21
de mayo.
Orlan (2007). «Entrevista con Eugenio Viola», en Bader J.,
Kuspit d.,
Hegyi l., Jacub m., P. Phelan p., Orlan, viola e. (eds.) Orlan,
Le récit,
Milán, Charta.
Rose, Nikolas ([2007] 2012), Políticas de la vida, La Plata,
Unipe.
Rose, Nikolas y Abi-rached, Joelle (2013), Neuro: The
New Brain Sciences and the Management of the Mind, Princeton, N. J./Oxford, Princeton
University Press.
Sibilia, Paula (2008), La intimidad como espectáculo, Buenos
Aires, FCE. Silicon valley pain index (2021), Myers-lipton, Scott y otros,
Instituto de Derechos Humanos de la Universidad Estatal de San José. En
internet:
Stelarc (1995), «Extended-Body», entrevista con Paolo Atzori y Kirk
Woolford, para revista CTHeory.net, 9/6/1995, realizada en la
Academia de Artes Mediales de Colonia, Alemania.
Virno, Paolo (2003), Gramática de la multitud, Buenos Aires,
Colihue.
Sitios web consultados
Página 161
proyectoabolicionista.wordpress.com
Epílogo. el malestar en la cultura digital
Ávila, Renata (2021), «Tech New Deal: un nuevo pacto democrático
para la era
digital», conferencia en línea, 6/5/2021. En internet: cartagenapi ensa.es
Baricco, Alessandro (2019), The Game, Barcelona, Anagrama.
Böstrom, Nick (2014), Superinteligencia. Caminos, peligros,
estrategias, Madrid, Teell.
Canales, María Paz (2020), «El paradigma tecno-político que crea la
pandemia: el riesgo y la oportunidad», Lavits_Covid19_#9,
16/6/2020. En internet: lavits.org
Carr, Nicholas (2011), Superficiales. ¿Qué está haciendo
internet con nuestras mentes?, Madrid, Taurus.
Chakrabarty, Dipesh (2019), «El clima de la historia: Cuatro tesis»,
en Utopía y Praxis Latinoamericana, vol. 24, N.º 84.
Couldry, Nick y Mejías, Ulises (2019), The Costs of Connection.
How Data Is Colonizing Human Life and Appropriating it for Capitalism, Stanford
University Press.
Fisher, Mark (2016), Realismo capitalista. ¿No hay alternativa?,
Buenos Aires, Caja Negra.
Internet
health report 2020, Fundación Mozilla. En internet: 2020.intern ethealthreport.org
Página 162
Klein, Naomi (2020), «Distopía de alta tecnología: la receta que se
gesta en Nueva York para el post-coronavirus», en La Vaca,
26/5/2020. En internet: www.lavaca.org. (Originalmente publicado en The Intercept, 8 de mayo de
2020. En internet: theintercept.com)
Kosinski, Michal, Stillwell, David y Graepel, Thore (2013), «Private
Traits and Attributes Are Predictable from Digital Records of Human Behavior»,
en Proceedings of the National Academy of Sciences (PNAS),
vol. 110, N.º 15, 5802-5805.
Mayer-schönberger, Vícktor y Ramge, Thomas (2019), La
reinvención de la economía. El capitalismo en la era del Big Data, Madrid,
Turner.
Morozov, Evgeny (2018), Capitalismo Big Tech: ¿Welfare o
neofeudalismo digital?, Madrid, Enclave de Libros.
Negroponte, Nicholas (1995), Ser digital, Buenos Aires,
Atlántida.
Palacio, Germán, Vargas, Alberto y Hennessy, Elizabeth (2018),
«Antropoceno o Capitaloceno en fricción. Desencuentros entre Geociencias e
Historia» en Alimonda, H. y otros. Ecología política latinoamericana.
Pensamiento crítico y horizontes emancipatorios en clave sur, vol. 2,
265-288, Clacso, Buenos Aires.
Perrow, Charles (2007), The Next Catastrophe. Reducing Our
Vulnerabilities to Natural, Industrial and Terrorist Disasters, Princeton,
N. J., Princeton University Press.
Sadin, Éric (2018), La silicolonización del mundo. La
irresistible expansión del liberalismo digital, Buenos Aires, Caja Negra.
Schiller, Dan (1999), Digital Capitalism: Networking the Global
Market System, Cambridge, Mass MIT Press.
Srnicek, Nick (2018), Capitalismo de plataformas, Buenos
Aires, Caja Negra.
Svampa, Maristella (2019), «El Antropoceno como diagnóstico y
paradigma. Lecturas globales desde el Sur», en Utopía y Praxis
Latinoamericana, vol. 24, N.º 84.
Urban, Tim (2015), «The AI Revolution: The Road to Superintelligence»,
dos partes. En internet: waitbutwhy.com
Wark, McKenzie (2019), Capital Is Dead, Is This Something Worse?,
Londres, Verso.
Página 163
Youyou, Wu, Kosinski, Michal y Stillwell, David (2015), «Computer-Based
Personality Judgments are More Accurate Than Those Made by Humans», en Proceedings
of the National Academy of Sciences (PNAS), vol. 112, N.º 4, 1036-1040.
Zuboff, Shoshana (2020), La era del capitalismo de la vigilancia,
Barcelona, Paidós.
Sitios web consultados
Página 164
Flavia Costa es doctora en Ciencias Sociales por la Universidad de
Buenos Aires e investigadora del Consejo Nacional de Investigaciones
Científicas y Técnicas (Conicet). Es profesora asociada del seminario
Informática y Sociedad y titular del seminario de doctorado Estética,
biopolítica, estado de excepción. Una lectura de Giorgio Agamben, en la
Facultad de Ciencias Sociales de la UBA. Dicta también la materia Teorías de la
Cultura y el Poder. Michel Foucault, en la Escuela Interdisciplinaria de Altos
Estudios Sociales de la Universidad Nacional de San Martín. Fue una de las
fundadoras de la revista Artefacto. Pensamientos sobre la técnica e
integra el colectivo Ludión. Exploratorio latinoamericano de poéticas/políticas
tecnológicas. En la última década tradujo, en colaboración, buena parte de la
obra de Giorgio Agamben al castellano. Publicó la novela Las anfibias y,
junto con Pablo Rodríguez, La salud inalcanzable. Biopolítica molecular
y medicalización de la vida cotidiana.
Página 165
Notas
[1] Una cifra razonable e incluso alta. Según datos oficiales
del Ministerio de Salud de la Argentina, es el equivalente a lo que se pagó en
este país por cada dosis de la vacuna Sputnik V. Según esos mismos datos
oficiales, la vacuna AstraZeneca se pagó entre 4 y 4,1 dólares la dosis. La
Sinopharm, casi 20 dólares. Curiosa y sintomáticamente, en la Unión Europea
hasta enero de 2021 no se habían difundido oficialmente los valores de las
vacunas. El diario español La Vanguardia lo informaba así el
15 de enero: «Tanto la Comisión Europea como las farmacéuticas han rechazado
confirmar cuál es su precio, aunque Bruselas siempre ha insistido en que deben
ser asequibles. […] No obstante, debido a un error, la ministra belga de
Presupuestos, Eva de Bleecker, publicó a través de su cuenta de Twitter el
precio de cada vacuna durante un debate en el Parlamento federal del país.
Según el tuit —que luego eliminó— la vacuna de Pfizer-BioNtech costaría 12
euros y 14,6 euros la de Moderna; mientras que la de AstraZeneca sería de 1,78
euros. Preguntada en reiteradas ocasiones al respecto, la ministra siempre ha
rechazado admitir o desmentir la información debido al carácter “confidencial”
de los contratos». <<
[2] A comienzos de 2015, la directora científica de Parabon, Ellen
McRae Greytak, afirmó que la tecnología desarrollada por la empresa se basa
parcialmente en el trabajo de Mark D. Shriver, profesor de Antropología
Genética en la Universidad de Penn State. <<
Página 166
Índice de contenido
Introducción.
El vértigo del salto de escala
La
pandemia como «accidente normal»
Big data,
algoritmos y el nuevo orden informacional
Sociedades
de control y nuevo orden informacional
Del
gobierno de los futuros conductuales
Big data,
perfilado y retroacción predictiva
Minería
de datos, extractivismo y anticipación
Vigilancia
(im)personal y la ideología de lo «ágil»
Hacktivismo,
biometría y vigilancia genética
«Interpretaciones
especulativas»
Formas de
vida infotecnológicas
La
«preparación cultural» para la tecnificación
Susceptibilidad
y programación
Creadores
de la propia audiencia
A distancia Museificación,
exclusión Compresión,
aceleración, expansión
Epílogo.
El malestar en la cultura digital
Luces y
sombras del tech new deal
Reciprocidad,
redundancia, responsabilidad
Entre
geología e historia humana: tecnologías
Capitalismo,
tecnoindustria y bio-tanato-política
¿Es
posible un transhumanismo crítico?
FIN

No hay comentarios:
Publicar un comentario