Escuela de Humanidades, LICH - Laboratorio de Investigación en Ciencias Humanas
El politólogo Christopher Coenen, líder de un grupo de investigación en el Instituto de Tecnología de Karlsruhe de Alemania, visitó la UNSAM para abordar temas candentes como el transhumanismo, la inteligencia artificial, la ciencia ciudadana, la barbarie a la que puede conducirnos ciertos usos de las tecnologías, pero también el potencial que todavía puede encontrarse en desarrollos que apunten a nuevas formas de convivencia.
Texto: Verónica Engler – Foto: Gastón Bejas
Hace justo cuatro décadas Donna Haraway redactaba su “Manifiesto Cyborg” en el que proponía la figura de un ser mezcla de humano y máquina como una incitación para desbrozar algunas típicas dicotomías del pensamiento occidental como cultura/naturaleza, mente/cuerpo, vigilia/sueño, hombre/mujer. Pero esa misma figura también venía a sacudir los anclajes del feminismo con un esencialismo que lo podía llevar a construir categorías universales como mujer, género o patriarcado, definidas de una una vez y para siempre. A la luz de las ideas transhumanistas más en boga en este tercer milenio apenas iniciado, el cyborg (cybernetic organism) parece ir en otra dirección, más llamado a concretar las fantasías de superación tecnológica del ser humano mediante una autodeterminación del sujeto a prueba de todo. Es decir, se trataría de la propuesta de concreción de un individuo como soberano total(itario). Como respuesta a esto, en los últimos años se ha desarrollado y consolidado internacionalmente el concepto de Investigación e Innovación Responsable (RRI, por sus siglas en inglés), que persigue una ciencia más abierta, reducir la brecha existente entre el ámbito científico y la sociedad, impulsar la alineación entre los procesos de investigación y sus resultados sociales, con el objetivo de mejorar el cumplimiento de las expectativas y necesidades de las personas. Para abordar estas cuestiones estuvo de visita en la UNSAM el politólogo Christopher Coenen, del Instituto de Tecnología de Karlsruhe (KIT), de Alemania, en donde dirige el grupo “Salud y Tecnificación de la Vida”, que se ocupa de las tecnologías de la información y la comunicación, biotecnologías, nanotecnologías, transhumanismo y mejora humana, neurotecnologías y prótesis, entre otros temas. Coenen fue coordinador del proyecto de investigación transnacional FUTUREBODY – The Future of the Body in the Light of Neurotechnology y es editor en jefe de la revista NanoEthics: Studies of New and Emerging Technologies. En esta entrevista Coenen se refiere al transhumanismo, la inteligencia artificial, la ciencia ciudadana, la barbarie a la que pueden conducirnos ciertos usos de las tecnologías, pero también al potencial que todavía puede encontrarse en desarrollos que apunten a nuevas formas de convivencia. “Es importante no antropomorfizar las tecnologías, no tratarlas como si fueran actores humanos”, advierte.
-¿Estas ideas más difundidas en los últimos años sobre la mejora de las capacidades individuales del ser humano mediante el uso de tecnologías no colisionan con propuestas como las del cyborg de Donna Haraway o inclusive con el legado humanista de universalismo, libertad, igualdad, justicia, empatía y pensamiento crítico?
Sí, mucha gente simplemente tiende a pensar que sólo porque alguien como Haraway usa la noción de cyborg, todo se trata del mismo cyborg. Para nosotros es muy interesante porque estamos trabajando mucho y desde hace bastante tiempo en este tema de la mejora humana, el transhumanismo. Donna Haraway, pero también Katherine Hayles, se sorprendieron cuando se enteraron de este nuevo movimiento transhumanista, porque su propuesta tenía una noción crítica y una filosofía social muy rica en términos de feminismo. Y las ideas de muchos de estos jóvenes transhumanistas parecían ser más de los años cincuenta, con los sueños de convertirse en un superhombre e ir al espacio y con la idea de que la tecnología nos salvará. Desde esta perspectiva la tecnología no es vista como algo que puede ser bueno socialmente, sino como un medio de salvación personal.
-Pareciera que en estas nociones prepondera la idea de la superación de lo biológico a través de dispositivos tecnológicos para la mejora personal, pero sobre todo en términos productivos.
Existe esta noción de autoafirmación, esta idea de que la dignidad de los humanos depende de su autonomía. Y esta es una cuestión clave también en un área que es muy importante para nuestro grupo de investigación dentro del KIT. En particular, en relación con el campo de los estudios de discapacidad, porque muchos miembros de nuestro instituto argumentan en contra de la noción de que el valor de los humanos depende de su desempeño en relación a sus capacidades o habilidades. Entonces, todo tipo de tecnologías en el área protésica o en el área de la salud a menudo se justifican con la necesidad de ayudar a estas personas a volver a ser miembros completamente funcionales de la sociedad. Cuando una persona pierde una pierna o una mano, por ejemplo, a menudo realmente solo quieren tener un nuevo miembro artificial. Pero hay otros que pueden nacer sin una mano o una pierna, y a menudo no necesariamente quieren tener una prótesis, sino que están más interesados en poder vivir como miembros de la sociedad tan bien como otros. Y esto significa que la tecnología, desde nuestro punto de vista, siempre debe desarrollarse de acuerdo con las necesidades de las personas, y estas necesidades pueden ser muy individuales.
–En el Instituto de Evaluación de Tecnología y Análisis de Sistemas (ITAS) del KIT ustedes llevaron adelante el proyecto INOPRO (Intelligent Orthotics and Prosthetics) para desarrollar prótesis y ortesis. ¿Qué cuestiones investigaron en relación a las expectativas que pueden tener las personas sobre estas tecnologías?
Mi colega Martina Baumann, por ejemplo, ha hecho muchas entrevistas con gente que usa prótesis, y pudimos ver cuán diferente es lo que la gente quiere de este tipo de tecnología. Este sentido, simpatizo con las ideas de Donna Haraway y otros en relación a que usamos las tecnologías como seres sociales, en contextos sociales y comunidades. Por supuesto que en la mayoría de los desarrollos, al menos en Europa y los Estados Unidos, las personas siempre quieren ser lo más independientes posible. Pero, si esto se hace a costa de, por ejemplo, entornos sin barreras, no resulta realmente útil. Un miembro honorario de mi grupo, el profesor Gregor Wolbring, de la Universidad de Calgary (Canadá), plantea que no le interesa tener piernas artificiales, pero sí necesita que haya gente trabajando en la estación de gasolina para ayudarle a llenar el tanque para que pueda moverse con su auto (NdR: Wolbring tiene piernas mucho más cortas, por lo que debe movilizarse con silla de ruedas). Esto significa que siempre se trata de una cuestión de lo que realmente ayuda en la vida cotidiana de las personas. Muy a menudo la tecnología se utiliza simplemente para automatizar, para tener menos gente en el trabajo y, por lo tanto, también menos gente ayudándose entre sí. Los humanos somos seres sociales, desde que nacemos necesitamos del cuidado de otro. Creo que la idea es que las tecnologías no deben desarrollarse de acuerdo con una noción estrecha del ser humano que lo concibe como un ser individual que lucha sólo por mejorarse a sí mismo, sino como miembro de las comunidades.
-¿Qué rol pueden jugar los Estados en relación a regular desarrollos tecnológicos que pueden incluir inteligencia artificial o manipulaciones genéticas?
Podría decir que no hay regulaciones generales posibles. Si hablamos de mejoramiento humano como cambiar el cuerpo o desarrollar ciertas circunstancias para esto, por supuesto, se puede regular caso por caso. Pero diría que, en general, ésta sigue siendo una discusión muy especulativa porque muchas de estas tecnologías no existen. Estas tecnologías pueden ser buenas para compensar algo físico que no funciona o, por ejemplo, la pérdida de una parte del cuerpo. En estos casos tenemos regulaciones vigentes. Así que no diría que, como humanidad, debamos tener moratorias para todo tipo de tecnologías, sino que debemos mirar específicamente cada tecnología. Pero hay algunas regulaciones en algunos casos que creo que son realmente importantes, como cuando se trata de la cuestión del consentimiento informado. Por ejemplo, algunas personas plantean que puede haber drogas, medicinas, o lo que sea, con las que podríamos desempeñarnos mejor cognitivamente. Entonces los padres tendrían derecho a darle eso a sus hijos. En esto soy muy escéptico porque los niños no pueden dar el consentimiento por sí mismos. Y sé cuán fuertes son los derechos de los padres, pero creo que tan pronto como una tecnología o una sustancia cambia el cuerpo de una persona, que en este caso serían niños, debemos tener estándares muy altos porque la integridad del cuerpo humano es central para nuestra tradición liberal de derechos civiles. En este tipo de casos es bueno tener regulaciones. Me parece que no deberíamos renunciar fácilmente a ciertos estándares que tenemos, por ejemplo en lo que se refiere a modificaciones genéticas.
-Las aplicaciones de inteligencia artificial que se popularizaron en el último tiempo, como el ChatGPT, parecen estar generando polémica en diferentes ámbitos laborales y educativos. ¿Es necesario desarrollar algún tipo de regulación?
Por supuesto hay una gran cantidad de necesidades de regulación. Se puede pensar en algo muy simple que está sucediendo ya con los estudiantes que utilizan el ChatGPT para aprobar sus exámenes. Esto significa que hay alguna necesidad de regulaciones muy simples en la escuela, por ejemplo. También podemos preguntarnos hasta qué punto queremos transferir, para ahorrar, el poder de decisión a los sistemas artificiales. Creo que una cosa muy importante en todos los contextos cuando discutimos esto es no antropomorfizar, no tratar las tecnologías como si fueran actores humanos. Entonces, por un lado, estoy de acuerdo con las ideas de Bruno Latour y otros que dicen que los humanos no estamos en un pedestal y abajo están las tecnologías. Las tecnologías nos dan forma y nosotros estamos dando forma a las tecnologías. Pero, por otro lado, debemos tener mucho cuidado al asignar responsabilidad o algo así como personalidad a las tecnologías, porque esto a menudo es ridículo.
-¿Cuál es el rol del Estado en lo que respecta al impacto social de los desarrollos tecnológicos?
Cómo se financian estas tecnologías, cómo se desarrollan, estas cuestiones están en el corazón de nuestro trabajo y de la cooperación que hemos iniciado entre la UNSAM y el equipo del KIT. Tratamos de analizar cómo las personas pueden usar ciertas tecnologías en el futuro o pueden verse afectadas por ese uso, cómo pueden ellas cocrear estas tecnologías, cómo pueden participar en los procesos de innovación. Y creo que esto es aún más importante porque muchas de estas cuestiones de regulación solo pueden ser abordadas por quienes formulan políticas. Solo pueden regularse bien si hay en la sociedad suficiente conocimiento sobre estas tecnologías, y si las perspectivas de las sociedades son lo más diversas posibles. Es decir, tienen que poder llegar no sólo a grandes industrias, sino también a las pequeñas empresas y a las organizaciones de la sociedad civil, como usuarios potenciales. En este sentido político, un concepto muy radical es el de “ciencia ciudadana”. Esto implica que si se desarrollan cosas que no me ayudan, las desarrollaré yo mismo. Pero esto es muy amplio. Por ejemplo, no tiene por qué ser sólo el desarrollo de ciudadanos. En muchos casos, ni siquiera es posible hacer esto. También pueden ser ciudadanos que trabajan con científicos, o puede ser que ciertas tecnologías sean discutidas por los ciudadanos, o que las decisiones sobre qué tecnologías financiar sean tomadas no sólo por expertos, académicos, la industria, los formuladores de políticas, sino también por las comunidades y la sociedad civil.
-¿De qué manera las tecnologías pueden plantear alternativas comunitarias que se contrapongan al pensamiento tecnomístico o apocalíptico?
Tenemos la población más educada en la historia mundial. Pero nuestras sociedades se vuelven aún más atávicas y menos civilizadas de lo que solían ser, pero de alguna manera también hay progreso. Entonces, la gran pregunta es por qué no somos capaces de disfrutar los beneficios de este progreso, por qué lo usamos en gran medida para propósitos destructivos y para una especie de consumismo estrecho. Hay muchas actividades que no son realmente útiles para enriquecer nuestra experiencia humana y mejorar nuestras relaciones con la naturaleza no humana, sino sólo para entretenimiento individual y olvidarse del mundo, no para cambiar el mundo. Sería muy bueno si entendiéramos que las tecnologías se pueden usar para crear nuevas formas de nosotros, nuevas formas de vivir juntos y también de vivir con la naturaleza de una manera menos destructiva. Pero nos falta imaginación para este tipo de escenarios, por lo que creo que es muy útil tener muchas actividades nuevas en las que participen los ciudadanos y los artistas, y traten de desarrollar juegos, formas de utilizar la tecnología para nuevos e interesantes propósitos de convivencia.
Christopher Coenen, Ciencia Ciudadana, inteligencia artificial, nuevas tecnologías, Transhumanismo