#DebateUNSAM, Escuela de Ciencia y Tecnología, Escuela IDAES, home

Inteligencia artificial: Riesgos y beneficios de una nueva especie

Lxs investigadorxs de la UNSAM Daniel de Florian, Rodrigo Díaz y Flavia Costa analizan el impacto de la inteligencia artificial en la sociedad, la regulación estatal y las posibilidades y peligros de los “individuos maquínicos” que avanzan a pasos agigantados.

Por Gaspar Grieco. Imagen de portada generada con IA por Iván Tiscornia. Fotos: Pablo Carrera Oser

La inteligencia artificial está en nuestras vidas. Ya no hace falta imaginar futuros distópicos a bordo de las naves de Ray Bradbury o Isaac Asimov. Tampoco es necesario maratonear Black Mirror ni mirar aquella película que protagonizó el nene de Sexto sentido. Hoy nos fascinamos con los relatos de ChatGPT y las imágenes que construyen en unos segundos las IA Midjourney y Stable Diffusion. Todos los días, en las redes, en las noticias, en el comentario de un conocido, se comenta una nueva aplicación o anuncio vinculado con la inteligencia artificial. Desde la física, la ciencia de datos y las ciencias sociales, la UNSAM propone un abordaje poliédrico del fenómeno IA.

El concepto inteligencia artificial no es nuevo, ni siquiera del siglo XXI. En 1956 se realizó el célebre Proyecto de Investigación de Verano de Dartmouth sobre inteligencia artificial, considerado el primer evento que consideró a la IA como campo de estudio. Allí, el matemático John McCarthy ya advertía que “cada aspecto del aprendizaje y otras formas de inteligencia pueden ser descriptos de manera tal que pueda haber una máquina que los simule”.

Casi setenta años después y en sintonía con el boom de las herramientas de machine learning, la UNSAM inauguró la Licenciatura en Ciencia de Datos, una de las primeras de este tipo en la Argentina. Rodrigo Díaz, astrofísico y director de la nueva carrera de la Escuela de Ciencia y Tecnología (ECyT), define a la inteligencia artificial como “una revolución” y al concepto de aprendizaje automático como “una forma de interactuar con las computadoras que viene a modificar la visión tradicional”: “En la visión tradicional los humanos tenemos que explicitar las tareas que queremos que haga la computadora para llegar a cierto objetivo. En la nueva visión del aprendizaje automático vos exponés al algoritmo a los datos y este tiene la suficiente flexibilidad para aprenderlos, detectar patrones de datos e interpretarlos”.

Esta explicación se puede ejemplificar con ChatGPT, la IA que se masificó en noviembre de 2022. Muchxs lo deben haber probado, pero pongamos un ejemplo: le pedimos a la aplicación “Contame en un párrafo no muy extenso una historia de amor entre Mafalda e Isidoro Cañones” y el relato generado en forma inmediata es “En un barrio lleno de personajes inolvidables se gestó una historia de amor que traspasó las viñetas. Mafalda, la niña sabia y reflexiva, e Isidoro Cañones, el audaz aventurero, encontraron en su singularidad un lazo inquebrantable. A pesar de sus diferencias, Mafalda e Isidoro descubrieron que compartían una complicidad especial y una forma única de ver el mundo. Entre sus diálogos ingeniosos y travesuras, floreció un amor inocente y genuino que llenaba de ternura las páginas del cómic. En medio de la cotidianidad y la fantasía, Mafalda e Isidoro demostraron que el amor puede surgir en los lugares más inesperados, uniéndolos en una conexión entrañable que dejó huella en el corazón de los lectores de todas las edades”.

Daniel de Florian (ICIFI-ECyT)

Hasta acá, el costado “simpático” de una herramienta sencilla que se masificó. Pero las herramientas IA desarrolladas por gigantes multinacionales como OpenIA, Google, Microsoft y Meta cumplen diversas funciones, como la resolución de problemas matemáticos complejos, la traducción y generación de textos y el reconocimiento y construcción de imágenes de alta definición, entre muchas otras habilidades. “Lo que va a pasar en pocos años es que vamos a estar nutridos de un montón de herramientas que van a colaborar y nos van a dejar más tiempo libre para pensar en conceptos, más que en cuestiones técnicas sobre cómo resolver algo”, opina Daniel de Florian, físico de partículas y director del Instituto de Ciencias Físicas (ICIFI) de la ECyT.

Si bien la predicción de De Florian puede resultar atractiva y beneficiosa, el físico reconoce los peligros de estas nuevas tecnologías. “Va a haber muchas profesiones que van a ver reducida su capacidad de trabajo”, dice y advierte: “Eso va a pasar en cinco o diez años y lo van a sufrir las personas que están ingresando a la universidad hoy. Entonces, me parece importante revisar las carreras que estamos enseñando porque puede pasar que alguien se reciba en ocho años y se encuentre con que su puesto de trabajo ya no existe. Hay que estudiar, y hacia ahí está yendo la UNSAM, si tiene sentido seguir formando estudiantes en esa dirección o con esas herramientas”.

Rodrigo Díaz coincide con esta premisa y señala que siempre que emerge una nueva tecnología entran en tensión algunas profesiones u oficios. “Pero en este caso lo diferente es la amplitud, porque ahora va a ocurrir en distintos ámbitos que no solían estar tocados por cambios tecnológicos y todo se desarrolla a una gran velocidad”.

Históricamente, el hombre crea tecnologías para hacer cosas que no puede hacer (como volar), cosas que no quiere hacer más o cosas que quiere que se hagan en forma más eficiente. “Lo peligroso es que estas tecnologías de IA hacen y reemplazan tareas que a nosotros nos gusta hacer”, dice Flavia Costa, investigadora de la Escuela IDAES de la UNSAM, de la UBA y directora de UNSAM Edita. La especialista en el estudio social de la tecnología define la inteligencia artificial como una “tecnología de alto riesgo” e introduce una nueva crítica: “El problema no es que esté mal la tecnología porque funcionan bien, pero ese reemplazo no es algo que desearíamos socialmente. La persona que dibuja disfruta dibujar y no quiere que lo reemplace una máquina. Ahí entra una cuestión ética: qué forma de vida queremos llevar”.

Rodrigo Díaz (ECyT)

El rol de los estados

A inicios del siglo XIX, durante la primera Revolución Industrial, el obrero británico Ned Ludd incendió varias máquinas textiles como respuesta a la represión sufrida por los proletarios que se organizaban en contra de las condiciones de trabajo en las fábricas. Su acción inauguró la base del movimiento ludista, de oposición al maquinismo y a toda forma de tecnología durante esa época.

¿Esa posición extrema antimaquínica es hoy una opción? Rodrigo Díaz dice que “la IA llegó para quedarse” y si bien reconoce que “no es posible detener estos avances”, afirma que “sí se los puede contener”.

¿Pero cómo contener estas nuevas tecnologías que avanzan a pasos agigantados? Flavia Costa señala que la respuesta está en el control estatal. “El desafío está en la política. Pero para que los estados puedan controlar estas tecnologías hacen falta grupos de científicos calificados que les digan cómo hacerlo y qué riesgos tienen”, dice Costa y enfatiza: “El marco internacional es muy favorable, porque estamos todos los científicos trabajando en esto. Es posible la regulación, pero hay que ponerla como prioridad”.

La cuestión de la reglamentación estatal está siendo debatida en todo el mundo. En Estados Unidos unas veinte agencias gubernamentales, incluyendo la NASA, ya se están ocupando del tema. Lo mismo ocurre en varios países europeos e incluso desde el Consejo de Comercio y Tecnología —organismo internacional que componen Estados Unidos y la Unión Europea— anticiparon la presentación del primer borrador de un “código de conducta” común sobre inteligencia artificial, según informó el diario Ámbito Financiero. Por su parte, la Organización para la Cooperación y el Desarrollo Económicos (OCDE) —organismo compuesto por 36 países— formalizó los Principios de la OCDE sobre IA que reglamenta el “primer conjunto de directrices de políticas intergubernamentales” adoptado por todos sus estados miembros con adhesión de la Argentina, Brasil, Colombia, Costa Rica, Perú y Rumanía.

Costa, que participa de múltiples debates sobre reglamentación internacional para América Latina, agrega que no alcanza solo con reglamentar, también propone llevar adelante como país y como región una política de desarrollo de nuestros propios conocimientos y nuestras propias tecnologías de IA más activa: “Tenemos potencial científico para hacer desarrollos sobre IA. Es necesaria una política a nivel de las universidades, el Estado y la industria para generar una política nacional de desarrollo”.

En sintonía, Daniel De Florian introduce una nueva preocupación en términos económicos: “Cada vez vamos a tener más ingresos, más plusvalía generada no por seres humanos, sino por sistemas. El problema es que toda esa ganancia que se genera va a quedar concentrada en pocas manos. Mi principal temor es que vayamos a un colapso del sistema de acumulación que conlleve a un estallido social en términos de lucha de clases”.

Flavia Costa (Escuela IDAES-UNSAM Edita)

¿Una nueva especie?

En marzo de 2023, un grupo de expertos en inteligencia artificial y reconocidos ejecutivos de la industria tecnológica publicaron una carta abierta en la que pidieron una pausa de seis meses en el entrenamiento de los sistemas de inteligencia artificial, argumentando que se trata de una potencial ‘amenaza para la humanidad’. La carta fue firmada, entre otros, por el CEO de SpaceX, Tesla y Twitter, Elon Musk; el cofundador de Apple, Steve Wozniak; el historiador Yuval Harari y el físico y biólogo molecular John Hopfield, inventor en 1982 de las redes neuronales asociativas.

Una de las principales preocupaciones de lxs expertxs es el advenimiento de la Inteligencia Artificial General (IAG), es decir, una nueva tecnología con un desempeño intelectual semejante al del ser humano y con la capacidad de afrontar distintas tareas sin necesidad de ser entrenada con antelación. El temor mayor sería el desarrollo de una Super Inteligencia Artificial más veloz y más “inteligente” que la humanidad en su conjunto con formas de pensar que aún no conocemos.

Costa considera que ya estamos ante una “nueva especie”. La investigadora cuenta que ya existen “individuos maquínicos” que hacen cosas que ninguna persona con su materialidad cerebral puede entender y advierte que sin regulación es posible que en un futuro estas máquinas piensen cosas que el ser humano no pueda entender nunca. “En los laboratorios informáticos hay que empezar a alinear los valores de las máquinas a los valores humanos. Mi opinión es que la supervivencia de nuestra especie, de otras especies y del ambiente son valores indispensables que se deben alinear”.

Díaz y de Florian, si bien advierten sobre la necesidad de estar atentos a los desarrollos de estas nuevas tecnologías, no creen que la IAG esté cerca de desarrollarse: “Yo tengo dudas de que vaya a existir en algún momento la inteligencia artificial general. Que una máquina pueda hacer todas las tareas, todas las funciones del ser humano es algo poco probable. No estamos cerca de eso”, coinciden.

Por su parte, Costa señala que, con cada advenimiento de una nueva tecnología, se genera un nuevo accidente. Por ejemplo, el accidente aéreo comenzó luego de la invención del avión. “Al tratarse de una metatecnología, la inteligencia artificial trae aparejados muchos nuevos accidentes. El cine ha sido un gran laboratorio para imaginar posibles escenarios. Creo que los que más ven esto son los artistas porque los artistas podrían imaginar qué va a pasar. Necesitamos artistas visionarios”, concluye.  

Nota actualizada el 17 de agosto de 2023

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *