“Miedo porque las máquinas simulan cerebro e inteligencia humanas”. “Se pierden empleos pero se crean otros”. “Hay que descubrir cuál es la verdad, no la mentira”. Algunos de sus conceptos.
En cada una de las exposiciones y entrevistas, Juan Gustavo Corvalán recuerda su infancia en Cutral Co y cómo nació allí su pasión por la tecnología. Habla de su mamá Graciela cuando comenzó a manejar Facebook y a su abuela Sarah, aquella brillante profesora de Filosofía y Letras. “De chico miraba la tele de cabeza. ¡En serio, no me olvido más! Mi vieja entraba a casa y me veía en el living haciendo la vertical. Yo podía pasar bastante tiempo en esa posición, y miraba los dibujitos así (…); con el tiempo, eso de que yo veía las cosas de otra forma, o las quería hacer distinto, fue una música que me acompañó siempre, hasta hoy”.
Nuestro lector Quique Frizán quedó maravillado con una entrevista que emitió ayer la radio de Buenos Aires FM 89.9 y nos impulsó a incorporarla a nuestros contenidos. Allí el neuquino entró de lleno en lo que es la IA y aseguró que el miedo actual responde a que las computadoras han copiado al cerebro y la inteligencia humana, pero estamos muchísimo más robotizados que el ser humano prehistórico.
En el diálogo con Mariana Arias, Corvalán trazó una analogía con los vehículos que utilizó y utiliza la población, comenzando con el carro y el caballo, pasando por los primeros vehículos manuales hasta llegar a la tecnología que tienen hoy con computadoras a bordo que se encargan de la mecánica, el manejo, entre muchas otras prestaciones. “Allí vemos una reducción de ciertas tareas humanas, que la tecnología desplaza y licúa tareas humanas y crea nuevas. La parte oscura es el desplazamiento. Japón es el país más robotizado y donde la IA más se ha desarrollado y sin embargo la tasa de desempleo no deja de bajar.”
Pero seguidamente aclara que esa adaptación a las nuevas formas que trae la IA “es un desafío de acuerdo con la franja etárea en que te encuentres”, pone al ser humano a desarrollar otras habilidades para adaptarse “al tsunami que se está viviendo” y convocó a adquirir cuanto antes esas habilidades para seguir el ritmo del desarrollo de la tecnología.
Allí recordó a su madre en Cutral Co cuando a principios de los años 2000 comenzó a usar Facebook y “no buscó ser una community manager” sino ir de a poco manejando esa herramienta tecnológica que hoy forma parte de nuestra vida cotidiana.
Corvalán recordó que “todas las tecnologías han hackeado en su momento a la humanidad” y agregó que hoy usamos “máquinas para todo” y estamos esencialmente robotizados “al lado de un humano de hace mil años, estamos superrobotizados. La IA es un paso evolutivo más”.
Descubrir la verdad, no la mentira
Una de las aplicaciones que más impacta en estas horas en cuanto al desarrollo de la IA es el formato de ChatGPT y la elaboración de contenidos artificiales tal como si fueran los realizados por una persona.
Esta herramienta, como otras que potencia la IA “ponen en crisis a la verdad y la mentira, a la realidad y la ficción”, en cuanto a esa elaboración de contenidos (de texto, audiovisuales, etc.) que simulan ser humanos.
Las nuevas realidades que puede mostrar el trabajo a través de la IA cambia los paradigmas (según indicó Corvalán) porque básicamente son exactamente iguales a los que puede realizar no sólo la humanidad sino una persona determinada.
Por ello, el especialista sostuvo que en el caso de la información o las tareas que se realizan a través de IA “ahora hay que detectar, hay que ver cuál es la verdad”, mientras que antes “teníamos que descubrir cuál era la mentira”.
Juan Gustavo Corvalán hizo toda su formación en escuelas públicas de la Argentina, actualmente dirige el Laboratorio de Innovación e Inteligencia Artificial (Ialab) de la Universidad Nacional de Buenos Aires (UBA). Es autor y coautor de ocho libros, cuatro vinculados a la inteligencia artificial; se desempeña como director académico del Posgrado en IA y Derecho de la Facultad de Derecho de la UBA y además tiene, entre otros ítems de su currículum ser Doctor en Ciencias Jurídicas y Máster en Inteligencia Artificial. Co-creador de Prometea, el primer sistema de inteligencia artificial predictivo en aplicación en la Justicia de Hispanoamérica. Co-creador de PretorIA, el sistema de inteligencia artificial predictivo en la Corte Constitucional de Colombia, ganador del premio a la mejor herramienta de Justicia 2020 en Colombia. Ponente ante Google Talks, la ONU, OEA, Universidad de Oxford, Instituto Tecnológico de Massachusetts (MIT), Consejo de Estado Francés, Agencia de Protección de Derechos Fundamentales de la Unión Europea, Universidad Paris Panthéon-Sorbonne, Universidad de Milano y diversas Cortes Judiciales nacionales e internacionales.
¿Paranoia o miedo justificado?
Si bien en internet se encuentran muchas exposiciones y entrevistas de Corvalán, realizadas en el país y en el exterior, vamos a compartir parte de un diálogo que tuvo con el periódico tucumano La Gaceta, titulado “IA: ¿Paranoia o miedo justificado?”, realizada por el periodista Nicolás Sánchez Picón y publicada el pasado 12 Abril.
– ¿Por qué la inteligencia artificial está hoy en el ojo de la tormenta?
– El tema del apocalipsis y la IA ahora es una fiebre, pero no es un nuevo; diría que incluso hace ya 10 años se habla de esto. Se debe a tres cuestiones. En primer lugar, es la única tecnología que apunta a lo cognitivo. Como eso es la esencia de nuestros trabajos, preocupa: si una máquina puede hacer lo mismo que nuestro cerebro, es obvio que va a ponernos en riesgo. Siempre las tecnologías reemplazan trabajos, pero esta en particular representa una gran amenaza para los trabajadores. La segunda cuestión es que hoy la IA está presente en todo; no es sólo el chat GPT. Todo lo que tenés en tu celular, en tu computadora y en internet es IA. Hace cinco años no era así. Estamos lidiando, trabajando e interactuando con ella en todo. Y eso nos lleva al tercer punto: al estar en todos lados, tiene la ventaja de que se puede volver eficiente casi en cualquier tarea. Ese es el lado luminoso, un potencial beneficio para los países y las empresas que están invirtiendo en ella. Pero también tiene un lado oscuro, que viene en capas.
– Eso es lo que tanto preocupa de la IA. ¿Cuál es ese lado oscuro?
Lo resumo en dos grandes capas de desafíos, riesgos o daños: una es la que ya está. No hay que pensar en “Terminator” ni en la carta abierta. Hoy la IA genera un montón de daños a las personas, vinculados a fake news, a sobreinformación, a bots que reproducen discursos de odio, a vulneraciones salvajes a la privacidad y a los derechos… Se utiliza para ciberataques, para hackear, para pishing y para todo lo que te imagines. La tecnología con su lado oscuro se volvió omnipresente. Así como está en todos lados para hacernos un bien, lo está para hacernos un mal; este es el desafío que tenemos que enfrentar. Hay otra capa aún más sofisticada, más filosófica, que se está acelerando. Antes se decía que iba a pasar en 100 años, y ahora se piensa que pronto sucederá: que las máquinas, que todavía no lo hacen, logren reproducir y aumentar la capacidad de un cerebro humano. En ese escenario, la IA podría generarse a sí misma y no depender de un humano que la entrene. Y no estamos tan lejos de eso; de ahí viene el planteo de los expertos: si esta IA que tenemos, que no es humana y no piensa como uno, puede simular cosas y hacerlas mejor, imaginate todo lo que nos podría traer otra superior, e imaginate hasta qué punto se nos podría ir de las manos, si esta ya se nos fue…
– Sobre esto, un grupo de expertos dijo, en otra carta al New York Times, que es probable que algún día la IA pueda controlarnos y hacernos hacer cosas en contra nuestra.
–Hagamos una analogía con un auto. Es como que yo te diga “mirá, me robaron el auto”, “si vas a 200 km/h en el auto vas a matar a alguien” o “si lo tirás al río, contamina”. Si empezamos a hablar del auto, empezamos a ver que está lleno de problemas. Lo que pasa es que se mete todo junto: desde alguien a quien se le pinchó una rueda, hasta alguien que fabrica autos. Es imposible razonar este fenómeno (de la IA) porque se mezcla el caso de una persona que se suicida, con 2.000 expertos que dicen que vamos a vivir Terminator y con otros que dicen que la IA nos va a reemplazar. Y todo esto representa un problema para la comunidad, porque se mezcla todo y no se analiza el fenómeno desde los diferentes escenarios.
– Pero el planteo no es tan irreal. Hace unos días se viralizó la noticia de que un hombre en Bélgica se suicidó después de hablar con el chat GPT sobre el cambio climático…
– Ese es un problema que ya existe. Podés verlo en un video de YouTube o en un streamer que podría incitar al suicidio. Lo que hace la IA es tomar la mayoría de la información existente, en este caso fue vinculada al cambio climático, y reproducirla, pero no puede hacer una valoración de si te vas a poner mal o no con eso. Con esto quiero decir que la IA no introduce algo novedoso, porque internet ya está lleno de este tipo de riesgos… La IA no tiene la culpa.
– Volviendo a estos escenarios apocalípticos que se proponen. ¿El peligro de las IA está en que, de aprender, podrían tomar decisiones por nosotros? Así como sucede en la serie “The 100”, en la que una IA decide acabar con la humanidad.
– Esto tiene que ver con el tema filosófico y más existencial, y es difícil tener una respuesta. Cuando estas tecnologías empiezan a crecer y te llevan a lugares insospechados, uno hace un análisis de lo que vio hasta ahora, en función de lo que conozco y de los proyectos en los que he participado. La IA no tiene valores subyacentes: vos, a la hora de juzgar cosas, no sólo tenés en juego la información pura y dura, sino tu valoración, tu contexto, tu historia, tus capacidades… Los humanos somos emocionales; no agarramos información de Wikipedia y la procesamos. Cuando yo hago un juicio de valor, en mí confluyen un montón de aspectos que son emocionales. Entonces, si una máquina tiene que decidir qué hacer con la humanidad, es obvio que no va a opinar como una persona, ni va a analizar muchas variables. Mientras la IA no tenga esa capacidad, ¿cómo vamos a dejar a la IA tomar esa clase de decisiones? Por eso es que cuando se dice que la IA es un CEO yo digo que es un oxímoron, un contrasentido. Es como si dejara a una calculadora tomar decisiones en mi vida. La IA busca lo perfecto; nosotros no somos perfectos y no podemos serlo. Por eso no tendría sentido poner a la IA a decidir cosas importantes para la humanidad. No nos va a entender.
– Entonces, ¿puede ser que se estén magnificando los miedos y sean infundados? ¿O tenemos razones para preocuparnos así por la IA?
– Hay razones concretas y fundadas para tener la suficiente preocupación, no temor; para tratar de ocuparnos lo antes posible de pensar qué queremos hacer con una tecnología tan completa. Y ese es un debate que hay que dar urgente, y es un debate que tienen que llevar adelante los humanos; debe juzgarse entre personas. Me parece que estas máquinas, al venir con un discurso de eficiencia y de mejora, vienen a decirnos que en ciertos temas ellas lo van a hacer mejor que nosotros. La IA nos vende eficiencia, objetividad, rapidez… pero no pueden ser esas las únicas variables. Hay un montón de decisiones que tienen que ver con valores, con principios, y eso lo va a tener que elegir el humano.
– Siempre hablamos de los riesgos y de lo negativo, pero ¿qué beneficios tiene la IA en el mundo?
– Son casi infinitos los beneficios, en cualquier rubro humano. Lo que pasa con la IA es paradojal, algo similar a lo que pasó con la electricidad. Da muchísimo miedo, pero a su vez es tan beneficiosa que no la podés dejar; la tenés que usar. Sirve para la salud, para la educación, para atrapar delincuentes… La IA es genial como beneficio, pero tenemos que saber que así como tiene geniales beneficios, los perjuicios son iguales. Y como los beneficios son ultraimportantes, los perjuicios se espejan.
Límites de la IA: ¿Es cierto que no sabemos hasta dónde puede llegar esta tecnología?
Esta es la pregunta del millón. Mucha de la polémica alrededor de la Inteligencia Artificial tiene que ver con el desconocimiento que la humanidad tiene sobre los posibles usos y peligros de esta tecnología. ¿Pero es cierto que no tenemos idea de qué puede hacer la IA? El especialista Juan Gustavo Corvalán le responde a LA GACETA: “decir que no conocemos los límites de la IA es falso. Hay sólo un cierto tipo, con cierta envergadura de la que no se conocen los límites. Y ese es un problema sistémico; es puntualmente el límite del aprendizaje profundo, que es un subtipo de IA que si se le aplica una cierta tecnología de aprendizaje no supervisado podría generar algo que se nos vaya de las manos. Es algo muy específico, pero de casi todo el resto sí tenemos conocimiento”.
Regulaciones: ¿Hacen falta medidas para controlar el desarrollo y uso de la IA?
“La respuesta es sí”, dice Juan Gustavo Corvalán. “Pero no toda ni cualquier regulación. Es una tecnología muy difícil de regular; y esto es una conclusión, no una opinión”, indica. Según comenta el experto, la regulación más profusa que existe, y que no está vigente todavía, es del Parlamento Europeo, “que propone regular la IA dividiéndola en cuatro grupos: la prohibida, la de alto riesgo, la de riesgo moderado y la de bajo riesgo. Ese es el cuerpo normativo que están analizando muchos países, a excepción de Estados Unidos e Inglaterra, que proponen una regulación más específica”. En nuestro subcontinente, la cuestión es diferente: “sí, existen ciertos marcos normativos, pero no están vigentes en nuestra región. Hay proyectos de ley, por ejemplo en la Argentina, para reformar la ley de datos, también… pero hay una discusión: ¿cómo vas a regular una tecnología que en meses cambia? El desafío es ver qué principios podés aplicar y fijarte qué tipo de IA y en qué actividad. No podés hacer la misma regulación para un algoritmo que podría dictar una sentencia en un juicio y para uno que podría recomendarte una cartera. Es como querer regular por igual a aviones y a bicicletas. Eso es utópico y contraintuitivo”.