饾棢饾棶 饾棻饾椂饾棾饾椂́饾棸饾椂饾椆 饾棸饾椉饾椈饾槂饾椂饾槂饾棽饾椈饾棸饾椂饾棶 饾棸饾椉饾椈 饾椆饾棶 饾椂饾椈饾榿饾棽饾椆饾椂饾棿饾棽饾椈饾棸饾椂饾棶 饾棶饾椏饾榿饾椂饾棾饾椂饾棸饾椂饾棶饾椆
por Juan Carlos del R铆o
La IA no es un fen贸meno nuevo. La humanidad, desde sus inicios, ha intentado crear m谩quinas y aut贸matas, bien para ponerlas a nuestro servicio, o para extender nuestras capacidades humanas. Muchas de estas historias reflejan la admiraci贸n por estas creaciones y, al mismo tiempo, el temor a la p茅rdida de control de las tecnolog铆as avanzadas. Podr铆amos recordar algunos mitos griegos, como la creaci贸n de Talos, el gigante de bronce muerto por Medea, o la estatua en marfil de Galatea a la que Pigmali贸n dio vida.
En la Edad Media hay otras leyendas acerca de la creaci贸n de seres con vida, como el enigm谩tico Baphomet de los templarios o los hom煤nculos de Paracelso. Agreguemos las tradiciones jud铆as sobre la creaci贸n de un ser de barro llamado G贸lem, que era animado por medio de un ritual m谩gico. En la 茅poca moderna tenemos la monstruosa creaci贸n del doctor V铆ctor Frankestein, en la novela de Mary Shelley, o el ni帽o de madera Pinocho, creado por el carpintero Gepetto en la novela de Carlo Collodi. En ambos casos, se hace una llamada a la responsabilidad de la ciencia y de la acci贸n humana, para mantenerse dentro de en unas pautas 茅ticas, que veremos que es un elemento fundamental.
Tambi茅n se crearon otros aut贸matas, que es la palabra que utilizaban los griegos, artificios o ingenios que funcionaban como el mecanismo de un reloj, aparentando un comportamiento aut贸nomo o inteligente. En el siglo XX surgen los primeros «robots», utilizando un t茅rmino proveniente del checo que indica un trabajo forzado. Curiosamente, Arist贸teles defend铆a en la Pol铆tica[1] la fabricaci贸n de aut贸matas para la realizaci贸n de tareas mec谩nicas, pues pod铆a traer la abolici贸n de la esclavitud por hacerla innecesaria.
La IA se empez贸 a crear en los a帽os 1950. En su progreso paulatino siempre se trat贸 de imitar la inteligencia humana: primero, algoritmos o instrucciones l贸gicas para llegar a un objetivo; luego, sistemas expertos, basados en conocimientos aceptados como correctos; sistemas de aprendizaje autom谩tico, para no depender de una colecci贸n limitada de conocimientos; redes neuronales para tratar con datos complejos y relaciones no lineales; visi贸n artificial para el reconocimiento de patrones y as铆 emular nuestro contacto con el entorno; y, por fin, el procesamiento del lenguaje natural que permite interactuar con los seres humanos. Todav铆a no est谩 muy perfeccionada, pero el r谩pido avance que est谩 teniendo esta tecnolog铆a no deja de sorprendernos. Ya se pueden generar voces, fotos e incluso v铆deos que simulan la apariencia humana. Con ellos es posible que en un futuro cercano perdamos nuestra capacidad de distinguir los hechos de la ficci贸n creada por la IA, sin forma de poder dilucidarlo.
Algunas de las creaciones que mencionamos nos han causado temor, porque pueden ser m谩s poderosas que nosotros, nos pueden reemplazar, se pueden utilizar para dominar el mundo, o se parecen tanto a nosotros que nos dan miedo. Todas estas desviaciones pueden provocar un problema de convivencia con las m谩quinas.
Cuestiones 茅ticas
Cuestiones 茅ticas

Adem谩s, se nos plantean una serie de problemas 茅ticos relacionados con la IA, como por ejemplo:
- La discriminaci贸n algor铆tmica, provocada porque los sistemas de IA pueden haber sido entrenados con datos que incluyen prejuicios culturales y sociales. Esto puede conducir a la discriminaci贸n e injusticia en 谩reas como el empleo, la vivienda y los pr茅stamos. Hay muchos casos documentados de ello[2].
- La falta de transparencia en los algoritmos, de forma que podamos entender c贸mo se toman las decisiones y en qu茅 se basan, para que se pueda auditar su uso. Muchos algoritmos de IA son opacos y dif铆ciles de entender, lo cual es especialmente problem谩tico en 谩reas como la atenci贸n m茅dica, donde las decisiones de la IA pueden afectar la salud y el bienestar de las personas.
- ¿Qui茅n es responsable cuando un algoritmo de IA toma una decisi贸n err贸nea? ¿Es el programador, la empresa que lo implement贸 o el algoritmo mismo? Si entendemos por «hacerse responsable» el tener un elevado criterio del deber o del compromiso con las normas establecidas y asumir las consecuencias positivas o negativas de nuestros actos, vemos que hay un nexo entre responsabilidad y conciencia, por lo que de nuevo se nos plantea un problema con las acciones de la IA.
- ¿Es admisible que haya armas aut贸nomas, por ejemplo drones, que realicen operaciones policiales o militares? Esto podr铆a llevar a la escalada de conflictos y a la p茅rdida de control humano sobre el uso de la fuerza militar. El relato fant谩stico de la saga de Terminator se vuelve realidad si hay una «Skynet» capaz de controlar el arsenal militar de los Estados Unidos con independencia de los humanos.
- Debemos asegurar que los seres humanos mantienen el control y la responsabilidad de las decisiones que afectan a su bienestar o su vida en 谩reas cr铆ticas como la medicina, la justicia social, la seguridad nacional, la defensa, etc. No es aconsejable dejar el control absoluto de sus acciones a la IA.
La IA se est谩 adentrando en un terreno en el que nos cre铆amos insuperables. Nos consider谩bamos los 煤nicos animales racionales. En muchas culturas y tradiciones se destac贸 la importancia de lo mental para identificarnos como humanos. Pero las capacidades humanas han sido progresivamente emuladas y superadas por las m谩quinas. Ya no es solo la fuerza o las capacidades f铆sicas. Primero fue el c谩lculo matem谩tico, y no nos sorprende que cualquier peque帽a calculadora (o nuestro tel茅fono m贸vil) sea m谩s r谩pida que nosotros en una divisi贸n de diez cifras. Luego, la memoria: ahora un peque帽o chip puede almacenar m谩s libros que la c茅lebre Biblioteca de Alejandr铆a. El reconocimiento de patrones, que permite r谩pidamente a la IA registrar parecidos y diferencias para, por ejemplo, una mejor orientaci贸n espacial manejando un mapa. Y recientemente el avance se ha producido en el procesamiento del lenguaje natural, pudiendo traducir, resumir o redactar textos de forma superior a como lo hacen los humanos. Adem谩s, estamos descubriendo la potencia de la IA en la creaci贸n de im谩genes y sus capacidades art铆sticas, pues aprenden de estilos musicales o literarios previos y pueden componer m煤sica o escribir poes铆a de forma «creativa». Algunas tareas que identific谩bamos como creativas se pueden generar con IA, mediante la combinaci贸n de elementos que participaron en su aprendizaje, como hacemos nosotros mismos.
Inteligencia humana
Los cr铆ticos con la IA dicen que su uso nos impide desarrollar algunas capacidades mentales humanas, como la lectura, la reflexi贸n, la memoria, la escritura, etc. Debemos admitir que la mente es un elemento fundamental en el desarrollo del ser humano. En las tradiciones esot茅ricas se sugiere que la «chispa divina» o chispa mental es esencial en la naturaleza humana, y que la tarea del ser humano es descubrir y cultivar este talento mediante la pr谩ctica espiritual y la b煤squeda de la verdad. Si perdemos nuestras aptitudes mentales, podr铆amos ser «menos humanos». Pero las m谩quinas no tienen esos conceptos de la finalidad o de la trascendencia.
Nos cre铆amos los 煤nicos seres inteligentes, pues aunque podamos decir que los animales tienen en ocasiones un comportamiento inteligente, no son conscientes de ello. Ah铆 es donde radica la diferencia. Las m谩quinas con IA, aunque sean tan inteligentes o m谩s que nosotros, no son conscientes de su propio funcionamiento, ni son capaces de tomar decisiones independientes. Son herramientas que pueden ser utilizadas por los seres humanos para lograr objetivos espec铆ficos, pero no tienen una comprensi贸n de s铆 mismas o del mundo que las rodea. La IA no es algo que pueda reemplazar a los humanos, sino que es una mera extensi贸n de nosotros mismos. Es un conjunto de recursos de programaci贸n muy avanzados, pero no se parece al conocimiento humano. El ser humano no es una computadora.
Quienes se asombran de las capacidades inteligentes de la IA es porque solo ponen el foco en la abstracci贸n y el razonamiento, en detrimento de otros aspectos humanos. Nos estar铆amos olvidando de la inteligencia emocional o de la inteligencia social. En este sentido, se podr铆a afirmar que las m谩quinas no son inteligentes, si entendemos por inteligencia la capacidad de elegir entre diferentes opciones o situaciones, comprenderlas y realizar una s铆ntesis para valorar cu谩l es la m谩s conveniente para tomar la decisi贸n adecuada. Los seres humanos tenemos creatividad, imaginaci贸n, empat铆a, pensamiento cr铆tico, curiosidad y pasi贸n, elementos que no posee la IA.
La IA est谩 dise帽ada para procesar informaci贸n a trav茅s de un conjunto de instrucciones l贸gicas y matem谩ticas. Los sistemas con IA solo pueden operar seg煤n su programaci贸n, pues son deterministas y no pueden tomar decisiones aut贸nomas o creativas m谩s all谩 de lo programado. Los seres humanos aprendemos a trav茅s de experiencias subjetivas y la exploraci贸n del mundo, pero la IA solo utiliza patrones matem谩ticos y estad铆sticos. Adem谩s, las m谩quinas no tienen intenciones ni prop贸sitos; solo pueden operar en funci贸n de las instrucciones que se les han dado. No tienen objetivos o deseos como los seres humanos.

El mal uso de la IA en la sociedad puede conducir a efectos indeseados. Recordemos el caso de Cambridge Analytics y Facebook, para influir en varias elecciones y referendos pol铆ticos. Adem谩s, no podemos obviar que algunos buscadores de Internet con IA se han convertido en una «m谩quina de la verdad»[3]. Hemos de mencionar tambi茅n la implantaci贸n, en la Rep煤blica Popular China, de un sistema universal de puntos (el llamado «Sistema de Cr茅dito Social»). Con este sistema de IA se eval煤a y controla el comportamiento de los ciudadanos y las empresas en varios aspectos de la vida cotidiana, como las finanzas, la educaci贸n, la seguridad, la salud y la moralidad. El sistema otorga puntos a los ciudadanos y empresas en funci贸n de su comportamiento, y estos puntos pueden ser utilizados para obtener beneficios, como el acceso a servicios p煤blicos, pr茅stamos, empleo y viajes.
Y sin embargo, pese a todos nuestros recelos, tenemos que admitir que su objetividad, capacidad de c谩lculo, de tener en cuenta innumerables factores en la toma de decisiones, etc., podr铆a ser de gran ayuda para la organizaci贸n de nuestra sociedad. Porque estas IA, si son m谩s inteligentes, m谩s racionales, con menos fallos, sin subjetivismos, sin prejuicios, podr铆an ser m谩s justas que nosotros e incluso gobernar o ayudar a gobernar nuestra sociedad. Y podr铆an conducir nuestros veh铆culos con menos accidentes que nosotros.
Adem谩s, por su capacidad de estar siempre dispuestas y poder comunicarse con nosotros, quiz谩s podr铆an ser nuestros acompa帽antes, o al menos el de los cientos de millones de ancianos que viven en soledad en este mundo tan deshumanizado. Esto ya est谩 ocurriendo en Jap贸n, por ejemplo. Curiosamente, la excesiva tecnificaci贸n de la sociedad nos ha convertido en seres m谩s aislados, m谩s solitarios y, sin embargo, el remedio podr铆a ser precisamente implementar m谩s tecnolog铆a.
La conclusi贸n es que necesitamos una «IA amigable[4]» en la que se tengan en cuenta las consecuencias a largo plazo de las acciones y decisiones de la IA. El objetivo ser铆a crear sistemas no solo eficientes, sino tambi茅n seguros y beneficiosos para la sociedad. Para ello, deben estar dise帽ados con valores 茅ticos y ser capaces de aprender y adaptarse a medida que se utilizan. Y adem谩s, es preciso instar a los Gobiernos a colaborar con la comunidad cient铆fica en una legislaci贸n que proteja los derechos individuales y establezca l铆mites penales sobre el mal uso de la IA. Esto requerir谩 que las empresas se sienten con instituciones y Gobiernos, psic贸logos, fil贸sofos y organizaciones de derechos humanos para garantizar que se hayan considerado todos los aspectos de esta tecnolog铆a.
[1] «Si cada instrumento pudiera realizar su propio trabajo, obedeciendo o anticip谩ndose a la voluntad de otros, como las estatuas de D茅dalo (…), si, de igual manera, el aparato tejiera y el plectro tocara la lira sin una mano que los gu铆e, los jefes de los obreros no querr铆an siervos, ni los amos esclavos». Pol铆tica, cap. II «De la esclavitud».
[2] En libros con t铆tulos tan expl铆citos como Armas de destrucci贸n matem谩tica. C贸mo el Big Data aumenta la desigualdad y amenaza la democracia, de Cathy O’Neil, Algoritmos de opresi贸n. C贸mo los motores de b煤squeda refuerzan el racismo, de Safiya Umoja Noble, o Datos vs democracia. C贸mo los algoritmos del Big Data modelan nuestras opiniones y alteran el curso de la historia, de Kris Shaffer.
[3] Otros libros interesantes son Google y el mito del conocimiento universal, de Jean-No毛l Jeanneney, o Googleados: el fin del mundo tal como lo conoc铆amos, de Ken Auletta.
[4] Utilizamos el t茅rmino acu帽ado por Eliezer Yudkowsky. Podemos leerlo en https://www.kurzweilai.net/what-is-friendly-ai.


Comentarios
Publicar un comentario