Cerrar

UN ALGORITMO PARA DOMINARNOS A TODOS

León ante la encrucijada de la Inteligencia artificial

Cuando Friedrich Nietzsche proclamó la muerte de Dios no sabía que un siglo después sería el superhombre el que estaría a punto de desaparecer a manos de una nueva divinidad que nos sometería sin darnos la oportunidad de disentir. De la misma manera que Alicia se metió en la madriguera del conejo, la humanidad ha comenzado a perseguir un demiurgo que promete un cambio de era de dimensiones desconocidas. Los expertos alertan de que la nueva realidad se está gestando sin que la ética guíe su aprendizaje y con sesgos morales cuyo alcance plantea interrogantes inquietantes.

Imagen del último congreso en BCN del MWC. ANDREU DALMAU

León

Creado:

Actualizado:

El desarrollo de ChatGPT ha desencadenado las alarmas en numerosos intelectuales de todo el mundo y ha llevado a personalidades como Elon Musk a pedir una moratoria de seis meses para analizar el alcance y consecuencias que puede llegar a generar.

Como ocurrió con la caja de Pandora, el mundo aún desconoce las consecuencias de abrir este oráculo, que promete cambiar la vida tal y como la hemos conocido hasta ahora. Uno de los expertos, el leonés Jorge Louzao, destaca que una ciudad como León puede obtener innumerables ventajas si se convierte en Ciudad Inteligente. «Empleando tecnologías ya conocidas como las redes de datos, el big data y la Internet de la Cosas (IoT) se puede convertir en un ente vivo que evolucione cada minuto para adaptarse a la situación y necesidades del momento», explica este ingeniero, especialista en ciberseguridad.

Entre las ventajas, subraya la regulación del tráfico de manera eficiente y la gestión del transporte público para adecuarlo a las necesidades de los ciudadanos. El ingeniero explica que ya se han creado proyectos —Spine es uno de ellos— que logran simular y mejorar el transporte público e incluso regulan el tráfico de una ciudad en función de las condiciones meteorológicas y de contaminación. «El mantenimiento de la ciudad se convertirá en algo predecible con un gran margen de acierto, así como las necesidades energéticas y de otros suministros que la urbe necesitará a corto y medio plazo», explica Jorge Louzao. 

Entre las consecuencias más inquietantes de la Inteligencia Artificial está la seguridad. El software podrá gestionar y procesar cientos de cámaras repartidas por la ciudad, controlar mediante biometría la identificación de sospechosos y detectar situaciones de riesgo para enviar efectivos. Esta capacidad tiene su cara, pero también su cruz en la pérdida de libertad. 

El berciano Jorge Louzao es experto en ciberseguridad. BENITO ORDÓÑEZ

Enfatiza Jorge Louzao, que se confiesa defensor de la Inteligencia Artificial, la necesidad de establecer un marco regulatorio lo antes posible. «Debe centrarse en la transparencia, la rendición de cuentas y la prevención de explotación laboral», advierte. No es baladí por cuanto que una de las consecuencias de la IA es la amplificación del sesgo existente. El aprendizaje automático carece de conciencia y es un reflejo de prejuicios de sus desarrolladores e instructores. Es decir, la ‘educación’ en valores y emocional será obra de quienes se encarguen de ‘alimentar’ esta nueva conciencia si bien desconocemos aún si tendrá la capacidad de libre albedrío tras su ‘adolescencia’.

El aprendizaje automático carece de conciencia y es un reflejo de prejuicios de sus desarrolladores e instructores

Jorge Louzao también alerta del riesgo que todos podemos correr por las decisiones que tome la IA para temas como la mejora el tráfico o la disminución de la contaminación en una población la ciudad pero que no tienen porqué resultar las más óptimas para los humanos que la habitan.

«¿Quién será el responsable si un vehículo autónomo controlado por la IA atropella a una persona o se empotra en una vivienda?», se pregunta. Asimismo, subraya la importancia de mantener la privacidad y los límites que habría que imponer de manera inmediata puesto que los sistemas de la IA sabrán en todo momento dónde estamos o qué compramos con el fin de hacer un análisis de riesgos.

Además, los experimentos actuales sobre biometría para detectar sospechosos no están dando muy buenos resultados. Louzao. «¿Qué ocurrirá si una IA con sus sesgos se encarga de dar créditos?», dice el ingeniero. De hecho, ya se usan  algoritmos para aspectos tan delicados como la salud, y los resultados son ciertamente inquietantes.

El ciberexperto pone como ejemplo un estudio desarrollado en Estados Unidos — Ziad Obermeyer, Brian Powers, Christine Vogeli y Sendhil Mullainathan— y publicado por la revista Science que demostró que el algoritmo sanitario perjudica a los pacientes negros. Según la investigación, el algoritmo más utilizado por la industria de la salud en Estados Unidos consideraba a los pacientes negros más enfermos que los blancos. El sesgo racial surge porque el algoritmo predice los costos de la atención médica en lugar de la enfermedad, cuando la realidad es que la sanidad norteamericana gasta menos dinero en el cuidado de los pacientes negros que en el de los pacientes blancos. «Como estas hay cientos de preguntas por hacerse, pero lo más importante es que la carta firmada por Musk, Tim Cook y demás sobre los problemas que nos puede traer la IA en el futuro se olvida de los problemas que hay en el presente», lamenta Jorge Louzao, que cifra entre ellas la explotación laboral y el robo masivo de datos para el beneficio de unas pocas empresas.

«La IA podrá gestionar y procesar cientos de cámaras en león, controlar la identificación de sospechosos y detectar situaciones de riesgo»

Otra de las críticas en las que insiste Louzao es que la IA tiene poco de artificial por cuanto que se nutre de creaciones humanas, creaciones que han sido utilizadas sin el permiso de sus autores, bordeando la apropiación intelectual y sin contar, además, que la ayuda humana que vigilia el aprendizaje de la IA usa fuerza laboral de países en los que la mano de obra es muy barata.

Asimismo, precisa que herramientas como CoPilot que ayudan a desarrolladores a mejorar sus aplicaciones se han alimentado de software de código abierto para luego venderlas a través de algoritmos y alerta de que la  creación periodística está amenazada por una IA cada vez más capaz de crear contenidos e imágenes falsas casi indetectables, algo que pone en peligro la misma democracia.

Para el experto leonés no hay que perder de vista además que cada salto tecnológico deja atrás a mucha gente que, por diversos motivos, no tiene la capacidad de adaptarse. La desigualdad irá a más, lo mismo que la huella de carbono. «Solo para ChatGPT hay cálculos que hablan de un consumo mensual por encima de los 4.000.000 kWh», revela.

Además, las IA son sistemas muy complejos que a veces hacen cosas que sus creadores no esperan. «Una IA controlando una ciudad sin una buena política de seguridad es una invitación al desastre. Aunque es muy posible que a pesar de tomar medidas, siga siendo un desastre, y un objetivo muy goloso para delincuentes», advierte, y añade con ironía que una inteligencia sin conciencia ni sentimientos no puede denominarse como tal.

«La desigualdad irá a más porque cada salto tecnológico deja atrás a mucha gente. Ya hay estudios que buscan cómo adaptar de forma responsable la fiscalidad a la nueva tecnología»

 

Imagen del ingeniero leonés Pablo Pérez Robla. FERNANDO OTERO PERANDONES

El ingeniero leonés Pablo Pérez Robla, creador de cuatro starups tecnológicas,  es uno de los expertos que más años lleva utilizando la Inteligencia Artificial.

En su opinión, la IA ya está transformando la economía, el modelo económico y los sistemas productivos actuales. «La AI va a transformar la economía con la misma intensidad que lo hicieron avances como la rueda, el avión o internet con una pequeña particularidad, que va a hacerlo mucho más rápido». Y es que, según asegura, los medios que utiliza —datos digitales, microprocesadores, la nube, comunicaciones inalámbricas, ancho de banda, capacidades computacionales, sistema de almacenamiento, componentes electrónicos, memorias, etc— así lo demuestran.

Pérez Robla deja claro además que esto significa que en cuestión de años esta transformación llegará a todas las personas, empresas y sectores sin excepción. «Y como humanos que somos nos adaptaremos a ellas y el que no se adapte...», advierte.

El empresario insiste en la necesidad de entender que, para poder diseñar, desarrollar, mejorar y mantener la IA son imprescindibles creatividad, trabajo en equipo, comunicación, persuasión, capacidad de adaptación, cortesía, flexibilidad, integridad, positivismo y ética, habilidades humanas que, según los expertos, nunca podrán ser automatizadas por ningún tipo de IA.

«Ya hay estudios que buscan cómo adaptar de forma responsable la fiscalidad a la nueva tecnología»

«La IA plantea desafíos éticos, sociales, legales y fiscales significativos; desafíos que deben ser abordados de manera responsable», advierte al tiempo que recuerda, por ejemplo, que esta transformación requiere de una vuelta de tuerca a la fiscalidad según la conocemos. «Será imprescindible que ésta se adapte a las personas, las empresas y las administraciones públicas. «Estoy seguro de que ya hay expertos estudiando las implicaciones y pensando cómo adaptar de forma responsable la fiscalidad actual a esta transformación y de qué manera grabar los nuevos sistemas inteligentes que están apareciendo y que sustituirán a personas que en la actualidad están realizado esas tareas», subraya.

Manifiesta Pablo Pérez Robla que, además, la IA afectará al sistema actual de pensiones. En su opinión, la transformación que generará afectará a la jubilación por lo que será necesario  adaptarlo de manera responsable, ecuánime, igualitaria y garantista.

El ingeniero considera que la IA ayudará al sector bancario a automatizar y agilizar tareas que se han venido realizado con mucha manualidad, extremo que ayudará a responder de manera mas eficiente y eficaz a las peticiones de los clientes, con lo que mejorará la calidad del servicio. «Los bancos, como han hecho siempre, necesitan garantizar la devolución del préstamo, minimizando así la probabilidad de impago. Y para esto la IA les ayudará muchísimo porque es capaz de procesar y analizar inmensas cantidades de datos desestructurados y descubrir perfiles, alertas, patrones y tendencias a velocidades de milisegundos que permiten tomar decisiones acertadas de manera muy ágil y precisa minimizando los errores».

«Actuar y pensar como ser humano son predicados muy oscuros y discutidos»

 

Francisco Salto Alemany (al fondo) es profesor de Filosofía en la Universidad de León. RAMIRO

Francisco Salto Alemany, profesor de Filosofía de la Universidad de León, recuerda que la inteligencia artificial es fundamentalmente un sistema probabilístico de aprendizaje y destaca que el sistema aprende a medida que va acumulando datos y éstos van determinando las probabilidades que el sistema asigna. «En función de la probabilidad condicional que el sistema asigne a estados más o menos convenientes, el sistema toma unas u otras decisiones».

Salto Alemany subraya además que el sistema no está predeterminado, sino que depende en cada momento de las probabilidades que calcule. Así, al ir creciendo su información, va tomando decisiones cada vez más sensibles en el sentido de más dependientes de distintas probabilidades. El profesor pone como ejemplo los bots de charla, que responden desde un punto de vista probabilístico a partir de una inmensa base de datos, mayor que el léxico humano almacenado naturalmente en la memoria individual de un cerebro. 

No obstante, hace hincapié en que hay sistemas que evolucionan libremente en función de las probabilidades que encuentran y otros que se someten a distintos tipos de reglas y de datos de partida. «Imagina que tienes dos números seguidos en tu DNI. Eso puede ser un dato irrelevante o mero ruido, pero el sistema va a considerar esa variable como cualquier otra, de modo que hay una inmensa cantidad de variables desconocidas  para nosotros, que el sistema puede tener en cuenta. A veces son elementos que no conocíamos y a veces son simplemente ruido. El sistema puede descubrir que tener dos números seguidos correlaciona con alguna otra variable, como el tiempo que pasas con tu madre o la cantidad de energía que consumes. Muchas de estas relaciones pueden llegar a ser descubrimientos valiosos», dice.

El filósofo inquiere acerca de cómo descubrir cuándo una variable importa o es relevante y considera que  meter sentido común en un sistema cognitivo es una tarea aún pendiente en la inteligencia artificial.

 «Actuar y pensar como lo haría un ser humano es muy impreciso. Tanto actuar, como pensar como ser humano son predicados muy oscuros y discutidos. De hecho, que los humanos tengamos y en qué sentido intenciones o intereses que determinan el actuar e ideas o pensamientos y deseos que determinan el pensar está muy lejos de ser obvio o claro», explica.

 De hecho, Francisco Salto Alemany defiende que no hay un modo único de ser humano, sino sólo de ser humano bajo un criterio de normalidad y evidencia que no es lo mismo si la misma persona está enferma, es anciano, recién nacido, loco, prisionero, ministro, cayendo... «Si asumimos tal criterio de normalidad para nosotros, también podemos asumirlo para las máquinas», manifiesta y alude al hecho de que los criterios de normalidad no se descubren, sino que se imponen o implantan.

En cuanto a los sesgos que la inteligencia artificial puede desarrollar, incide en que tanto los sistemas cognitivos naturales como los artificiales están constantemente revisando creencias y enfatiza en que los procesos de su aprendizaje y revisión  pueden guiarse para afrontar unos sesgos o caer en otros. Así, defiende que podría eliminarse o restringirse el uso de términos o determinado léxico que resulte indeseable. «Pero muchos sesgos tienen que ver con el propio razonamiento y los más difíciles de eliminar tienen que ver con la propia probabilidad», razona.

Así, recuerda que hay decenas de casos en los que la gente no suele pensar pero que resultan vitales y subraya que el razonamiento condicional es la clave para que un sistema responda de manera distinta ante condiciones distintas.

Francisco Salto Alemany dice que los condicionales más básicos son indicativos —si como, engordo— o  probabilísticos —definiendo en condicional como la probabilidad condicional del consecuente dado el antecedente— y deja claro que aún no hay consenso teórico y sí varias propuestas sobre los condicionales más avanzados, como los subjuntivos o contrafácticos —si yo fuese Cristina tendría pelo largo—. «Los dilemas morales que afrontan no son distintos de nuestros dilemas. Normalmente, si no se cumplen condiciones ya especificadas en los antecedentes, el sistema puede actuar aleatoriamente», afirma.

Por último, defiende que una vez que sabemos qué propiedad interesa preservar, puede definirse la lógica que mejor preserva esa propiedad en el flujo de información. «Ahora bien, las distintas propiedades no son consistentes entre sí, y por eso la elección de qué propiedades se consideran deseables no es una cuestión lógica»...