Respuestas incorrectas
MENOR FIABILIDAD. Los grandes modelos de lenguaje de inteligencia artificial cada vez son menos fiables. Un trabajo publicado en ‘Nature’ revela una tendencia «alarmante» sobre la evolución de los modelos y revela la pérdida de certezas en este campo.
i
Las predicciones certeras en 2022
En 2022, Ilya Sutskever, el científico que está detrás de algunos de los mayores avances en inteligencia artificial de los últimos años (desde la solución de Imagenet hasta AlphaGo) y cofundador de OpenAI, predijo que «quizá con el tiempo esa discrepancia disminuya».
La percepción humana ante las dificultades
Existe una discordancia entre las expectativas de que los modelos fallen de acuerdo a la percepción humana de dificultad en la tarea y las tareas donde realmente los modelos fallan. «Los modelos pueden resolver ciertas tareas complejas».
dicyt
Los recientes avances en inteligencia artificial (IA) han generalizado el uso de grandes modelos de lenguaje en nuestra sociedad, en ámbitos como la educación, la ciencia, la medicina, el arte o las finanzas, entre otros muchos. Estos modelos están cada vez más presentes en nuestro día a día. Sin embargo, no son tan fiables como los usuarios esperan. Así lo concluye un estudio liderado por un equipo del Instituto VRAIN de la Universitat Politècnica de València (UPV) y la Escuela Valenciana de Posgrado y Red de Investigación en Inteligencia Artificial (ValgrAI), junto con la Universidad de Cambridge, que publica la revista Nature.
El trabajo revela una tendencia «alarmante»: en comparación con los primeros modelos, y atendiendo a ciertos aspectos, la fiabilidad ha empeorado en los modelos más recientes (GPT-4 en comparación con GPT-3, por ejemplo). Según explica José Hernández Orallo, investigador del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la UPV y de ValgrAI, una de las principales preocupaciones sobre la fiabilidad de los modelos de lenguaje es que su funcionamiento no se ajusta a la percepción humana de dificultad de la tarea. En otras palabras, existe una discordancia entre las expectativas de que los modelos fallen de acuerdo a la percepción humana de dificultad en la tarea y las tareas donde realmente los modelos fallan. «Los modelos pueden resolver ciertas tareas complejas de acuerdo a las habilidades humanas, pero al mismo tiempo fallan en tareas simples del mismo dominio. Por ejemplo, pueden resolver varios problemas matemáticos de nivel de doctorado, pero se pueden equivocar en una simple suma», apunta Hernández-Orallo.
En 2022, Ilya Sutskever, el científico que está detrás de algunos de los mayores avances en inteligencia artificial de los últimos años (desde la solución de Imagenet hasta AlphaGo) y cofundador de OpenAI, predijo que «quizá con el tiempo esa discrepancia disminuya».
Sin embargo, el estudio del equipo de la UPV, ValgrAI y la Universidad de Cambridge demuestra que no ha sido así. Para demostrarlo, investigaron tres aspectos clave que afectan a la fiabilidad de los modelos de lenguaje desde una perspectiva humana. El estudio constata una discordancia con la percepción de dificultad. «¿Fallan los modelos donde las personas esperamos que fallen? Nuestro trabajo concluye que los modelos suelen ser menos precisos en tareas que los humanos consideran difíciles, pero no son precisos al 100% ni siquiera en tareas sencillas. Esto significa que no existe una «zona segura» en la que se pueda confiar en que los modelos funcionen a la perfección», apunta la investigadora del Instituto VRAIN de la UPV, Yael Moros Daval.
De hecho, el equipo del Instituto VRAIN UPV, ValgrAI y la Universidad de Cambridge asegura que los modelos más recientes básicamente mejoran su rendimiento en tareas de alta dificultad, pero no en tareas de baja dificultad, «lo que agrava la discordancia de dificultad entre el rendimiento de los modelos y las expectativas humanas», añade Fernando Martínez Plumed, investigador también de VRAIN UPV.El estudio descubre también que los modelos de lenguaje recientes son mucho más propensos a proporcionar respuestas incorrectas, en vez de evitar dar respuesta a tareas de las que no están seguros. «Esto puede llevar a que los usuarios que inicialmente confían demasiado en los modelos, luego se decepcionen. Por otra parte, a diferencia de las personas, la tendencia a evitar proporcionar respuestas no aumenta con la dificultad. Por ejemplo, los humanos suelen evitar dar su opinión en problemas que superan su capacidad. Esto relega a los usuarios la responsabilidad de detectar fallos durante todas sus interacciones con los modelos».