¿Pueden las máquinas pensar?
Los grandes modelos de lenguaje (LLMs, por sus siglas en inglés) han superado la prueba de Turing, conocida como el “juego de imitación”, que intenta evaluar si las máquinas pueden pensar como seres humanos. Estos LLMs, como el chatbot ChatGPT, han demostrado habilidades impresionantes en conversación, escritura de ensayos y poesía, programación, y resumen de texto. Sin embargo, los investigadores se enfrentan a desafíos para comprender cómo funcionan exactamente estos LLMs, ya que gran parte de su comportamiento surge del proceso de entrenamiento y no está completamente especificado por los programadores.
La comprensión de los LLMs es esencial para desbloquear su potencial en campos como la medicina y el derecho, pero se ha demostrado que sus capacidades pueden ser frágiles y carecer de robustez en el mundo real. Los científicos están debatiendo si los LLMs muestran signos de razonamiento y comprensión real o si su rendimiento inconsistente indica que no son tan inteligentes como parecen.
Para evaluar mejor las fortalezas y debilidades de los LLMs, se necesitan pruebas más sistemáticas que ofrezcan una comprensión más completa de su funcionamiento. De manera similar a cómo se aprueban los medicamentos después de pruebas clínicas rigurosas, las evaluaciones de los sistemas de IA podrían permitir que se utilicen de manera segura en ciertas aplicaciones y se comuniquen a
los usuarios sus posibles fallas.
Un enfoque prometedor es la creación de pruebas que examinen la capacidad de razonamiento sobre conceptos abstractos. Sin embargo, la comprensión completa de los LLMs requerirá un estudio más profundo de los mecanismos subyacentes que impulsan su comportamiento.
El camino hacia la comprensión total de los LLMs es largo y desafiante, especialmente debido a la falta de transparencia de las empresas que los desarrollan. Sin embargo, es un desafío crucial para el campo de la IA, ya que se busca entender completamente el potencial y los límites de estasvpoderosas herramientas de lenguaje.
Fuente: Nature, 25 de julio de 2023
Nota publicada en la Ed. 160 de la revista Ethica Digital, sección Novedades Científicas, a cargo del Dr. Martín Moya.
La edición completa de la revista en PDF se puede descargar AQUÍ