Los grandes modelos lingüísticos (LLM) de Inteligencia Artificial (IA) no suponen una amenaza existencial para la humanidad, ya que carecen de la capacidad de aprender de manera independiente. Así lo asegura un estudio publicado en las actas de la 62ª reunión anual de la Association for Computational Linguistics.
El estudio revela que los LLM, como ChatGPT, no pueden desarrollar nuevas habilidades sin recibir instrucciones explícitas, lo que los mantiene bajo control, seguros y predecibles. Según el coautor del estudio, Harish Tayyar Madabushi, «la narrativa predominante de que este tipo de IA representa una amenaza para la humanidad impide la adopción y el desarrollo generalizados de estas tecnologías, desviando la atención de los problemas reales que requieren nuestra atención».
Tayyar Madabushi señala que los temores sobre que los modelos más grandes podrían adquirir capacidades peligrosas, como el razonamiento y la planificación, no están fundamentados. El estudio no encontró evidencia de que los LLM desarrollen capacidades emergentes de pensamiento independiente o se desvíen de sus objetivos programados.
A pesar de estos hallazgos, la coautora Iryna Gurevych advierte que la verdadera amenaza no radica en la capacidad de los LLM para desarrollar habilidades complejas, sino en el mal uso que los humanos pueden hacer de estos modelos. Ejemplos de este mal uso incluyen la creación de noticias falsas o el riesgo de fraude. Gurevych concluye que las investigaciones futuras deberían centrarse en estos riesgos potenciales en lugar de en la capacidad autónoma de los modelos de IA.