Cuando la inteligencia artificial “alucina” : una lección sobre cómo hacer mejores prompts en la investigación.
- Carolina Ortega
- hace 15 horas
- 4 Min. de lectura
En los últimos años, la inteligencia artificial generativa ha comenzado a ocupar un lugar cada vez más visible en el trabajo académico. Investigadores, estudiantes y docentes recurren a estos sistemas para sintetizar información, explorar literatura científica o incluso para organizar los primeros borradores de una investigación.
Sin embargo, en medio de esta revolución tecnológica ha surgido un fenómeno que se repite con frecuencia y que merece atención: las llamadas “alucinaciones” de la inteligencia artificial.
En términos simples, una alucinación ocurre cuando un modelo de lenguaje produce una respuesta convincente, coherente y bien redactada… pero que no corresponde a información real.
Por ejemplo: en el ámbito de la investigación jurídica, esto puede traducirse en algo particularmente delicado: referencias bibliográficas inexistentes, artículos académicos inventados o DOI que no corresponden a ningún documento científico.
Lejos de ser un problema menor, este fenómeno plantea una pregunta importante: ¿cómo interactuar con la inteligencia artificial de manera responsable en la investigación académica?
Una forma de entenderlo es observando cómo formulamos nuestras instrucciones, o lo que en el lenguaje de la IA se conoce como prompts.
El primer error: pedir demasiado sin dar contexto
Imaginemos una solicitud sencilla dirigida a un modelo de lenguaje:
📌 Prompt
“Genera 10 citas de artículos científicos sobre la regulación jurídica de los datos biométricos en español añadiendo su DOI”.
A simple vista parece una petición razonable. No obstante, este tipo de instrucción puede provocar alucinaciones bibliográficas. El modelo intentará cumplir la tarea generando referencias que parecen reales, aunque en muchos casos no lo sean.
El problema no radica únicamente en la tecnología, sino también en la manera en que formulamos nuestras preguntas.
El primer ajuste: introducir restricciones
Una estrategia básica consiste en reformular el prompt introduciendo condiciones claras.
✅ Prompt mejorado
Genera 10 referencias de artículos científicos reales sobre la regulación jurídica de los datos biométricos.
Condiciones:
Deben estar publicados en revistas académicas.
El artículo debe existir realmente.
Incluye DOI válido.
Escríbelo en formato APA.
Si no estás seguro del DOI, indica “DOI no disponible”.
Con este simple cambio ocurre algo interesante: el modelo ya no solo genera contenido, sino que comienza a operar bajo criterios de verificación.
El siguiente paso: pedirle que piense como investigador
Cuando el objetivo es obtener información más confiable, el prompt puede estructurarse para que el modelo adopte el rol de un investigador académico.
✅ Prompt avanzado
Actúa como investigador académico especializado en derecho digital.
Tarea:
Identifica artículos científicos reales sobre regulación jurídica de datos biométricos.
Prioriza artículos publicados en revistas jurídicas o de derecho tecnológico.
Verifica que el DOI exista.
Entrega el resultado en una tabla con las columnas:
Autor
Año
Título del artículo
Revista
DOI
Al introducir esta estructura, el modelo deja de comportarse como un generador automático de texto y comienza a simular el proceso metodológico de búsqueda académica.
Cuando la investigación exige mayor rigor
Si el objetivo es elaborar una revisión bibliográfica más rigurosa —como las que se utilizan en tesis o artículos científicos— el prompt puede elevar aún más su nivel de precisión.
✅ Prompt profesional
Actúa como bibliotecario académico especializado en derecho digital.
Busca artículos científicos sobre regulación jurídica de datos biométricos en español.
Requisitos:
Publicados entre 2015 y 2025
Revistas académicas revisadas por pares
Priorizar artículos indexados en Scopus, Web of Science o Scielo
Incluir DOI verificable
Formato APA 7
Entrega:
Lista de referencias
Breve descripción del aporte del artículo (1–2 líneas)
Si no puedes confirmar el DOI, escribe “No verificado”.
Aquí ya no se trata solo de generar referencias, sino de incorporar criterios propios de la investigación científica, como la indexación en bases académicas o la revisión por pares.
La IA como apoyo metodológico
En investigaciones más complejas, la inteligencia artificial incluso puede ayudar a estructurar revisiones sistemáticas de literatura.
Por ejemplo, mediante prompts que integren metodologías reconocidas como PRISMA:
definir la pregunta de investigación
generar palabras clave y ecuaciones de búsqueda
identificar bases de datos científicas
establecer criterios de inclusión y exclusión
describir el proceso de selección de artículos
De esta manera, la IA deja de ser únicamente una herramienta de generación de texto para convertirse en un asistente metodológico.
En el campo del prompt engineering existen dos enfoques especialmente relevantes.
El primero es el grounding, que consiste en “anclar” la respuesta del modelo mediante:
restricciones claras
formatos estructurados
verificación explícita
instrucciones paso a paso
El segundo es el llamado RAG académico (Retrieval Augmented Generation), que combina la capacidad generativa de la IA con fuentes científicas verificables.
Esto implica trabajar con bases de datos como:
Google Scholar
Scopus
Web of Science
Scielo
e incluso integrar gestores bibliográficos como Zotero para organizar las referencias.
En última instancia, las alucinaciones de los modelos de lenguaje no son un misterio tecnológico. Son una consecuencia de cómo funcionan estos sistemas: su objetivo es producir texto plausible, no garantizar automáticamente la veracidad de la información.
Por ello, la responsabilidad final sigue estando en manos del investigador.
Verificar las fuentes, contrastar la información, contextualizar los resultados y diseñar mejores prompts son prácticas que permiten aprovechar el potencial de la inteligencia artificial sin comprometer el rigor académico.
Porque, al final, la IA puede convertirse en un aliado extraordinario para la investigación, siempre que recordemos algo fundamental:la tecnología puede acelerar el conocimiento, pero la responsabilidad de verificarlo sigue siendo humana.
Carolina Ortega
12 marzo del 2026



Comentarios