Jon Hernández, experto en IA, lo dice sin rodeos: si vas a pedirle conocimiento, vas por mal camino. La pregunta no es qué sabe la máquina. Es para qué la usas.
La cafetería estaba medio vacía y el barista espumaba la leche como si fuera un ritual. A mi lado, un chico con portátil escribía: “Explícame Kafka en 5 puntos y dame fuentes”. La respuesta llegó en segundos, impecable, limpia. El texto brillaba tanto que nadie habría dudado de él. A dos mesas, una profesora pedía actividades para explicar el clima a niños de diez años. Todo salía fluido, sin fricción. Todos hemos vivido ese momento en el que una respuesta rápida te salva el día y te quita un peso de encima. Jon Hernández mira esa escena y niega con la cabeza. Ahí está el error.
Buscar no es pensar: la confusión que nos cuesta criterio
La idea es seductora: preguntas algo, te devuelven “la verdad” y te ahorras tiempo. ChatGPT responde con naturalidad y eso crea un espejismo de certeza. **ChatGPT no es una biblioteca, es un espejo estadístico del lenguaje.** Reconstruye patrones, completa frases, te “adivina” la intención. Si esperas conocimiento estable y verificado, el terreno tiembla. Y cuando tiembla, el criterio se resquebraja.
Jon Hernández lo ve a diario en equipos que sustituyen búsqueda por conversación. Piden “mejores métricas de producto” y reciben un catálogo impecable… con definiciones mezcladas, nombres anticuados y ejemplos de otro contexto. Hay estudios que muestran tasas notables de respuestas inventadas, sobre todo en temas poco populares o muy nuevos. El tono convence, la forma seduce. El fondo, a veces, hace agua. Y en ese “a veces” se pierde una tarde, un proyecto, una decisión.
La explicación de fondo es clara: un LLM predice la siguiente palabra más probable según su entrenamiento. No compara hechos ni “consulta” una base viva de realidad. Por eso Hernández insiste: confundir “recuperar conocimiento” con “generar lenguaje” conduce a errores silenciosos. Pide al modelo que razone contigo, no que te sentencie. Pídeles procesos, hipótesis, alternativas, estructuras. Para hechos, contrasta con fuentes externas, actualizadas y legibles por humanos.
Cambiar el uso: del oráculo al copiloto de pensamiento
Hay una manera simple y potente de enderezar el rumbo: pide pasos, no verdades. Empieza por “ayúdame a pensar X” y no por “dime qué es X”. Solicita marcos: “propón 3 hipótesis rivales”, “genera un árbol de decisión”, “formula 5 preguntas que invaliden mi idea”, “resume contraejemplos”. **Pedirle verdades es como pedirle a un GPS que invente carreteras.** En cambio, si lo usas para estructurar, contrastar y reformular, se vuelve un copiloto que no estorba.
Otra palanca: dale contexto y límites concretos. Describe tu caso, tu sector, tus métricas, el objetivo y la audiencia. Pídele que te pregunte antes de responder, que exprese incertidumbres y que marque lo que es suposición. Seamos honestos: nadie hace eso todos los días. Por eso conviene preparar plantillas de prompts que te recuerden el método cuando vas con prisa. Y cuando la respuesta parezca perfecta, frena y contrasta. Tu yo de mañana te lo agradecerá.
En palabras de Hernández, no se trata de desconfiar de la IA, sino de recordar su naturaleza.
“La gente está utilizando ChatGPT para buscar conocimiento y ese es el mayor error. Pídele pensamiento, no certezas.”
Aquí un esquema rápido que funciona con estudiantes, marketers y devs:
- Pregunta-guía: “¿Qué no estoy viendo?”
- Formato: hipótesis, contraejemplos, métricas.
- Chequeo: dos fuentes humanas o institucionales.
- Salida: síntesis con límites explícitos.
**El valor real está en cómo lo usas, no en lo que dice.** Y ese “cómo” se entrena.
Lo que nos jugamos al delegar el criterio
Usar ChatGPT como buscador nos roba algo silencioso: el músculo de dudar bien. Ese músculo es incómodo, exige fricción, trae preguntas raras. Si lo cedemos a un texto plausible, perdemos olfato. Cuando Jon Hernández repite su idea, no busca asustar, busca devolver el control a quien lee. Porque el control no está en saberlo todo, sino en el diseño del proceso con el que decides.
| Punto Clave | Detalle | Interés para el lector |
|---|---|---|
| No es buscador | Genera lenguaje plausible, no verifica hechos | Evita decisiones basadas en certezas falsas |
| Usa procesos | Pide hipótesis, marcos, contraejemplos y pasos | Piensas mejor y descubres ángulos ciegos |
| Contrasta | Chequea con fuentes humanas e institucionales | Más confianza y menos retrabajo |
FAQ :
- ¿Entonces no sirve para aprender?Sí sirve para entender conceptos y crear primeras aproximaciones, siempre que contrastes después. Úsalo para analogías, resúmenes y preguntas que tensen tus ideas, no como autoridad final.
- ¿Cómo pido fuentes de forma útil?Indica: “cita 3 fuentes verificables con enlace y fecha, y explica qué parte respalda cada afirmación”. Luego visita los enlaces y revisa la calidad y la actualidad, no te quedes con el listado.
- ¿Qué hago cuando veo que alucina?Pide que liste sus incertidumbres, reformula tu prompt con más contexto y limita el dominio. Cambia a preguntas comparativas (“A vs B”) y valida con dos fuentes externas antes de decidir.
- ¿Es mejor usar Google o ChatGPT?Úsalos juntos. ChatGPT para estructurar, generar hipótesis y preparar criterios; Google (o bases especializadas) para evidencias frescas y datos que alguien ya publicó y firmó.
- ¿Algún prompt que mejore mi criterio?Prueba: “Haz de sparring: formula 5 objeciones fuertes a mi plan”, “Dame 3 marcos para evaluar este problema”, “¿Qué señales me indicarían que estoy equivocado?” y “¿Qué cambiaría si fuera X y tuviera Y restricciones?”.










Très interéssant. Passer de “dis‑moi la vérité” à “aide‑moi à penser” demande un vrai effort de méthode; avez-vous des modèles de prompts prêts à l’emploi ?
Le GPS qui invente des routes, c’est moi avec ChatGPT en réu 😅