Vivimos en una burbuja de hype. Desde que GPT-4 y Claude entraron en escena, parece que la solución a cualquier problema de software es “métele un prompt”. Y sí, la IA generativa es revolucionaria, creativa y capaz de razonamientos complejos.
Pero tiene un talón de Aquiles gigante: no es determinista.
Si estás construyendo un sistema que necesita etiquetar, clasificar o filtrar datos con una fiabilidad del 100%, usar IA generativa es un error de arquitectura. Es un “quiero y no puedo” que te costará dinero y dolores de cabeza.
Vamos a ver por qué.
La diferencia entre crear y decidir
Para entender el problema, hay que bajar al barro de cómo funcionan estos modelos.
- IA Generativa (LLMs): Son modelos probabilísticos. Su trabajo es predecir el siguiente token (palabra o parte de ella) que mejor encaja en una secuencia. Están diseñados para la variabilidad.
- IA Determinista (Machine Learning Clásico): Modelos como Random Forest, Regresión Logística o redes específicas tipo BERT para clasificación. Su trabajo es trazar una línea en la arena y decir: “Esto es A” o “Esto es B”.
Cuando usas un LLM para clasificar (ej: “¿Este email es una queja o una felicitación?”), estás forzando a una máquina creativa a hacer un trabajo binario.
El problema de la “Temperatura” y la alucinación
Seguro que te ha pasado. Le pides a un LLM que te devuelva un JSON con una categoría. Lo hace bien 95 veces. Pero a la vez número 96, decide ser “creativo”.
En lugar de devolver { "category": "support" }, te devuelve:
{ "category": "support", "note": "Parece que el usuario está enfadado" }.
¡Boom! Tu parser se rompe. Tu automatización falla.
La IA generativa alucina porque no entiende la verdad, entiende la verosimilitud. Si le bajas la temperatura a 0, reduces el riesgo, pero no eliminas la naturaleza probabilística del modelo. No hay garantías matemáticas de que la salida sea siempre estructuralmente idéntica.
Latencia y Coste: Matar moscas a cañonazos
Imagina que tienes que clasificar 10.000 comentarios de clientes al día.
- Opción GenAI: Envías el texto a la API de OpenAI/Anthropic. Tardas unos 500ms – 2s por petición. Pagas por cada token de entrada y salida.
- Opción Determinista: Entrenas un modelo pequeño (o usas uno pre-entrenado de Hugging Face). Tarda 20ms en local. Coste marginal cero una vez desplegado.
Usar un modelo de 175 billones de parámetros para decir “Sí” o “No” es ineficiente. Es como usar un Ferrari para ir a comprar el pan a la esquina: llegas, sí, pero gastas mucha gasolina y es difícil de aparcar.
Cuándo SÍ y cuándo NO
Para que no queden dudas, aquí tienes mi regla de oro para decidir qué tecnología usar en tus proyectos:
Usa IA Generativa cuando:
- Necesitas resumir textos largos.
- Necesitas extraer entidades complejas o desestructuradas.
- Necesitas transformar el tono o el formato del texto.
- La creatividad es un feature, no un bug.
Usa IA Determinista (o Reglas) cuando:
- La salida es un conjunto cerrado de opciones (Categoría A, B o C).
- Necesitas consistencia del 100% (Sistemas críticos).
- Procesas grandes volúmenes de datos en tiempo real.
- El fallo no es una opción.
La solución híbrida: El enfoque pragmático
No tienes que elegir uno u otro. Los mejores sistemas que estoy viendo ahora mismo utilizan una arquitectura híbrida.
Utilizan modelos deterministas (rápidos y baratos) para la primera criba o clasificación masiva. Solo cuando el modelo determinista tiene una “confianza baja” (ej: no sabe si es A o B), entonces (y solo entonces) se envía esa petición a un LLM para que analice el matiz con su “razonamiento” superior.
Conclusión
La IA generativa es una herramienta increíble, pero no es un martillo para todos los clavos. Si necesitas clasificar, busca fiabilidad y velocidad.
No te dejes llevar por el hype. A veces, una buena Regresión Logística o un modelo BERT bien ajustado le da mil vueltas a GPT-4 en tareas específicas.
Ingeniería es elegir la herramienta adecuada, no la más moderna.