Germán Mallo

0 %
Germán Mallo
Data Scientist
  • Residence:
    España
  • City:
    Valencia
  • Age:
    21
Español
Inglés
Valenciano
Python
R
Photoshop
WordPress
Wondershare Filmora
SQL
  • Advanced Knowledge in Statistics
  • UPV Student
  • GIT knowledge

¿Por qué le pides un número al ChatGPT y te dice “47”?

16/11/2025

El fenómeno: pedir un número al azar → respuesta “47”

Quizás te ha pasado: abres ChatGPT y le dices algo como:

“Dime un número aleatorio del 1 al 100”
Y te devuelve: “47”.

Otras personas reportan que el número es repetido, que no parece tan “aleatorio”, que se vuelve recurrente. En foros como Reddit se comenta este fenómeno:

“Everytime you ask ChatGPT to pick a number between 1 and 50, it picks 27.”
“This time I asked why? 47 said it was the most random number between 0 and 100.”
Aunque no todos los comentarios hablan de 47 — algunos hablan de 27, 37 u otros — el patrón es que el modelo tiende a repetir ciertos números en vez de distribuir perfectamente la elección.

¿Qué está pasando realmente?

Para entenderlo, conviene recordar cómo funciona ChatGPT (y, en general, los modelos de lenguaje grandes) y por qué “escoge” un número que parece aleatorio, pero con sesgos. Algunos puntos clave:

  1. No hay “generador de números aleatorios” interno puro
    Cuando le pides “un número al azar”, ChatGPT no está ejecutando un procedimiento de generación aleatoria uniforme al estilo de rand(1,100). En vez de eso, está generando texto predicho — dadas las palabras del prompt, cuál es la palabra (o número) que sigue con mayor probabilidad según su entrenamiento.
  2. Predicción basada en probabilidad de secuencia
    En vez de “escoger” con igual probabilidad los números del 1 al 100, el modelo está determinando qué número “suena” más plausible o más frecuente en su corpus de entrenamiento o “más probable” como respuesta de texto ante ese prompt. Por tanto ciertos números pueden tener “más peso” porque aparecen más o tienen asociaciones lingüísticas más fuertes.
  3. Efecto de expectativa humana y sesgos lingüísticos
    Cuando tú pides “un número aleatorio”, también fuerzas una expectativa (humana) de “algo que no se note calculado”. El modelo puede aprender (o reflejar) que ciertas respuestas “aleatorias” comunes son más aceptables socialmente o más “sorprendentes”. Por ejemplo, el 47 es impar, no trivial (no 50, no 100, no 1) y puede haber sido más frecuente en ejemplos de entrenamiento, conversaciones, memes, etc.
  4. Variabilidad del prompt, temperatura, contexto
    Dependiendo del prompt exacto (“Dime un número al azar del 1 al 100”), del sistema (versión del modelo), de la “temperatura” o randomización interna, del histórico de conversación, puede cambiar la respuesta. Pero en muchos casos, se observa la “popularidad” de ciertos números, lo cual lleva a la impresión de que siempre sale el mismo.

¿Por qué el número 47 en concreto?

No hay una confirmación oficial de que ChatGPT tenga predisposición fija al 47. Pero la comunidad de Reddit comenta que, en sus experimentos, el número 47 apareció con frecuencia. Algunos razonamientos:

  • Es un número “suficientemente aleatorio” para los humanos: ni muy bajo, ni muy alto, no múltiplo obvio, “no demasiado habitual” como 50 o 10.
  • Podría existir un “sesgo de selección” en los datos: por ejemplo, si muchos ejemplos de “elige un número al azar” en internet usaban 47, entonces el modelo lo “aprendió” como plausible.
  • La estructura de generación de texto predice lo “más probable” dadas las palabras anteriores; si en su entrenamiento “47” aparece con mayor frecuencia que otros números en ese contexto, tenderá a elegirlo.

Así lo resume un comentario en Reddit:

“It’s just generating the most random sounding number. Same happens when humans make up random numbers.” (Reddit)
Y otro:
“Pretty sure this came up … It is the internet 😀 … AI always picks 27!”
Entonces: no hay magia oculta en el 47, sino un reflejo de cómo funcionan los modelos de lenguaje.


Reflexión: ¿qué nos enseña esto sobre los fundamentos del lenguaje y la “aleatoriedad”?

Aleatoriedad aparente vs. aleatoriedad verdadera

Cuando pedimos un número “aleatorio”, esperamos que todos los valores del 1 al 100 tengan la misma probabilidad de salir. Pero con ChatGPT, la “aleatoriedad” es simulada: se genera texto basado en probabilidades condicionadas, no en un generador de números uniforme. Esto nos lleva a preguntarnos: ¿qué significa que algo “parezca aleatorio” pero no lo sea?

En muchos ámbitos — la escritura, el lenguaje humano, la creatividad — lo que contamos como “aleatorio” no es verdaderamente uniforme, sino aquello que “no parece seguir un patrón reconocible”. Y eso basta en muchos contextos. Los modelos de lenguaje, al predecir lo más probable, logran esa apariencia sin diseñar una verdadera uniformidad.

Aprendizaje, frecuencia y sesgo

El hecho de que un modelo repita el 47 con frecuencia muestra que los patrones de entrenamiento importan. Si un modelo se entrena en corpus donde ciertas respuestas “son comunes”, entonces esas respuestas repiten la estructura de esos corpus. Esto nos recuerda que los modelos no “entienden” en sentido humano, sino que aprenden patrones de texto. Y esos patrones pueden llevar a sesgos inesperados (como preferir el 47).

El fundamento de la predicción del lenguaje

Este ejemplo ilustra de forma sencilla cómo opera un modelo de lenguaje:

  • Recibe un prompt (“Dime un número del 1 al 100”).
  • Evalúa, a partir de su entrenamiento, qué número es más probable como continuación del prompt.
  • Entrega el número.
    Aunque parezca que “elige” de forma libre, en realidad está aplicando lo que ha aprendido como “respuesta plausible”.

Lecciones para el usuario y desarrollador de IA

  • Como usuario: si esperas verdadera aleatoriedad, conviene usar un generador de números al azar (p.ej., random() en código), y no depender de un modelo de lenguaje para eso.
  • Como desarrollador o analista: entender que modelos como ChatGPT tienen limitaciones implícitas cuando se pide “azar”, “aleatoriedad”, “creatividad totalmente libre”: lo que ofrecen es probabilidad lingüística, no genuina aleatoriedad o pensamiento libre.
  • En general: si vemos que un modelo repite ciertas respuestas (“el 47”, “el 27”) con frecuencia, es una señal de que los datos de entrenamiento o la arquitectura están influyendo fuertemente, y que lo presentado como “aleatorio” puede contener patrones detectables.

Una reflexión final: el papel de la percepción humana

Al final, esta situación revela también algo sobre nosotros: los humanos buscamos “lo extraño”, “lo aleatorio”, “lo que no esperamos”, y cuando algo repite un patrón (como “me dice 47 otra vez”), lo detectamos y cuestionamos. Eso hace que demos más importancia al hecho de que “otra vez 47” que al hecho de que, estadísticamente, podría no haber patrón alguno.

Y esa conciencia humana — de patrón, de sorpresa, de aleatoriedad — es lo que diferencia la experiencia del usuario de la mecánica interna del modelo. Los modelos generan, nosotros interpretamos.


Conclusión

Sí: cuando le pides un número entre 1 y 100 a ChatGPT puede que te responda “47” (o un número que se repite más de lo que esperarías). Pero no es por un truco oculto: es por la naturaleza del modelo de lenguaje, su entrenamiento con patrones textuales y su mecanismo de predicción.
Este sencillo experimento nos conecta con preguntas más amplias: ¿qué es “aleatorio”? ¿Cómo opera el lenguaje humano y artificial? ¿Hasta qué punto percibimos patrones que quizá no existen o quizá son inherentes al sistema?

Posted in IATags:
Write a comment