Un Mundo Loco ●

ChatGPT genera la siguiente palabra calculando la probabilidad de que aparezca dado todo lo anterior. Eso es todo. Y es suficiente para engañarte.

ChatGPT genera la siguiente palabra calculando la probabilidad de que aparezca dado todo lo anterior. Eso es todo. Y es suficiente para engañarte.

La primera vez que alguien usa ChatGPT, la reacción más común es: ¿cómo sabe eso? La segunda reacción, unas horas después, suele ser: espera, esto que dijo es completamente falso. Y sin embargo sonaba tan seguro.

Ambas reacciones son la respuesta correcta al mismo sistema. Para entender cómo ChatGPT puede parecer tan inteligente y equivocarse de maneras tan básicas al mismo tiempo, hay que entender qué hace exactamente.

El mecanismo base: predicción de la siguiente palabra

ChatGPT es un modelo de lenguaje. Su función fundamental es, dado un texto de entrada, calcular qué texto tiene más probabilidad de venir a continuación y generarlo. Después, toma ese texto generado como nueva entrada y vuelve a calcular qué viene a continuación. Y así, palabra por palabra, hasta que la respuesta está completa.

No hay comprensión en ningún paso de ese proceso. No hay un modelo del mundo, no hay una representación de "lo que es verdad", no hay intención de comunicar algo específico. Hay cálculo de probabilidades sobre patrones en el lenguaje.

Que ese proceso produzca respuestas que parecen inteligentes es el resultado de dos cosas: la escala masiva del entrenamiento y la regularidad del lenguaje humano.

El entrenamiento: leer medio internet

GPT —Generative Pre-trained Transformer— fue entrenado sobre cantidades de texto que no tienen precedente humano. ChatGPT y sus versiones sucesivas (GPT-4, GPT-4o) fueron entrenadas sobre texto de internet, libros digitales, código fuente, artículos científicos, Wikipedia en múltiples idiomas y otros datasets.

El proceso de entrenamiento es iterativo: el modelo predice la siguiente palabra en un texto de entrenamiento, compara su predicción con la palabra real, calcula cuánto se equivocó, y ajusta sus parámetros internos para equivocarse menos la próxima vez. Esto se repite miles de millones de veces.

Lo que emerge de ese proceso es un modelo que capturó los patrones estadísticos del lenguaje humano a una escala que ningún humano puede procesar. Sabe que después de "la capital de Francia es" viene "París" con probabilidad muy alta. Sabe que después de "el paciente fue internado" viene vocabulario médico, no vocabulario de cocina. Sabe que en un correo formal el tono es diferente al de un mensaje de WhatsApp.

Ese conocimiento de patrones, a escala suficiente, produce comportamiento que parece inteligente.

Por qué suena tan seguro

Una característica de ChatGPT que confunde a mucha gente es la confianza del tono. El modelo afirma cosas falsas con el mismo tono que afirma cosas verdaderas.

La razón es que el tono de confianza es en sí mismo un patrón estadístico del lenguaje. En el texto humano, los enunciados afirmativos sin calificaciones se presentan con tono seguro. El modelo aprendió ese patrón. No tiene manera de distinguir cuándo sabe algo con certeza y cuándo está extrapolando sobre algo que no tiene suficiente evidencia.

Los modelos más recientes tienen mejor calibración: incluyen más frases de incertidumbre ("no estoy seguro de esto", "podría estar equivocado") y se entrenan explícitamente para decir "no sé" cuando no saben. Pero el problema de base — que el modelo genera texto probable, no verdadero — no desaparece.

El mecanismo de atención: qué mira el modelo

El componente técnico que diferencia a GPT de los modelos anteriores es el Transformer, una arquitectura publicada por Google en 2017 en un paper titulado "Attention is All You Need".

La atención —en el sentido técnico— es el mecanismo que permite al modelo considerar el contexto completo de la entrada al calcular la siguiente palabra. No solo la palabra anterior, sino todas las palabras anteriores con distinta importancia.

Cuando generas la frase "El gato se sentó en el tapete porque estaba cansado", el modelo necesita entender que "estaba" se refiere al gato y no al tapete. La atención permite calcular qué partes del contexto son más relevantes para cada decisión.

A escala, ese mecanismo produce algo que se parece mucho al entendimiento del lenguaje. No es entendimiento. Es cálculo de relaciones entre patrones de texto. Pero el resultado a menudo es indistinguible del exterior.

Por qué ChatGPT se comporta diferente al modelo base

El modelo base de GPT —el que resulta del preentrenamiento sobre internet— es útil pero caótico. Si se le pide que complete "Los nazis eran", puede continuar de cualquier manera que estadísticamente sea posible en ese contexto. Si se le pide consejo sobre cómo hacer algo peligroso, puede darlo.

ChatGPT es el modelo base más una capa de ajuste llamada RLHF (Reinforcement Learning from Human Feedback). En ese proceso, humanos calificaron distintas respuestas del modelo y ese feedback se usó para ajustar el modelo hacia respuestas más útiles, honestas y seguras.

Es el mismo mecanismo que hace que ChatGPT diga "no puedo ayudarte con eso" ante ciertos pedidos, que tenga un tono más educado que un modelo sin ajuste, y que evite ciertos contenidos. Esa capa de ajuste no cambia el mecanismo base — el modelo sigue prediciendo texto — pero cambia qué texto predice cuando hay múltiples opciones posibles.

Cómo usarlo bien

Entender el mecanismo tiene consecuencias prácticas:

Dar contexto explícito. El modelo no sabe nada sobre vos ni sobre tu situación específica. Cuanto más contexto des, más probabilidad de que el texto que genera sea relevante.

Dividir tareas complejas. El modelo es mejor en pasos cortos que en razonamiento largo de una sola vez. Pedirle que piense en voz alta, que liste opciones antes de decidir, que revise su propia respuesta, mejora la calidad.

Verificar siempre hechos específicos. Si el dato importa y es específico, búscalo en una fuente primaria. ChatGPT puede equivocarse con cualquier hecho, especialmente si es reciente o poco frecuente en el texto de entrenamiento.

No interpretar la confianza como evidencia. El tono seguro del modelo no tiene relación con la precisión de lo que dice. Son patrones independientes.

El modelo es una herramienta poderosa para exactamente lo que hace bien: generar texto probable dado un contexto. Lo que hace bien es mucho. Lo que no hace bien también es mucho. La diferencia la hace saber cuál es cuál.

¿Cómo funciona ChatGPT sin tecnicismos?

ChatGPT es un modelo de lenguaje entrenado en cantidades masivas de texto. Su función básica es predecir cuál es la palabra (o fragmento de palabra) más probable dado todo lo que apareció antes en la conversación. No entiende, no razona en el sentido humano, no tiene intenciones. Genera texto que estadísticamente se parece al texto producido por personas en situaciones similares. Eso es suficiente para hacer muchas cosas útiles y también para cometer errores que un humano no cometería.

¿Por qué ChatGPT a veces inventa hechos con total confianza?

Porque la confianza del tono y la precisión del contenido son patrones independientes. El modelo aprende que en ciertos contextos el texto seguro y afirmativo es más frecuente que el texto dubitativo, y genera ese patrón sin importar si el dato es correcto. No tiene acceso a si algo es verdadero o falso — tiene acceso a si algo es probable dado el contexto. Un error dicho con tono seguro no es una mentira: es la predicción estadísticamente más plausible que resultó equivocada.

¿Qué hace bien ChatGPT y para qué no sirve?

Hace bien: redactar, reformular, resumir, estructurar ideas, escribir código estándar, traducir, responder preguntas donde la respuesta correcta es frecuente en texto. No sirve (o sirve mal): hechos específicos recientes, cálculos numéricos complejos, razonamiento lógico largo sin verificación, datos que no aparecen frecuentemente en texto de entrenamiento. La clave práctica: dar contexto explícito, verificar hechos específicos en fuentes primarias y no interpretar el tono confiado como señal de precisión.

Fuente original: Un Mundo Loco

Fuente: Un Mundo Loco

seguir por tema

Rutas relacionadas con esta búsqueda

seguir en ia

Más notas de esta sección