Cómo funciona la IA: lo que necesitás saber sin ser programador

No necesitás entender cómo funciona un motor para manejar un auto. Pero si entendés los básicos, que tiene nafta, que se calienta, que hay que hacerle service: lo usás mejor y te anticipás a los problemas.

Con la IA pasa exactamente lo mismo. No necesitás saber programar. Pero entender unos pocos conceptos hace toda la diferencia entre usar estas herramientas bien, y pasasrte una tarde frustrado, cuando no te dan lo que esperabas.


Qué es un modelo de lenguaje (LLM)

LLM significa Large Language Model, modelo de lenguaje grande. Es el tipo de IA que está detrás de Claude, ChatGPT, Gemini y las demás herramientas que probablemente ya estás usando.

La idea básica es esta: el modelo fue entrenado con cantidades enormes de texto -libros, artículos, páginas web, código- y aprendió a predecir cuál es la palabra o frase más probable que sigue a lo que acabás de escribir. No “piensa” como una persona. Genera respuestas que son estadísticamente coherentes con lo que le pediste.

Eso explica por qué a veces parece increíblemente inteligente y otras veces dice algo completamente incorrecto con la misma confianza. No tiene certeza, es una enorme y ultra complicada máquina de calcular probabilidades.


La ventana de contexto: la memoria de corto plazo

Uno de los conceptos más importantes para usar bien la IA es la ventana de contexto. Es básicamente la cantidad de texto que la IA puede “tener en mente” en una sola conversación.

Pensalo así: es como si le entregás un expediente a un colega para que te ayude. Si el expediente tiene 10 páginas, lo puede leer todo y darte una opinión coherente. Si tiene 2.000 páginas, en algún momento va a tener que empezar a olvidar lo que leyó al principio o directamente no lo va a leer todo y te va a dar respuestas con información faltante.

Las IAs modernas tienen ventanas de contexto muy grandes -Claude, por ejemplo, puede manejar documentos de cientos de miles de palabras- pero todas tienen un límite. Cuando lo superás, la IA empieza a “olvidar” lo que dijiste al principio, y lo hace sin avisarte.

Si en una conversación larga notás que la IA ignora cosas que ya le explicaste, o empieza a contradecirse, probablemente estés cerca de ese límite. La solución es simple: resumí lo importante y abrí una nueva sesión.

Otra opción es pedirle a tu IA que compacte la conversación. Va a conservar lo más importante y va a dejar de lado lo menos importante para poder seguir charlando.


Alucinaciones: cuando la IA inventa con confianza

Este es el concepto más importante para cualquier profesional que use IA.

Las IAs “alucinan” cuando generan información incorrecta pero presentada con total confianza. Pueden inventar un fallo que no existe, citar un artículo de ley con el número equivocado, atribuirle una doctrina a un autor que nunca la escribió.

No lo hacen porque quieran engañarte. Lo hacen porque su función es generar texto coherente, y a veces el texto más coherente estadísticamente es simplemente incorrecto.

La regla de oro: nunca uses una cita, un número de expediente, una fecha o una referencia normativa que te dio la IA sin verificarla en la fuente original. La IA es excelente para el borrador, el análisis y la estructuración. La verificación es siempre tu responsabilidad.


Tokens: la unidad de medida de la IA

Las IAs no procesan palabras, procesan tokens, pedacitos de texto que pueden ser una palabra corta, una sílaba o un signo de puntuación. No es algo que necesitámos entender en profundidad, pero vale la pena saber que existen.

Primero, porque los límites de la ventana de contexto se miden en tokens. Cuando un modelo dice que puede procesar “200.000 tokens”, eso equivale a un libro mediano completo —suficiente para trabajar con expedientes extensos sin problema. Las IAs gratuitas manejan ventanas de contexto mucho más chicas, por lo que si manejás archivos grandes, es indispensable tener la versión paga de una IA potente.

Segundo, porque si alguna vez usás la IA a través de una integración o automatización (no desde la app, sino conectada a otro sistema), el costo va a depender de cuántos tokens entrás y cuántos recibís. Para el uso cotidiano desde la interfaz web no es algo crítico, pero está bueno saberlo para cuando aparezca el término.


Lo que la IA no sabe (y por qué importa)

Los modelos tienen una fecha de corte de conocimiento. Fueron entrenados hasta cierto momento y no saben qué pasó después. Claude, ChatGPT y Gemini conocen el mundo hasta la fecha en que fueron entrenados, no más. Grok en cambio, al funcionar sobre Twitter/X, tiene conocimiento super-actualizado del mundo real.

Esto tiene consecuencias directas: si le preguntás sobre una reforma legislativa reciente, sobre un fallo del año pasado o sobre cualquier novedad posterior a esa fecha, puede darte información desactualizada o directamente incorrecta.

Al igual que Grok, algunos modelos tienen acceso a búsqueda web en tiempo real —Gemini y el modo “search” de ChatGPT, por ejemplo— lo que mitiga este problema. Pero siempre conviene preguntar sobre la fecha de actualización del modelo cuando el tema lo requiere.


Lo que sí hacen muy bien

Con todo esto claro, lo que estas herramientas hacen excepcionalmente bien es ayudarte a pensar y a producir más rápido: estructurar información que vos le das, redactar y mejorar textos, resumir documentos largos, encontrar inconsistencias en un argumento o explicarte algo complejo en lenguaje simple.

Son herramientas de amplificación: amplifican lo que vos sabés hacer. No reemplazan el criterio profesional, lo potencian. Y sabiendo cómo funcionan, podés pedirles lo que son capaces de darte, y no frustrarte cuando llegan a su límite.


¿Tenés alguna pregunta sobre cómo funciona la IA que no está acá? Escribime a nododelta@gmail.com.