La ley de Zipf suena técnica, pero en realidad describe algo muy cotidiano: cómo usamos las palabras sin darnos cuenta. Esta idea dice, más o menos, que si ordenas las palabras de un texto por frecuencia, la segunda se repite la mitad que la primera, la tercera un tercio, la cuarta un cuarto, y así sucesivamente. Es decir, unas pocas palabras están en todas partes, como “de”, “la”, “que”, mientras miles apenas asoman una vez, tímidas, en un rincón del discurso. Aunque se llame “ley”, no es una norma escrita, sino un patrón estadístico que aparece una y otra vez cuando contamos palabras con paciencia casi obsesiva.
Lo fascinante es que este comportamiento no depende de un solo idioma ni de un solo autor, se repite en novelas, noticias, chats y hasta en letras de canciones electrónicas llenas de frases cortas y repetitivas. El lingüista George Zipf, allá por mediados del siglo pasado, se dedicó a contar palabras en grandes corpus y encontró esa relación simple entre rango y frecuencia. Después llegaron matemáticos, físicos y frikis de los datos para notar que la misma estructura aparecía en otras partes del mundo real, como si el universo tuviera debilidad por las listas ordenadas. Y sí, tu cerebro parece cómodo viviendo dentro de esa distribución extraña, casi como si hubiera pactado con la pereza.
Del sofá al diccionario, por qué usamos siempre las mismas palabras
Si lo piensas un momento, la ley de Zipf encaja con cómo hablamos cuando estamos cansados en el sofá o caminando distraídos por la ciudad. Usamos un puñado de palabras comodín para casi todo, y reservamos los términos raros cuando necesitamos afinar el significado, por ejemplo al hablar de ciencia ficción dura o de síntesis granular. Nuestro lenguaje se mueve en un equilibrio curioso entre la economía del esfuerzo y la necesidad de precisión, y Zipf parece capturar ese compromiso incómodo. Cuanto más general y útil es una palabra, más se repite, mientras que los conceptos muy específicos se esconden en la larga cola de lo poco frecuente.
Ese patrón no solo aparece en el diccionario; si miras tu historial de chats, verás que repites expresiones, muletillas, chistes internos, como si tu vocabulario cotidiano fuera un pequeño top ventas. Algunas palabras son auténticos éxitos de listas, siempre arriba del todo, mientras otras son lanzamientos limitados que usas una sola vez y desaparecen. Esa jerarquía implícita hace que el lenguaje resulte predecible, y justo esa previsibilidad permite a los modelos de lenguaje, y hasta a tus amigos, anticipar lo que vas a decir antes de terminar la frase. Quizá no seas tan imprevisible como pensabas, aunque tu ego lingüístico proteste un poco.
Más allá del lenguaje, ciudades, apellidos y descargas
La gracia de la ley de Zipf es que se escapó del diccionario y empezó a aparecer en sitios insospechados, casi como un cameo matemático. Si ordenas ciudades por población, verás que la segunda suele ser aproximadamente la mitad de la primera, la tercera algo menos, y así se dibuja una curva parecida, con pocas urbes gigantes y una legión de pueblos pequeños. Pasa algo similar con los apellidos en muchos países, algunos se repiten por todas partes, mientras otros son casi criaturas mitológicas que aparecen una vez cada muchas generaciones. Da la sensación de que la realidad adora organizarse en estructuras con unas pocas estrellas y un fondo inmenso de figurantes discretos.
Cuando miras descargas de apps, reproducciones de canciones o visitas a webs, el patrón vuelve a asomar, tozudo. Unas pocas aplicaciones lo acaparan todo, mientras un mundo infinito de proyectos minoritarios sobrevive con cifras anecdóticas. Zipf se convierte entonces en una especie de lente para mirar la desigualdad en la atención, no solo en las palabras. Aunque no explica por sí misma las causas profundas, sí nos recuerda que nuestras elecciones colectivas tienden a concentrarse, dejando una larga cola de opciones apenas visitadas. Y, de paso, nos invita a mirar con cariño esas rarezas que casi nunca salen elegidas, porque dan color al conjunto.
Zipf e inteligencia artificial
Los modelos de lenguaje actuales, esos que generan texto a toda velocidad, se alimentan justamente de estas regularidades que Zipf describió. Cuando una máquina aprende probabilidades de palabras, en realidad está navegando por una distribución donde unas pocas aparecen hasta en la sopa y otras son casi exóticas. Eso le permite predecir la siguiente palabra con bastante acierto, incluso sin entender del todo el significado profundo detrás de cada frase. Cuanto más se parece tu texto a ese paisaje zipfiano, más fácil resulta que la IA lo emule sin que salte ninguna alarma de rareza estadística. Aunque a veces meta la pata, claro, porque no es infalible.





