Nódulo materialistaSeparata de la revista El Catoblepas • ISSN 1579-3974
publicada por Nódulo Materialista • nodulo.org


 

El Catoblepas, número 45, noviembre 2005
  El Catoblepasnúmero 45 • noviembre 2005 • página 14
Artículos

Sobre el arte de no decir nada
o todas las palabras del presidente

Pedro Santana Martínez

Si uno ha perdido ya la capacidad y las ganas de enfrentarse a discursos como el pronunciado por el Presidente del Gobierno ante el Congreso de los Diputados el pasado día 2 de noviembre, tal vez pueda hacer un uso provechoso de los métodos de la lingüística cuantitativa, probablemente tan adecuados para la descripción de la abundancia como para la del vacío

Si uno ha perdido ya la capacidad y las ganas de enfrentarse a discursos como el pronunciado por el Presidente del Gobierno ante el Congreso de los Diputados el pasado día 2 de noviembre de 2005, tal vez pueda hacer un uso provechoso de los métodos de la lingüística cuantitativa, probablemente tan adecuados para la descripción de la abundancia como para la del vacío. Me permito por eso las páginas que siguen. Sin embargo, la gran trascendencia práctica que pueden tener los habituales discursos intrínsecamente insignificantes de algunos políticos –conviene insistir en que, para bien o para mal, otra cosa son sus consecuencias– es algo que no ha de contestarse sólo con discursos académicos, y menos si son de carácter filológico. Ante estas situaciones, puede invadirnos una acedía quizá tan ciudadana como profesional: feliz el lexicógrafo que no va más allá de registrar las acepciones que a palabras y términos algunos hablantes atribuyen. Más dichoso aún el gramático que no anda demasiado preocupado por las ideas que se mueven entre las líneas escritas o los discursos pronunciados en público. Paradoja del filólogo que señala a ideas y contenidos haciendo ver que se conforma con subrayar palabras: ese filólogo elige quizá con criterio artístico o con agudeza los elementos que analiza o interpreta; con seguridad traiciona la neutralidad que debería mostrar en su oficio. Así sean felices los resultados de su esfuerzo, eso no quita que hayan rebasado los límites de su disciplina.

Aquí nos proponemos mantenernos en el dominio del lingüista que se conforma incluso con menos que con la forma de las palabras; diríamos al modo de Hjemslev, con menos que con la sustancia de la expresión y la forma del contenido. Se trata de ver si es posible deducir la vacuidad de un discurso de sólo la superficie de sus palabras. Y de ver también para qué sirven tales discursos vacíos.

Dos maneras de no decir nada nuevo

En no pocas ocasiones se comenta de un discurso que es vacío, se dice de un orador que no dijo nada, asegura un oyente a otro que las palabras que ambos acaban de escuchar no son sino una cháchara insignificante.

Ahora bien, lo cierto es que un discurso puede ser intrínsecamente irrelevante (la política es el ámbito donde esto puede experimentarse a mayor escala por lo que hace al número de oyentes de un discurso), pero eso es algo muy distinto de que sea insignificante el hecho mismo de que se haya mantenido un «acto de comunicación» en que «no se haya dicho nada».

Además, cabe señalar que hay maneras diversas por las que un discurso (o un texto) puede ser perfectamente insignificante, y ahora queremos decir con ello, que por sí mismo no transmite información referencial alguna. Ello no obsta, naturalmente para que la pronunciación de tal discurso o la publicación de tal texto no cumplan una función apelativa que determine el curso de la conducta de los oyentes. Todo esto dicho en términos similares a los de la teoría del lenguaje de Bühler o, a su modo –que reproduce los elementos de la teoría de la comunicación–, a los de la teoría de las funciones del lenguaje de Jakobson. Dicho con la fórmula que popularizó la teoría de actos de habla, un discurso puede no decir nada pero hacer muchas cosas, o servir para que otros las hagan o dejen de hacerlas.

Aun de otro modo, un texto puede aportar en su estructura, en su semántica, una información (en el sentido usual de la palabra) nula o muy reducida, pero ser muy significativo o enormemente relevante. Puede también ser irrelevante porque la información que aporte, aunque abundante, sea ya totalmente conocida, pero también, y aun dándose estos dos mismos supuestos, puede ser la pronunciación o comunicación de tal discurso enormemente significativa, relevante y trascendental.

Por otro lado, un texto puede ser muy barroco (sintácticamente muy complicado, o semánticamente muy complejo por caótico) y no contener o transmitir ninguna información utilizable, como suele decirse. Otro caso, puede ser el del texto cabal, informativo, significativo, pero que resulta «incomprendido», por así decir, por sus destinatarios.

Tenemos pues, aun sin acabar de desplegar toda la combinatoria que sería aquí pertinente, varios elementos que considerar. El primero y más importante, probablemente, se refiere a la noción de interpretación. Dar una interpretación a un texto o discurso (oírlo o leerlo de manera que se afirme, con razón o sin ella, que se entiende) no es calcular una función cuyo único argumento sea ese único texto o discurso. La pragmática, por si hiciera falta una disciplina específica para dar a conocer algunas evidencias, lista una serie de elementos que pueden concitarse –utilicemos la fórmula otra vez– en un acto o proceso de comunicación. Una formalización, seguramente no del todo adecuada, de la función interpretación, debería considerar al menos dos argumentos para ella: el texto que se lee o el discurso que se escucha, y una estructura aneja que describiese, entre otras cosas, lo que a veces se llama conocimiento compartido entre hablante y oyente{1}. Los errores de interpretación procederían en buena parte de que ese conocimiento compartido fuese escaso, sin contar con que las cosas podrían ir peor si a esa disonancia se sumase el convencimiento por parte del oyente de que comparte los presupuestos del hablante.

Estas consideraciones tan esquemáticas pueden, no obstante ése su esquematismo, poseer alguna virtud y, para empezar, podría ser ésta la virtud de mostrarnos dos modos intrínsecos por los que un discurso podría ser «informativamente vacío», esto es, que no dijese nada interesante sobre nada:

  1. El discurso podría no transmitir ninguna información en sí mismo. Es el caso de los discursos intrínsecamente poco interesantes, que para su longitud dicen pocas cosas, que emplean perífrasis huecas para expresar perogrulladas. Ahora bien, un discurso también podría fracasar pragmáticamente por ser excesivamente «rico» o «denso».
     
  2. El discurso no añadiría nada al conocimiento compartido. Un discurso incluso impecablemente rico es repetitivo de algo ya sabido, fundamentalmente ya sabido por el oyente. Por ejemplo, repetir por enésima vez un mismo discurso ante la misma audiencia le convertiría en un discurso vacío de este tipo. Que consideraciones prácticas pudieran hacer muy necesaria tal repetición, para bien o para mal, implicaría que ese discurso todavía no ha sido aceptado, discutido o siquiera rechazado por el oyente. Por otro lado, puede considerarse también que un discurso demasiado novedoso es uno que añade más de lo conveniente al conocimiento previo del oyente.

Naturalmente, quedan otras variables que un comentador de textos o un pragmatista mencionaría aquí: una perogrullada «intrínseca» puede resultar una intervención muy oportuna en algunas ocasiones; la «revelación» del teorema de Pitágoras es irrelevante y, sobre todo, cabe imaginar que absurda, en un congreso de matemáticas, pero imprescindible en una clase elemental de geometría, &c.

Desde el punto de vista de la teoría de la información de Shannon han de hacerse, sin embargo, ciertas precisiones. Nótese, en primer lugar, que a partir de ahora «información» pasa a tener un significado técnico que diverge del habitual y que puede contradecir nuestras intuiciones. Para esta teoría todo depende de la cantidad de mensajes que una fuente pueda emitir y de su distribución considerada como una variable aleatoria: Si ha de emitir mensajes binarios de exactamente (y así nos evitamos que un mensaje incluya a otro como prefijo, aunque esto no afecta a nuestra discusión) longitud n, el número de mensajes posibles, como es bien sabido es de 2 elevado a n.

La información de la que habla esa teoría –Shannon aclaró que las consideraciones semánticas, o el conocimiento no tenían nada que ver con el problema de ingeniería que el trataba, y sin perjuicio de que él estuviera fundando una teoría matemática más allá de la ingeniería– se mide por la llamada entropía, función que cumpliría, no obstante lo dicho anteriormente, los requisitos básicos que le pediríamos para que estuviera correlacionada con la noción habitual de información. La entropía se dice de la fuente de los mensajes, cabe decir de la distribución de una variable aleatoria. Podemos igualmente asignar una entropía a cada mensaje, de manera que la de la fuente, la del conjunto de sus posibles mensajes fuera la esperanza matemática de la entropía de todos ellos. Si una fuente binaria sólo emite «unos», no informa de nada por cada símbolo que emita; otra cosa es que contemos los símbolos que emite (si nos aseguramos de que ha acabado la emisión de un mensaje). Nótese que puede decirse que un mensaje más improbable transmite más información, pero a no dudar el sentido de tal aserción precisa de contextos adecuados. Según un conocido ejemplo, si se ha obtenido un número al azar entre 1 y 1000, número que se nos permite adivinar por medio de preguntas a las que la contestación sea «sí» o «no», no es una buena estrategia comenzar preguntando si el número es menor que 2. Esto es obviamente porque la respuesta positiva a la misma es altamente improbable. Ahora bien, si la respuesta es «sí», tal respuesta sería extraordinariamente informativa: Hay dos mensajes posibles, uno con una probabilidad 999 veces mayor que la otra, y con una entropía unas siete veces menor. Como se trata de ahorrar, se pueden utilizar códigos que, además de cumplir con unos cuantos requisitos en que no vamos a entrar, sean tales que los símbolos más frecuentes se codifiquen de manera que sean proporcionalmente menos costosos de emitir, utilizando ciertas cadenas de los símbolos elementales, el cero y el uno. Un mensaje improbable por contener un gran número de símbolos improbables será más largo en número de símbolos elementales, unos y ceros. Como hemos dicho, se admite habitualmente que la entropía se corresponde bien con la noción intuitiva de información, pero ha de entenderse que el código utilizado determina cuánta información tiene, por símbolo elemental transmitido, una fuente, sin entrar en otras consideraciones ajenas al código y al mensaje.

Hay que subrayar que la información no tiene nada que ver intrínsecamente con la relevancia del mensaje ni con algo así como «la cantidad de conocimiento transmitido». La información aparece, desde luego, por la relación entre el mensaje y una matriz de posibilidades que se ordena según el código utilizado. Pero el «conocimiento» que se aprecia en un mensaje depende de la inserción de esa información, como entidad física más o menos convencionalizada pero compleja en una estructura más amplia.

La asignación de entropías a distintos mensajes puede hacerse para un código dado, esto es, la fuente emite símbolos de un catálogo previamente acordado con una distribución determinada. Una distribución máximamente entrópica sería una en que todos los mensajes fueran de igual probabilidad, lo que implicaría igual probabilidad para cada símbolo.

Como es sabido, hace mucho que estas ideas se aplicaron a las lenguas que hablamos –de hecho, ya lo hizo el mismo Shannon, aunque las estadísticas sobre lenguas son muy anteriores–, lo cual puede hacerse con respecto a los fonemas, las letras, las palabras, &c. Si nos referimos a las letras, está claro que la clave es partir de una buena lista de frecuencias de las mismas. Eso permite calcular una suerte de entropía cero, la cual sería una estimación claramente por exceso porque la aparición de las letras en los textos escritos depende fuertemente de las que han aparecido antes. En las lenguas se da una evidente redundancia y así la entropía de una lengua es menor que esa entropía de nivel cero. Todavía hablando de esta entropía de nivel cero, puede comprenderse fácilmente que un idioma escrito en que todos los símbolos alfabéticos fueran igual de probables podría transmitir más información a igualdad de longitud en letras que uno real en que unos símbolos no pueden seguir a otros, &c. La redundancia de las lenguas –como de cualquier otro código, según las circunstancias– es tremendamente útil porque permite una comunicación eficaz frente al ruido (que haría que en el lugar del símbolo emitido, al receptor le llegase otro distinto), y también porque eso hace que las lenguas puedan servirnos a algún propósito, hace que no sean terriblemente complicadas, imposibles de procesar, o simplemente de pronunciar. En otras palabras, si las lenguas tienen estructura gramatical, eso disminuirá su entropía. Que los discursos sean semánticamente coherentes, también.

Esta constatación nos señala claramente, por si hiciera falta, que el estudio de las lenguas rebasa ampliamente los límites de la teoría de la comunicación.

Una pequeña muestra

Una lengua absolutamente entrópica –nos referimos a una lengua en la que todas las unidades lingüísticas se comportasen exactamente del mismo modo– no sería una lengua. Para empezar todas las unidades tendrían la misma distribución: serían indistinguibles como componentes de un sistema, y ello aunque ese lenguaje permitiría el mayor número posible de mensajes para un número dado de símbolos.

Ahora bien, para una lengua dada cabría la posibilidad de estudiar fenómenos en que determinadas unidades se distribuyesen de manera muy entrópica –lo que equivale a decir, muy mezcladas con todas las demás y en el mismo grado de mezcla–, y que pese a eso, nos permitieran conservar la estructura de una lengua en el sentido habitual de la expresión, esto es, manteniendo las restricciones gramaticales y retóricas al uso. Pues bien, en lo que sigue vamos a introducir herramientas que apuntan a este tipo de situaciones. De hecho tomamos como ejemplo unos fragmentos del discurso pronunciado por el Presidente del Gobierno en Sede parlamentaria el pasado día 2 de noviembre de 2005{2}.

Debe entenderse, sin embargo, que nuestro estudio carece del rigor y método que serían preciso en un estudio que por encuadrarse en una disciplina de carácter estadístico, como lo es la lingüística cuantitativa, habría de basarse empíricamente en corpora completos y bien hechos o, al menos, en muestras tomadas adecuadamente y justificadamente representativas. Incluso, comprobará el lector cómo recurrimos a su experiencia personal a la hora de valorar ciertas magnitudes en la muestra tomada. Todo ello se justifica porque este trabajo busca más la puesta a punto y la discusión de unos conceptos teóricos que la conclusión bien fundamentada de un estudio empírico.

Lo que se ha hecho es entresacar del discurso citado los fragmentos en que aparecen el vocablo «identidad», que se copian aquí mismo para comodidad del lector:

  1. ha sido el más fecundo para el respeto de su identidad, para su autogobierno y para el bienestar de los catalanes.
  2. Nunca antes Cataluña había visto tan reconocida y respetada su identidad. Y esto no es casual: Cataluña ha disfrutado de autogobierno
  3. de sus pueblos y de reconocimiento de las señas de identidad de todos ellos.<p> España no se debilita cuando reconoce el
  4. España no se debilita cuando reconoce el autogobierno y la identidad de sus pueblos; muy al contrario, gana en fuerza, en
  5. reside la soberanía, en este espacio que alberga tanto la identidad común como las identidades de todos los pueblos de España.
  6. este espacio que alberga tanto la identidad común como las identidades de todos los pueblos de España.<p> Siento como mío cuanto
  7. igualdad y solidaridad.<p> Libertad, porque cada ciudadano puede vivir su identidad o sus identidades sin imposiciones. Porque no existe una manera
  8. Libertad, porque cada ciudadano puede vivir su identidad o sus identidades sin imposiciones. Porque no existe una manera única y forzosa
  9. no existe una manera única y forzosa de sentir la identidad, y así será siempre.<p> Igualdad, porque todos los españoles, nazcan
  10. dentro de una España de ciudadanos, libres para afirmar su identidad, iguales en derechos y solidarios en obligaciones.<p> De acuerdo con
  11. la cámara mis criterios sobre el mismo.<p> Señorías <p> Cataluña tiene identidad nacional y ello es perfectamente compatible con el artículo 2
  12. al promover el autogobierno de nuestros pueblos y reconocer sus identidades plurales. Pero ese progreso lo debemos, por encima de todo,

Se observará que no hemos recogido períodos u oraciones gramaticales completas, sino que hemos tomado lo que se llama «ventanas», fragmentos de texto en el que una palabra aparece justo en medio con un número igual de palabras a la izquierda y a la derecha, 10 palabras en nuestro caso. Tal expediente nos sitúa en lo que creemos ha de considerarse la metodología genuina de la lingüística cuantitativa, en la que los conceptos habituales de la sintaxis (constituyente, proposición, oración) no intervienen, salvo que precisamente los estemos cuantificando a ellos. El símbolo <p> indica punto y aparte. Aunque se han incluido los signos de puntuación no se han contabilizado para establecer la ventana{3}.

Nótese que nuestra muestra no es un texto, ni un conjunto de textos, aunque proceda de uno. Lo que hemos hecho es una concordancia de la palabra «identidad»; a partir de ella lo que haremos será tabular las palabras que la acompañan.

Introducimos ahora una distinción habitual, la que distingue las llamadas palabras con contenido o llenas de las palabras gramaticales, content words y grammar words respectivamente, en inglés: éstas últimas incluyen partes de la oración como los artículos, preposiciones, pronombres, conjunciones, &c., que suelen formar lo que se llama inventarios cerrados. A la citadas han de añadirse lógicamente otras más como los adjetivos determinativos o indefinidos y puede ser más discutible hacer lo propio con verbos auxiliares y con unos cuantos adverbios. Por otro lado, se supone que el significado léxico lo aportan sustantivos, adjetivos calificativos, verbos y algunos adverbios. Si eliminamos de los fragmentos anteriores, las palabras gramaticales o semánticamente vacías, nos quedaríamos con esto:

  1. fecundo respeto identidad autogobierno bienestar catalanes.
  2. Cataluña reconocida respetada identidad casual Cataluña disfrutado autogobierno
  3. pueblos reconocimiento señas identidad España debilita reconoce
  4. España debilita reconoce autogobierno identidad pueblos contrario gana fuerza
  5. reside soberanía espacio alberga identidad común identidades pueblos España.
  6. espacio alberga identidad común identidades pueblos España Siento cuanto
  7. igualdad solidaridad Libertad ciudadano puede vivir identidad identidades imposiciones existe manera
  8. Libertad ciudadano puede vivir identidad identidades imposiciones existe manera única forzosa
  9. existe manera única forzosa sentir identidad Igualdad españoles nazcan
  10. España ciudadanos libres afirmar identidad iguales derechos solidarios obligaciones acuerdo
  11. cámara criterios Señorías Cataluña identidad nacional perfectamente compatible artículo
  12. promover autogobierno pueblos reconocer identidades plurales progreso lo debemos

Como puede verse hemos pasado de 252 palabras en total a sólo 107. Estas cifras se refieren a apariciones totales repeticiones incluidas de las palabras, lo que en inglés se llama tokens. Por lo que se refiere a tipos de palabras, los types de la terminología en ese idioma, la reducción ha sido de 107 a 63. Repárese en que no hemos lematizado la muestra, es decir, no hemos sustituido formas flexivas de la misma palabra por una forma básica o lema.

La tabla que se ofrece no es una tabla de frecuencias de la muestra, sino de las frecuencias de las palabras vecinas a una dada. Por eso, de «identidad» e «identidades» se da la cifra de 4, porque la frecuencia absoluta es 16. Por otro lado, hemos eliminado 42 hápax legómena, es decir, las palabras que sólo aparecen en una ocasión. Las palabras que más acompañan a «identidad» en estas ventanas de anchura de 21 palabras son la misma palabra «identidad», «España» y «pueblos», seguidas de «autogobierno» y de «Cataluña». «Existe» y «manera» son palabras quizá presentes más como rasgo de estilo que como expresión de un contenido{4}.

identidad (es)4
autogobierno4
Cataluña3
pueblos5
España5
debilita2
reconoce2
espacio2
alberga2
común2
igualdad2
libertad2
ciudadano2
puede2
vivir2
imposiciones2
existe3
manera3
única2
forzosa2

Hay que hacer subrayar que la muestra con la que trabajamos no es desde luego un texto. Ha perdido palabras y con ellas coherencia y cohesión. Podemos tomar nuestra muestra como un fragmento de un corpus, el cual puede contener textos completos o sólo fragmentos.

Se nos ocurren a la vista de la tabla algunos comentarios iniciales. Constatemos lo siguiente: «identidad» aparece cerca de las palabras que podíamos esperar los ciudadanos que, inevitablemente, hemos escuchado este tipo de lenguaje. Uno podría temer sin embargo que la identidad se conectase en el discurso con cualquier cosa, o con las palabras de siempre pero de forma novedosa. Lo que encontramos es que precisamente nos podemos encontrar con que el discurso es «reconocible» en un sentido que se elucidará más abajo.

Nos limitaremos a señalar de momento lo siguiente: es posible reconocer un patrón al «vecindario», al hábitat del término «identidad». Aparece más acompañada por ciertas palabras que por otras, si bien no parece que tales palabras sean especiales de modo alguno en este discurso frente a lo que ocurre en otros en los que éste se inscribe. Digamos, en este discurso frente a un corpus de discursos, textos o intervenciones en que aquél se inscribe.

Si reducimos el significado de una palabra al conjunto de palabras que le acompañan, estamos estableciendo una relación entre la semántica léxica y la teoría de la información. Expondremos más abajo de qué modo.

Notemos además que los datos cuantitativos que ofrecemos se refieren al eje sintagmático en el sentido traslaticio de que nos ofrecen datos sobre lo que aparece en una serie de fragmentos de textos reales{5}, Ahora bien, el patrón que para una palabra podemos establecer en un texto determinado puede ampliarse con un muestreo adecuado a la lengua en el sentido no de sistema gramatical sino del conjunto de las relaciones semánticas en el léxico. Del modo similar, podría hablarse de la caracterización semántica de un texto con la misma tabla de frecuencias tomadas en conjunto{6}, caracterización que debería contrastarse con las distribuciones de las frecuencias en un corpus general. Las distancias se reflejarían «paradigmaticamente» en la topología de la red semántica que representase el léxico de una lengua o de un sublenguaje especializado.

Definiciones y discusión

Lo lleno semánticamente de un discurso vendrá determinado por el modo en que sus palabras de contenido aparecen. Se trata de definir una magnitud que se corresponda con esos «vecindarios» semánticos de que hemos hablado. Con todas las simplificaciones, se trataría de ver la entropía de las palabras de contenido o llenas en ese discurso. Ahora bien, podemos señalar algo que nos parece incontrovertible: un código formado por palabras llenas altamente entrópico carecería de todo significado en general (salvo casos de listas, &c.). Requerimos de una lengua que el significado de cada palabra sea el suyo propio, diferente, sin perjuicio de las relaciones semánticas que puedan reconocerse entre las mismas. Como lo que interesa es decir cosas con sentido, cualquier palabra no puede aparecer con cualquier otra. Pero esto nos da precisamente la clave para una estimación del significado de una palabra. Firth vino a decir, más o menos, que el significado de una palabra era justamente la lista (acompañada de las frecuencias respectivas, añadiríamos) de las palabras que la rodean en corpora suficientemente amplios{7}.

Estos vecindarios de las palabras en su uso se suele conocer, particularmente, cuando se habla de pares de palabras, bajo el término técnico de colocaciones. Un ejemplo bastará: «New» se coloca frecuentemente con «York». Imaginemos que «New» tiene una frecuencia relativa de aparición p y que «York» una frecuencia relativa q. Tomemos tales valores como las probabilidades de su aparición o presencia. Ahora bien, está claro que la aparición de una palabra no es un fenómeno independiente de la aparición cercana de otra. Si lo fuera, en el caso que nos ocupa la probabilidad de «New York» podría estimarse como P(«New York») = pq y la frecuencia relativa empíricamente contrastada se movería en torno a ese valor. Se comprueba, sin embargo, que «New York» es mucho más frecuente que pq.» «New York» no es un simple digrama, dos palabras seguidas, la palabra enésima y la enésima más uno o enemásunoésima de un texto. Es lo que se llama una colocación con todas las de la ley{8}.

No interesa tanto el constatar lo frecuente que es que «New» y «York» vayan juntas y en ese orden como descubrir hechos inesperados, dependencias léxicas o gramaticales que uno no hubiera previsto, lo que se realiza habitualmente mediante procedimientos informáticos{9}.

Nótese que al emprender esta estrategia hemos convertido la semántica léxica en algo que ya no es ni sintaxis, sino sólo un recuento. Nuestras advertencias de más arriba pueden verse ahora más claras: si para cada palabra tenemos la misma lista con las mismas frecuencias, la situación sería de entropía máxima, pero el discurso no serviría razonablemente al propósito de transmitir un conocimiento útil en el sentido de la función referencial. Aunque las lenguas suelan satisfacer algunas regularidades, como pueda ser con todas las salvedades la ley de Zipf, aquí se deja ver una vez más que una lengua no es un código, esto es, aunque una lengua se ajuste más o menos a principios de economía similares a los de los códigos eficientes, las relaciones entre palabras son aún menos aleatorias de lo que debieran ser de acuerdo con solas las restricciones gramaticales{10}.

Ahora bien, una baja entropía, la aparición perfectamente previsible de una palabra llena dada la anterior nos dejaría un lenguaje absolutamente inútil. Reaparece aquí la constatación de que las lenguas se mueven un rango de entropía relativamente estrecho y que armoniza no sólo economía y redundancia, sino también novedad en la información con capacidad para procesarla y describir regularidades.

A efectos de estudio empírico podemos introducir una entropía semántica que podría por un lado calcularse sobre muestras como las reunidas más arriba, pero que también podría aceptablemente estimarse por ejemplo con muestras más amplias.

Como propuesta de definición de la entropía semántica de una palabra, digamos que utilizaríamos la fórmula de la entropía en el caso discreto pero aplicada a las frecuencias de las palabras de contenido por encima de un cierta frecuencia en el conjunto de ventanas de la palabra dada.

Podemos igualmente definir la entropía semántica como una propiedad de un discurso determinado (o de un sublenguaje o una lengua, o un corpus) sobre las frecuencias relativas de las palabras llenas más frecuentes o sobre todas ellas. Siempre se trataría del opuesto del sumatorio de los productos de esas frecuencias multiplicadas por su respectivo logaritmo en base dos, sumatorio extendido a las frecuencias convenidas. Una entropía nos indica de alguna manera la singularidad semántica de una palabra, la otra se refiere a un texto en su conjunto. Por lo que hace a aquélla, puede entenderse que una entropía muy baja correspondería a situaciones no composicionales, a ciertas colocaciones fosilizadas terminológicamente. Por el contrario, una entropía muy alta señalaría –al menos en un corpus suficientemente amplio– una situación de vacío semántico, de palabra que cumple más una función gramatical (piénsese en el vecindario de la palabra «y», por ejemplo, absolutamente heterogéneo semánticamente en principio) que semántica o se ha convertido en una especie de comodín semántico vicioso.

Sin embargo, las situaciones descritas con esta entropía semántica sólo alcanzarían a los discursos que en caso de ser insignificantes lo fueran según la modalidad (a). De hecho, la palabra «identidad» presenta un perfil definido en el discurso de Zapatero. Sin embargo, el lector nos permitirá recordarle., como ya tuvimos ocasión de señalar, que ese perfil es demasiado conocido, en el sentido de que reproduce miméticamente otros discursos bastante usuales en nuestros tiempos. Por así decir, no aporta mucha novedad semántica esta parte del discurso considerado con respecto a un magma discursivo que corresponde a un conglomerado ideológico que no hará falta precisar aquí{11}. Esto no sitúa justamente en la situación de los discursos irrelevantes intrínsecamente de tipo (b).

De hecho, la teoría de la comunicación define varias magnitudes que establecen en sus propios términos la relación entre dos mensajes (en nuestro caso entre un texto y otro, o entre un texto y un corpus). Son magnitudes como la entropía mutua o la entropía relativa, que vienen a medir la cantidad de información que aporta un mensaje acerca de otro.

Puede proponerse análogamente una entropía semántica relativa que recoja información sobre la diferencia entre frecuencias relativas de las palabras más usuales del perfil de otra, en el caso de que nos centremos en una sola palabra o, más simplemente, entre las palabras más usuales en dos textos o un texto y un corpus.

No entramos en una formulación concreta, pero se trataría de una definición homóloga a la de la entropía relativa o cruzada que se encuentran en la literatura especializada aunque restringida a una clase de símbolos, las palabras llenas más frecuentes según la convención que se estimase adecuada.

Obiter dicta, algunos comentarios gnoseológicos

No es el objetivo de este artículo extenderse en análisis metodológicos o gnoseológicos ni siquiera de manera muy superficial. Nos parece, no obstante, útil introducir brevemente, y con toda la provisionalidad que hace al caso, un criterio acerca de la especificidad no de los métodos cuantitativos, sino de la lingüística cuantitativa, considerada más como una ciencia a la que los mismos métodos y enfoques cuantitativos nos dirigen de manera asintótica que como una ciencia que pueda ofrecer teorías en una fase avanzada de su construcción, como una ciencia reconocible por sus teorías y no sólo por su «estilo». De hecho, cabe pensar que los resultados más establecidos y armados de la lingüística cuantitativa son precisamente préstamos y arriendos que se toman de la teoría de la información.

Sobre textos y discursos es posible llevar a cabo estudios estadísticos, estilométricos, y ciertamente estas páginas se sitúan en ese contexto. Ahora bien, conviene distinguir los estudios que valoran las unidades textuales de acuerdo con criterios ajenos, relacionados con la verdad o el interés de las ideas expresadas o con algunas opciones tomadas de antemano –como nosotros más arriba con el término «identidad»– de aquéllos otros estudios en que se reduzca al mínimo los supuestos previos del estudio. Así pues, se ha de observar que magnitudes como las recién introducidas –y para las que no se reclama ninguna novedad, simplemente hemos preferido introducir conceptos desde abajo en lugar de exponer la doctrina tal como aparece en los manuales–, que son magnitudes que se presentan como un correlato empírico de los conceptos de la teoría de la información y que se insertan en una metodología que difiere de las técnicas tradicionales del análisis de contenidos en que, como hemos dicho, no establece categorías semánticas a priori{12}. Incluso la distinción entre palabras llenas y vacías se hace sobre el diferente carácter cuantitativo de sus inventarios, eso sí, una vez establecidas las partes de la oración por procedimientos distribucionales clásicos.

Aunque cualesquiera técnicas puedan tomarse –y se tomen de hecho– como herramientas de la estilometría, no han de tener como objetivo necesario la caracterización de un estilo o de la peculiaridad de un texto, sino más bien, llegar a conclusiones referidas, en su caso, al conjunto del léxico.

Bajo la etiqueta de análisis de contenidos pueden recogerse muchas metodologías de investigación y, desde luego, ninguna técnica cuantitativa le sería ajena, pero el criterio que separaría gnoseológicamente la lingüística cuantitativa como ciencia de la aplicación de sus técnicas en otras disciplinas sería fundamentalmente que no existiría ninguna clasificación de unidades léxicas (o lingüísticas en general) sobre criterios no cuantitativos.

Tampoco se trata de estimar el contenido informativo de un texto de un tipo determinado, por ejemplo científico, sobre la base del análisis del campo disciplinario en que aquél se inserta. La diferencia principal entre los métodos cuantitativos como integrantes de una disciplina separada y su aplicación dentro de otras disciplinas es que no se hace allí uso de otros principios externos que la fijación de un corpus o texto y el inventario de unidades lingüísticas muy básicas{13}. No se puede utilizar lo que se sabe de otra fuente, por así decir, en el trabajo. Al contrario, se habría de llegar a lo que se sabe de otra fuente o a otras cosas nuevas desde otros lugares y por otros caminos.

Dentro de la teoría del cierre categorial, parece correcto situar a la lingüística cuantitativa junto a otras disciplinas que encuentran o se aproximan a un cierre según el modo I-alfa2, lo que la distinguiría de lo que sucede en otras lingüísticas. Notemos que la diferencia con respecto a disciplinas como las citadas o aludidas (análisis de contenido, comentario de textos, atribución de autorías, ...), es que éstas muestran una situación beta muy clara. Son incluso, en algunos casos, disciplinas sin una clara vocación científica, de naturaleza más bien tecnológica.

Pese a todo, puede sospecharse que la lingüística cuantitativa es una disciplina que estudia el lenguaje como un código, que se reabsorbe dentro de la teoría de la información. la cuestión sería si la lingüística cuantitativa es algo más que la aplicación y desarrollo de los conceptos y métodos de aquélla a materiales lingüísticos, si podría decir de las lenguas algo más que su diferencia específica con respecto a otros códigos, si podría con sus propias armas distinguir a la lengua de los códigos de la teoría de la información, o si ya lo ha conseguido de hecho. Nos parece que una contestación positiva a estas interrogaciones se fundamentaría en la posibilidad de distinguir estadísticamente familias de discursos: la lengua de los científicos, la de los abogados, &c., tipologías textuales, pero no por sus evidentes diferencias, y no sólo terminológicas, sino por rasgos como las diferentes entropías semánticas de términos comunes a un tipo y a otro.

Entropía y complejidad

Una «alternativa» bien conocida a la teoría de la comunicación de Shannon (o que al menos suele presentarse como tal alternativa) y que parecería aplicarse en situaciones como las aquí consideradas la ofrece la teoría de la complejidad de Kolmogorov y Chaitin.

Dado que hemos incurrido ya a lo largo de este artículo en cierto didactismo –lo que no nos asegura que no hayamos cometido algún error más de lo debido, antes al contrario– se nos permitirá introducir un ejemplo que suele tomarse como ilustrativo en este terreno. Imagínese que queremos transmitir los cinco primeros millones de cifras decimales de pi. Eso son muchos bits porque no hay patrones en esa expansión decimal (parece que nos las habemos con un número normal de Borel). Si tuviéramos que transmitir una secuencia de la misma longitud que repitiese el patrón «01», bastaría con un mensaje más o menos como éste: <repetir «01» dos millones y medio de veces>. O sea, que hemos acortado el mensaje más que considerablemente. Sin salirnos de la teoría de Shannon, podemos comprimir un mensaje si el conjunto de éstos exhibe ciertas regularidades, mediante el código adecuado. Por ejemplo, en español podríamos, por sistema, acortar ciertas combinaciones de letras a un solo símbolo, y en muchas ocasiones sin pérdida alguna de información. El problema es qué código utilizar si transmitimos mensajes de apariencia aleatoria junto con otros de apariencia regular, en principio más infrecuentes y que asintóticamente para mensajes de longitud infinita forman un conjunto de medida cero.

En el caso de pi, el mensaje barato sería simplemente dar la fórmula de una serie que converja a pi –lo que no representa mayores problemas desde los tiempos de Leibniz y Euler– junto con la indicación de la precisión que queremos. Ahora bien, esto no supone otra cosa que un conocimiento compartido –dicho antropológicamente– entre emisor y receptor. Si éste no sabe suficientes matemáticas, no hemos transmitido lo que queríamos. La idea en que se basan los fundadores de la teoría de la complejidad a la que nos referimos –los ya citados, Kolmogorov y Chaitin, a los que suele añadirse el nombre de Solomonoff– es la de sustituir o representar el mensaje (la cadena de unos y ceros) por el menor programa de ordenador que diera como resultado tal cadena. Cuanto más largo el programa, más compleja sería aquella cadena de unos y ceros que se toma, por cierto, como descripción de cualquier objeto individual{14}.

Ahora bien, hemos introducido aquí una diferencia importantísima entre la versión antropológica» que hemos dado y la más correcta que hemos añadido después. En efecto, una cosa es un programa de ordenador e incluso unas instrucciones verbales para llevar a cabo repetidamente ciertos cálculos elementales y otra muy distinta escribir en un papel una fórmula en la que aparezca la sigma mayúscula del sumatorio, exponentes, &c. Una cosa es dar un programa y otra diferente es recurrir a los conocimientos matemáticos del interlocutor. Al hablar de éstos nos hemos salido de los términos en que se plantea la teoría, que son, desde luego, los primeros. Ahora bien, la generación meramente sintáctica de una secuencia de símbolos (al estilo del experimento del restaurante chino de Searle) se diría que no se corresponde con lo que verdaderamente habría de interesar cuando, por ejemplo, las estructuras que hay que describir pudieran ponerse en correspondencia con otras estructuras de diferente calibre o complejidad. Piénsese en, digamos, dos demostraciones de diferente complejidad para un mismo teorema. Una de ellas puede poner en juego más conocimientos matemáticos, puede no demostrar nada más que el teorema en cuestión, pero también pude conectar distintas regiones de la ciencia matemática. O piénsese en la complejidad de un conjunto de axiomas. Su generación puede ser relativamente sencilla, pero esa estructura soporta en su caso una inmensa colección de teoremas, que integran además una teoría, que mantienen relaciones lógicas y semánticas unos con otros.

Así pues, el programa de ordenador puede dar una medida de la complejidad un tanto discutible desde nuestra intuición o nuestros intereses{15}, pues parecería no recoger todo lo que la idea de complejidad encierra. En el caso de un texto, la dificultad procede, creemos, de que éste puede estar sujeto a interpretaciones diversas, lo que tiene que ver con que en lugar de uno tenemos –no dude el lector de que lo que sigue es más metafórico que otra cosa– más de un programa de ordenador. Permítasenos una vez más un ejemplo demasiado escolar. Sea el texto:

«En un triángulo rectángulo isósceles, la suma de los cuadrados de los catetos iguala al cuadrado de la hipotenusa.»

Desde luego, tenemos una complejidad lingüística que suelen medir los lingüistas por índices empíricos que suelen considerar parámetros tales como la longitud de las palabras y la de las frases, u otras más complicadas como las que se basan en la medida de la complejidad o profundidad sintáctica. Pero la complejidad de fondo, independientemente de la expresión lingüística –que sólo debería dar lugar a variaciones de complejidad perfectamente calibradas y acotadas en la teoría– tiene sentido respecto a la interpretación unívoca, no alegórica por ejemplo, de este breve fragmento. En concreto, si conocemos el teorema de Pitágoras, lo expresado es sólo un caso particular del mismo: nuestro teorema contesta a una hipotética cuestión en torno al teorema de Pitágoras y los triángulos rectángulos isósceles. No haría falta mucho programa para llegar a él si un dato de ese programa es este teorema.

En cambio, podemos imaginar textos y situaciones en que el conocimiento previo y el conocimiento compartido sean difíciles de acotar, en que no sepamos muy bien de qué se nos está hablando o que se nos hable de algo que no goce de la determinación del campo de la geometría{16}.

En cualquier caso, la teoría de la complejidad define una complejidad mutua o relativa con la que modelizar este tipo de problemas, complejidad relacionada con la entropía mutua de la teoría de Shannon, con la ayuda de la cual podría medirse la complejidad relativa de dos textos.

Como es sabido, Kolmogorov dedicó bastante tiempo al estudio de la poesía y de la información que transmitía. No entraremos aquí en las ideas del matemático ruso sobre asunto tan complicado, pero, más allá de argumentar desde esa autoridad sobre la importancia de ese tipo de discursos para la teoría, podemos presentar la hipótesis de que el problema con ese tipo de textos tiene que ver precisamente con la dificultad de fijar cuál sería, en los términos antes utilizados, la entropía semántica relativa de los textos poéticos porque sería prácticamente imposible fijar el texto o corpus con el que comparar el texto poético, desde el punto de vista de una inclusión tan clara como en el ejemplo anterior. Otro asunto es, desde luego y en aplicación de una distinción que ya hemos introducido, comparar dos textos o corpora, a efectos filológicos o forenses, en que los dos términos de la comparación vendrían dados de antemano.

Si nos alejamos de estas cumbres de lo sublime que hemos visitado brevemente, podemos plantear el asunto de las entropías semánticas relativas que pueden esperarse en distintos campos disciplinarios. Podemos esperar que la fijación, para un texto científico, sea sencilla, no tanto para una novela o algunos textos ensayísticos.

Por un lado, fijada esa referencia, el cálculo de lo que llamamos entropía semántica será sencillo, si olvidamos los problemas constitutivos que pueda tener una definición de tanta vocación empírica como la nuestra. Ahora bien, la complejidad del texto, tendría que ver no sólo con esa entropía semántica relativa, sino también con la misma naturaleza de esa referencia, su extensión e, incluso, la dificultad de fijarla.

Estas consideraciones nos parecen que afectan a la posibilidad de aplicar la teoría de la complejidad en el sentido de Kolmogorov a situaciones que se refieran a textos y discursos. Se señala a menudo que no importa la complejidad de una secuencia para su transmisión: si tenemos dos secuencias enormemente complejas, podemos transmitir una con un cero y la otra con un uno, suponiendo que el receptor las conozca o las pueda generar. Ahora bien, es cierto que existen programas para la generación automática de textos poéticos. Sin embargo, no parece que puedan existir para la generación automática de todas las posibles interpretaciones de un texto poético.

Excurso: Sobre la entropía semántica de una teoría (frente a un subconjunto cualquiera de sentencias)

En un lenguaje L, se establece una teoría axiomática. Los teoremas pertenecientes a dicho teoría serán un subconjunto de las cadenas de L bien formadas gramaticalmente. Si tomamos el subconjunto de todas las cadenas de longitud menor o igual a una longitud n de L, ese subconjunto contendrá cadenas que no hallaremos si hacemos la misma operación con la teoría T, al menos en los casos de teorías interesantes. Si tomamos una «teoría» que incluya una contradicción en sus axiomas, nos encontraremos con una situación similar. Las teorías vienen limitadas por sus constantes léxicas, ya sean individuales, de predicado, de predicado de segundo orden, &c., pero no sólo por eso, como resulta claro.

Admitiremos que los enunciados de una teoría se parecen más entre sí que los de una teoría inconsistente y que todos los enunciados del lenguaje en que se escribe la teoría. Ese parecido puede estimarse en términos de entropía.

Así, puede esperarse que si observamos la distribución de entropías de todos los subconjuntos posibles de enunciados acotados, se registrará una entropía mayor en los conjuntos de enunciados que han sido elegidos de más de una teoría o que proceden de una teoría inconsistente. A la inversa, las cifras más baja de entropía corresponderían a conjuntos homogéneos, tomados del mismo lugar. Esto nos permite también comparar las entropías de teorías diversas. En concreto, una teoría puede ser más pobre que otra, contener menos información, lo que estará correlacionado con la complejidad de los modelos de la teoría. Una subteoría sería menos entrópica y menos informativa que la teoría de la que se ha tomado.

Nótese que el punto clave intuitivamente reside en lo distintos y lo iguales que sean los enunciados entre sí y el número total de enunciados (por ejemplo para cada longitud de enunciado). Una teoría será más entrópica en el sentido que aquí estamos manejando cuando, a igualdad de número de símbolos, más similares sean las frecuencias de co-ocurrencia de cualquier pareja de símbolos, en particular constantes individuales o predicativas.

Las comparaciones entre fragmentos de la teoría, o entre un fragmento y la teoría, podrían realizarse también desde este punto de vista. Lo que nos importaría ahora sería la proporción entre el parecido interno de los enunciados del «discurso» considerado, por ejemplo, una demostración y el de éstos con el resto de la teoría. En el caso de la demostración, debería esperarse –salvo que se recurra a regiones de la teoría en principio alejadas de la región donde se formula el teorema a demostrar– una entropía relativa relativamente baja, pero esto no tiene por qué ser así. Si se toman las diferentes demostraciones del teorema de la infinitud de números primos, el cálculo nos ofrecerá cifras de entropía muy diferentes, relacionadas con la longitud de las demostraciones y también con el «vocabulario» utilizado en las mismas.

Para ver qué debemos esperar en general, tomemos como caso más sencillo una demostración elemental del teorema de Pitágoras. Por un lado, en la geometría no aparece cualquier término tan junto con otro como con cualquiera: «hipotenusa» aparece cerca de «rectángulo» pero no tanto de «Brianchon», por ejemplo. Sin embargo, una geometría «falsa», inconsistente podría caracterizarse por una menor diferencia en esas distancias.

En segundo lugar, la información mutua entre hipotenusa y cuadrado en la demostración debería ser diferente que en el conjunto de la teoría. Si esto no se cumple no deberíamos encontrar especialmente informativo ni el teorema de Pitágoras ni su demostración.

Otra vez, aplicado este resultado hipotético a un discurso particular –que puede presuponer una teoría determinada o unos conocimientos no sistematizables–, nos veríamos a concluir que un texto de gran entropía semántica puede más probablemente incluir o implicar una o más contradicciones o incompatibilidades, ya sean expresadas gramatical o de carácter léxico Si esto es así, nos veríamos obligados a retirarle a un discurso altamente entrópico el carácter de racional. Concluiríamos que no es un discurso, sino algo más parecido a lo que se puede esperar del tan emblemático grupo de chimpancés delante de una máquina de escribir: estaríamos seguros de que cualquier sesgo no respondería más que a los mínimos fisiológico-conductuales del chimpancé mecanógrafo, cuya trayectoria de mínima acción no vendría en absoluto determinada por una dosis adecuada de entendimiento. En cuanto a su texto, no haría falta decir de qué teoría es –tomados extensionalmente sus enunciados– un subconjunto.

El discurso fático

Tenemos que la entropía semántica de una palabra en un discurso puede ser mayor o menor y que la entropía semántica relativa a un corpus de referencia puede ser también mayor o menor. En principio, entropías relativas altas indican originalidad o información no repetida. Sin embargo, puede comprenderse que la elección del corpus de referencia no es trivial, sobre todo porque debe corresponderse con el conocimiento compartido por hablantes y oyentes. Nos vale una ilustración que ya hemos utilizado más arriba: enunciar el teorema de Pitágoras y demostrarlo es algo necesario en una clase elemental de geometría. No lo sería, hemos de suponer, en un congreso de Matemáticas. El cuadro que tendríamos sería más o menos así:

entropíaentropía relativabajamediaalta
bajadiscurso poco o nada novedosodiscurso poco novedosodiscurso novedoso
mediadiscurso algo informativodiscurso informativodiscurso difícil e informativo
altadiscurso difícildiscurso difícildiscurso improcesable

Este cuadro es más que discutible y por varias razones pero lo utilizamos a título de primera aproximación. Lo que queremos indicar es que parecería que existe un rango adecuado de entropías semánticas que caracterizaría el discurso significativo y eficaz, lo que sin duda habría que conjugar con un discurso formalmente efectivo o bien construido que pusieran en valor esa entropía semántica del texto. En otras palabras, si en las lenguas observamos unos márgenes de entropía que deben ser funcionales, al considerar entropías semánticas y entropías semánticas relativas se podrá comprobar que la «utilidad informativa» de un discurso ofrecerá, en general, un máximo para unos determinados valores intermedios de ambas entropías. Nótese, pese a este lenguaje, que «utilidad informativa» no es algo que hayamos definido, ni podemos, más allá de la metáfora, cuantificarla y expresar una función que las relaciones con nuestras dos entropías. En este sentido, permítasenos utilizar adjetivos calificativos tan borrosos como lo que aparecen en la tabla.

Ahora bien, es un hecho, por más que planteado ahora con poco rigor, que existen y triunfan, son aplaudidos y repetidos, discursos con muy baja entropía relativa{17}. Un discurso como el que venimos utilizando a lo largo de esta trabajo, al menos en la porción de la que hemos extraído los fragmentos{18} sería muy claramente de este tipo, no exactamente porque los interlocutores, o algunos de entre ellos, acaben por oír lo que de antemano querían oír, sino porque es muy parecido en su perfil a una familia de discursos compartidos y generalmente intercambiados entre ellos.

Podemos confirmar lo expresado en la introducción en el sentido de que un rango de entropías intermedio es lo que conviene al discurso referencial, a aquel que estaría orientado en el sentido de la función referencial de Jakobson; pero, por otro lado, no podemos descartar que ciertos discursos se encaminen sobre todo a la determinación de la conducta de los oyentes; esto es, se orienten de acuerdo con la función apelativa. Aquí, se nos permitirá, seleccionar un tipo de discursos en los que sostendremos que predomina lo que –hablando de sujetos humanos y no de procesos de comunicación– no sería sino una subclase aquélla. Nos referimos a los discursos dirigidos al mantenimiento de la comunicación, del diálogo, al tiempo que excluyeran su sustantividad semántica referencial. En otras palabras, al mantenimiento de un canal y a la disponibilidad de emisor y receptor, a lo que Jakobson llamó función fática.

Esta función fática, absorbible en las funciones referencial y apelativa, se distinguiría muy bien de la función metalingüística. En estos discursos a los que nos estamos refiriendo no se trata en general de afinar el código utilizado o aportar información sobre él. Naturalmente, si la estrategia discursiva de que hablamos, si este uso de lenguaje, se inscribe en un marco más amplio, se descubre que tal función puede no servir sino a un simulacro que oculte las verdaderas acciones y objetivos de quien incurre en ellos. No podemos entender esta función fática por sí misma sino precisamente en unos cursos de acción perfectamente definibles. Lo que viene a suponer es la separación del discurso de la toma de decisiones. Sirve a la finalidad de dejar hacer mientras se promueven los intercambios lingüísticos.

En algunos casos, este uso fático requiere mensajes de alta entropía en el sentido traslaticio que aquí damos al término. Esto permite identificaciones menos arriesgadas, pero no es lo habitual porque realmente no nos referimos a que un interlocutor haya de identificarse ante otro como uno entre muchos posibles, sino que precisamente sigue siendo el mismo de antes, o siguen siendo los mismos sus propósitos, diga lo que diga o, mejor, sin que diga nada. Un ejemplo sería el de los llamados «mensajes tranquilizadores».

Dicho sea de paso, encontramos una fenomenología que puede analizarse en este contexto en el ámbito de la moda. El conjunto de los descriptores de una moda es relativamente independientemente de cualquier otra cosa. Ahora bien, puede darse el caso de que su complejidad cumpla la función de evitar identificaciones espurias, que se utilice a fin de identificar a unos pocos individuos entre muchos que pretenden establecer una relación de pertenencia definida por la moda.

No se trata de proscribir este uso del lenguaje porque es indispensable: Cuando un profesional emplea el sublenguaje o la terminología de su oficio se hace reconocer como tal, pero ha de estar diciendo algo. El consabido anecdotario del personaje que salpica su conversación con términos técnicos para hacerse pasar por experto en algo que desconoce nos pone delante de mensajes o discursos con una entropía relativa similar a la del discurso del experto o profesional, pero probablemente con mayor entropía semántica propia, porque el aficionado mezclaría indebidamente unos términos técnicos con otros.

Este personaje y, en general, quien emplea este lenguaje fático pretende la consolidación no sólo del canal del comunicación y del acto de la comunicación, sino, y como parte de ese proceso, también el reconocimiento mutuo entre emisor y receptor, lo que se compadece precisamente con una concepción del diálogo en que lo importante sea el vacío previo de cualquier contenido sustantivo de las palabras que se dicen y se escuchan.

Desde el punto de vista del científico, la hipótesis que acabamos por dibujar es que existe una relación entre la entropía de la distribución de ciertas palabras (que no serán la explícitamente fáticas) y su función más pragmática que semántica, más fática y consecuentemente apelativa que referencial.

Ahora bien, esto tiene varias consecuencias: Quien utiliza un signo con una finalidad no referencial puede hacerlo también en atención a otras terceras partes que sean testigo de su uso. Su mensaje se inserta en una ceremonia que excluye, por tanto, el uso referencial del lenguaje.

Las palabras entrópicas siguen fungiendo de simulacros semánticos, y pueden cumplir una función retórica de nexo o de secuencia importante. Es decir, pueden engañar acerca de la calidad del discurso, como se dice, al menos a algunos y por algún tiempo.

Por lo que se refiere a la aplicación de esta idea a un discurso concreto, cabría investigar si el mismo cumple globalmente ese tipo de función, de reconocimiento mutuo, más etológico que lógico, antes que cualquier otra función. Algo que se corroboraría si una vaciedad se complementase con otra.

En cualquier caso, debe esperarse que estos discursos sean de muy baja entropía semántica relativa. Un discurso fático puede ser muy complejo, pero no se aceptaría que incluyese contenidos imprevistos, que no pertenezcan a los lugares comunes compartidos. Una situación distinta es la que hemos señalado a propósito de la moda: la moda funcionaría más bien como una clave autentificadora; por eso, se espera que sea, en su caso, compleja y de alta entropía relativa (comparada con lo que saben todos menos los iniciados, para los que es nula), si se trata de no permitir que al grupo de los «iniciados» se agreguen miembros indebidamente. Si de lo que se trata es de informar sólo de algo así como de que seguimos actuando de la manera que se espera de nosotros, de que no hemos cambiado de planes, es preferible utilizar mensajes sencillos.

La indefinición fática en política

A la vista de intervenciones como la que nos ha servido de motivo y haciendo uso de las ideas expuestas, puede intentarse la caracterización de determinados movimientos o grupos políticos de acuerdo con su uso predominantemente fático del lenguaje y con la interpretación que pueda hacerse de ello.

Lo cierto es que lo esencial en un mensaje de los que hemos caracterizado con ese adjetivo es que contiene muy poca o ninguna información referencial nueva. Lo que definiría desde coordenadas lingüísticas a tales movimientos o grupos sería precisamente que sus intervenciones discursivas serían extraordinariamente poco informativas frente a marcos de referencia que compartirían con su clientela.

Esto, sin embargo, no cabría asimilarlo sin más a la «falta de ideas», sino más bien a la asistematicidad y extrema volatilidad de aquéllas que puedan ser aludidas en sus discursos. El lenguaje «vacío» de tales políticos se movería entre tópicos que se saben admitidos por el interlocutor preferente (aunque pueda mostrarse el discurso también hacia otro público disidente del que se espere precisamente una manifestación de desacuerdo).

Tales grupos o movimientos lo que buscarían sería tan sólo auto-reconocerse independientemente de cualquier otra cosa, fueran cuales fueran los valores que dieran a las variables políticas que puedan considerarse. Que puedan seguir haciéndolo se deberá quizá a que la ciudadanía ha admitido separar la acción política de la discusión racional en beneficio de un simulacro. Los mensajes más sustanciales, por su lado, desde tal punto de vista, vendrían a «crispar la vida política».

Si hablamos de la izquierda, se trataría de una izquierda «semánticamente nula» (que no es lo mismo, antes al contrario, que decir que lingüística o estilísticamente irreconocible), que intenta sobre todo guardar el paso con los tópicos doctrinales al uso, no necesariamente relativos al dominio de la política. Paralelamente, no podemos excluir de esta situación a ninguna tendencia política. Sin embargo, sería también necesario distinguir entre un discurso vacío a efectos de mitin o propaganda electoral y otros registros programáticos o doctrinarios o, en último término, comprobar si la práctica retórica de un partido o grupo presenta un hiato entre lo que escribe y lo que dice.

Por lo que respecta a la llamada izquierda indefinida, nos encontraríamos seguramente con que esta izquierda fática estaría cerca de la izquierda extravagante, pues se caracterizaría por aunar de forma desordenada a su discurso habitual cualquier tópico o asunto de actualidad que pudiese cumplir una función de identificación. Nos tememos, no obstante, que el predominio de lo fático (a fin de cuentas, con larga tradición en retórica) no se limite a esta subespecie de la izquierda indefinida.

No es éste el lugar para discutir el tópico de la volatilidad de las ideologías políticas. Sí parece claro que no puede haber una izquierda definida que sólo disponga de una agenda caótica, que baile al son que le parezca que le tocan en cada momento. Entre otras cosas porque su indefinición alcanza a su carácter de instancia política. La redefinición relativa de izquierda y derecha parece que se corresponde con una permeación del estilo de la izquierda indefinida en sus subespecies extravagante y divagante dentro de otras izquierdas remanentes. Por un lado seguiría yendo el programa político –concedamos esto, no que ese programa fuera de izquierdas en algún sentido precisable– y por otro la conversación de la izquierda, en que la entropía aumentaría sin freno, y en que, por consecuencia, dado que cada discurso se dibujaría en un marco altamente entrópico, no podría añadir un contenido propio diferente, informativo, sobre todo si la consecuencia vitanda fuera la de separarse de ese magma compartido. Mientras, a cierta escala, la entropía semántica sería muy alta, la entropía semántica relativa sería muy baja, pues los motivos y temas se tomarían miméticamente de un catálogo donde vindicaciones y derechos aparecerían desordenados. Ese discurso y todos los demás vendrían en su caso a mantener la ilusión de la comunicación, lo que equivale a proscribir la polémica y la razón en último término.

Indefinición pura y simple y vaciado semántico. Habríamos pasado de la desconexión entre los motivos retóricos y las variables políticas a la sustitución de aquellos por una sucesión de flatus vocis. No hay mejor diálogo que el que no se entorpece con cuestiones de contenido.

Notas

{1} Que se puedan dar valores a la segunda «variable», que éstos valores se puedan estimar o medir, es lo que distingue a unas y otras escuelas de teoría literaria que se centran en la «recepción del mensaje literario». Para algunas, esta variable es absolutamente indefinida, indescriptible, pero al mismo tiempo absorbente de la variable texto. Así, éste desaparecería en su objetividad para ser reemplazado por interpretaciones totalmente imprevisibles y «libres». Para otras escuelas, es posible introducir cierto orden en esa variable a través de una clasificación en grupos, épocas, o clases sociales de los lectores.
La analogía entre interpretación literaria y función lógica o matemática se sustenta sobre el hecho de que el lenguaje humano es efectivo tan sólo sobre la base de un saber lingüístico y no lingüístico compartido. En este sentido, un texto puede verse como una expresión funcional con algunos huecos para argumentos sin satisfacer. La interpretación consistiría en dar valores más o menos adecuadamente a tales variables con conocimientos extralingüísticos. Es fácil incurrir en una frivolización grave en estos terrenos, sobre todo si se pretende que la analogía es algo más que eso y se abusa erísticamente del asombro que determinada terminología procura (lo que habría denunciado Sokal). No obstante, piénsese -a modo de ilustración de la comunicación de las ideas- cómo la idea de infinito en algunas modulaciones recientes, como la de asimilación de un mensaje a la subcadena inicial de una cadena infinita &c. aparece insospechadamente en terrenos como en el de la llamada teoría literaria. En las clases de esta materia se ha venido enseñando que un texto no tiene conexiones con ningún significado, con lo que es exterior al lenguaje, &c. de manera que un signo se conecta con otro y éste con otro hasta el infinito. Da la sensación de que ciertas escuelas de pensamiento no han descubierto otra cosa que el hecho de que podemos dar una representación formal y finita de un proceso que incluya su propia reiteración.
En cualquier caso, aquí no seremos tímidos en lo que hace a la aplicación, aunque sea por analogía, de la sombra de ciertas ideas matemáticas a los estudios sobre el lenguaje.

{2} Debemos agradecer al mismo la abundancia con que nos surte de discursos que encajan en las dos modalidades antes consignadas de discursos intrínsecamente inanes, que no objetiva o extrínsecamente irrelevantes según veremos, y debemos agradecerle el hecho de que el citado discurso haya servido de inspiración, aunque por paradoja, de este artículo.

{3} Si se pretende otra cosa, por ejemplo el etiquetado de las partes del discurso, seguramente será muy pertinente contabilizar los signos de puntuación.

{4} De hecho, los análisis encaminados a la atribución de autorías toman en consideración sobre todo las palabras gramaticales, las cuales sería más definitorias del estilo, mientras que el léxico lleno vendría determinado en mayor medida por el asunto o lo narrado en la obra en cuestión.

{5} Datos que pueden utilizarse en la definición de distancias entre términos y palabras más complicadas o que tengan en cuenta estructuras más complejas.

{6} Repárese en que tomaríamos todo el texto y es de esperar que los datos relativos a frecuencias difieran.

{7} Esta idea se halla a la base del análisis de significados a partir de búsquedas masivas en Internet.

{8} Pueden darse definiciones más amplias de colocación, de manera que se incluyeran otros patrones léxicos que aparecieran en los textos. Por otro lado, en muchas definiciones de composicionalidad, se añade que el significado de las colocaciones no es, o no es en cierta medida, composicional, esto es, su significado no es una función del significado de sus palabras componentes. Puede pensarse que el «éxito» estadístico de una colocación se correlaciona con el carácter no composicional, porque no debía esperarse que un digrama composicional estuviera muy por encima de la frecuencia esperable si las probabilidades individuales fueran independientes. Que no lo sean, nos debía hacer pensar en que estamos ante, por ejemplo, la denominación, de una clase de entidades que no puede tomarse como subconjunto de los conjuntos referidos por los componentes aislados.

{9} Nótese que en un texto o en un corpus podemos buscar un patrón dado, una familia de patrones, o, por el contrario, podemos buscar patrones identificables estadísticamente por su frecuencia, por ejemplo, pero sin que partamos de un patrón preestablecido, al estilo de la minería de datos.

{10} Por eso, no es lo mismo adivinar la letra que sigue en un texto que la palabra que sigue a otra: podemos ver cómo a nuestro conocimiento fonológico se añade nuestro conocimiento sintáctico y, en último término, nuestro conocimiento acerca de las cosas de las que se habla.

{11} Dicho sea con toda neutralidad. Podría alguien admitir el carácter redundante de estos discursos y replicar algo así como que «está muy bien que se digan estas cosas», lo que vendría a confirmar el carácter de ese discurso.

{12} Una metodología opuesta, que –por cierto– se ha podido ver en la prensa estos días, es la de valorar o comparar discursos sobre una lista de términos preestablecidos de antemano y que se consideran pertinentes y reveladores.

{13} Definibles por procedimientos estructuralistas y distribucionalistas clásicos, como ya se dijo.

{14} En las presentaciones de la teoría, es común el énfasis en que la teoría de la complejidad toma como objeto de estudios a individuos y no a distribuciones de probabilidad que, se supone, implican la referencia a muchas clases de individuos. Nos abstenemos de entrar en esta cuestión de un calado gnoseológico extraordinario.

{15} Existen muchas otras medidas de complejidad, algunas de las cuales pueden aplicarse al dominio del lenguaje.

{16} Sin embargo, el cierre categorial de una disciplina no supone en caso alguno algo así como una acotación de la complejidad de los enunciados de la misma. de hecho, es el cierre lo que permite la construcción de objetos más complejos con representaciones más complejas.

{17} Sigue, no obstante, existiendo a la hora de hablar de entropías relativas, la cuestión de tomar el corpus adecuado para la comparación.

{18} Al menos en su primera mitad de donde proceden 11 de los 12 fragmentos recogidos. Parece que esa parte del discurso estaba destinada a que fuera reconocida por los oyentes nacionalistas, mientras que los ajustes y arreglos técnicos de la segunda, se dirigía sobre todo a tranquilizar a las fuerzas políticas y ciudadanos no nacionalistas, lo que parecía que se pretendía no tanto con el recurso a medidas ya comúnmente conocidas como con el recurso al lenguaje puesto en circulación públicamente por quienes patrocinaban arreglos y componendas parciales.

 

El Catoblepas
© 2005 nodulo.org