Ciencia Arte Lenguaje

El lenguaje como como un proceso cognitivo (1983)

Por Ernesto García Camarero
 

Este articulo apareció en la revista LIBROS de la Sociedad Española de Crítica de Libros, en 1983.

Terry Winograd Language as a cognitive process Vol. 1 : Syntax.- AddísonWesley 1983 640 p.

La informática ha obligado a que la ciencia tenga entre sus objetos de estudio uno que, sin ser nuevo, habla pasado desapercibido aunque usado : la información. De hecho, esta afirmación no es del todo correcta, si consideramos a la lingüística como el antecedente natural de la informática. En efecto, hasta la aparición de los ordenadores, la información estaba depositada en las lenguas habladas por el hombre, y la lingüística ha tratado de dar respuestas a los fenómenos del lenguaje entendido este como uno de los atributos que distinguían al hombre de los otros seres de la Tierra.

La aparición de los ordenadores ha hecho que la Información circule, se elabore y se interprete sin necesidad de la intervención humana directa, ha hecho que surjan lenguajes artificiales y ha hecho que se preste a la lingüística una nueva forma de abordarla usando la informática como metáfora.

Dejando de lado, por pueriles y deformadoras, las ideas antropomórficas con que a veces se ha considerado a los ordenadores, no cabe duda que su estructura tiene algunas analogías funcionales con las del ser humano, que podemos agruparlas en tres tipos : sentidos, memoria, inteligencia. Los sentidos son los órganos del ordenador por los que percibe información, ya sea en forma simbólica (como las lectoras de tarjetas, los teclados, etc., ...) o como magnitudes físicas (sensores de temperatura, de presión, etc.) en los que la simbolización se hace automáticamente. La memoria permite el almacenamiento (temporal o permanente) de Información estructurada para facilitar su búsqueda, o para permitir asociaciones o inferencias La inteligencia (llamada artificial) está compuesta en un ordenador por los dispositivos físicos adecuados (unidades de control, aritmética, etc.) y por los programas mediante los cuales pueda elaborarse la información "percibida" o "recordada" por el ordenador. Además, el desarrollo de la robótica agrega a esta analogía músculos mediante los que ejecutar acciones físicas como respuesta a la información elaborada.

Esta nueva situación ha hecho que la psicología y la lingüística dirijan su mirada al ordenador y se interpreten dentro de la metáfora informática, se consideren como originadas por procesos de conocimiento y surja así lo que ya se llama ciencia cognitiva. [En este marco debe situarse la aparición y desarrollo de las bases de datos y considerarse estas como los inicios de una nueva forma de representación del conocimiento que conducirá, sin duda, a la aparición de una nueva forma de lenguaje que signifique un cambio tan transcendental como lo fue el paso del lenguaje oral al escrito.]

En el libro de reciente aparición de Terry Wínograd titulado Language as a cognítive process, se considera al lenguaje como fenómeno psicológico y computacional, y a la actividad del lingüista, dentro de este marco, como consistente en descubrir la estructura del conocimiento y los procesos lingüísticos que realiza un hablante individual.

Winograd considera en su libro los distintos paradigmas por los que ha pasado la lingüística y propone como modelos ejemplos de otras ciencias tomados de cada &poca; as ! asocia la lingüística con el derecho, en el caso de la gramática prescriptiva ; con la biología en el caso de la lingüística comparativa ; el estructuralismo es asociado con la química ; la lingüística generativa con la matemática, y tras plantear el paradigma computacional termina considerando al lenguaje como un proceso cognitivo.

Este enfoque, el cognitivo, abandona la idea de que el lenguaje es una forma del comportamiento social humano, y por tanto deja de considerar la gramática como algo prescriptivo, y a la lingüística como un cuerpo de leyes, como la legislación necesaria para regular y controlar una forma particular de comportamiento social.

También la lingüística cognitiva usa un modelo distinto al empleado por la lingüística comparativa, que se ocupaba de las relaciones entre los lenguajes y de su evolución, de forma análoga a como la Historia Natural estudiaba las especies donde la taxonomía jugaba un papel especial.

La lingüística estructural de Saussure y de Bloomfíeld, según las analogías expuestas por Winograd, utiliza un modelo tomado de la química, al considerar, como elemento esencial de estudio, la estructura de un lenguaje particular.

Este enfoque considera al lenguaje desde un punto de vista empírico y establece como materia prima para su estudio los "corpora" de expresiones lingüísticas emitidas naturalmente ; así, de forma análoga a como el químico realiza experimentos para determinar cuáles son las moléculas que componen una substancia compleja, y analiza las moléculas en función de sus elementos básicos (elementos pertenecientes a un reducido conjunto de primitivos cuya combinación puede darnos un gran número de las substancias que encontramos en la naturaleza), el lingüista descubre que en el lenguaje las sentencias u oraciones están formadas por palabras, y que éstas son secuencias de sonidos tomados de un reducido conjunto de fonemas, con cuya combinación, mediante ciertas reglas, obtenemos las composiciones lingüísticas usadas por un hablante natural.

Cuando en 1957 se publicó Syntactíc Structures de Noam Chomsky, la lingüística empezó a utilizar el modelo matemático como método de estudio. Se rechazaba la metodología empirista de la lingüística estructural y el análisis se orientó hacía las intuiciones que un hablante nativo tiene sobre su lengua, ya que para Chomsky el análisis estructural de textos no captura lo esencial de la creatividad usada en el lenguaje natural. Los lenguajes usados en la lógica matemática, y las ideas empleadas en las teorías matemáticas axiomatizadas, están detrás del modelo usado por Chomsky para su explicación lingüística. La idea chomskiana de competencia está estrechamente vinculada a la noción, de demostración usada en matemáticas, así una oración es gramatical si existe una derivación que demuestra que su estructura es acorde con el conjunto de reglas de la gramática, de igual forma que se demuestra la veracidad de un teorema en matemáticas.

* * *

Pero no es sólo la analogía funcional entre el ordenador y algunas capacidades humanas, como su habilidad para manejar símbolos, lo que ha producido el enfoque cognítivo computacional de la lingüística, sino también, el gran número de aplicaciones practicas con que el ordenador se ha utilizado para resolver problemas en los que el lenguaje era el objetivo principal.

Recordemos que ya desde 1949 se consideró al ordenador como una herramienta esencial para la traducción automática de lenguas. Y aunque, sí bien no se ha conseguido resolver este problema de forma totalmente satisfactoria, es decir, producir traducciones de forma completamente automática y de alta calidad, sí se ha conseguido, por una parte abordar los estudios de lingüística con un instrumental altamente eficiente y con una metodología científica que se aproxima a la de las llamadas ciencias fuertes y con un objetivo aplicado que podría considerarse análogo al de otras ingenierías, y por otra parte, construir sistemas de traducción automática de cierta eficiencia aunque limitados a ciertas áreas.

Otras de las aplicaciones que se iniciaron desde los comienzos de la informática fue la documentación científica y bibliográfica. La gran explosión de publicaciones científicas que caracteriza nuestro tiempo necesita de un instrumento que nos ayude a la organización y localización del material bibliográfico y el ordenador podía ser el citado instrumento. Esta aplicación tiene vinculaciones estrechas con la lingüística, ya que las descripciones bibliográficas están hechas en lenguaje natural, y aporta también otro rasgo a la lingüística cognitiva consistente en la necesidad de considerar un sistema de clasificación como una forma de representación del conocimiento. Estos dos aspectos de los sistemas documentales conducen a dos tipos de sistemas : uno denominado de localización por full text, en el, que se requiere un fino análisis lingüístico, y el otro llamado de pregunta-respuesta, que sí inicialmente consistía en preguntas y respuestas altamente codificadas, la tendencia actual es que éstas se produzcan en lenguaje natural (o pseudonatural) con el consiguiente impacto en los estudios de lingüística y en la modelización de ésta como ciencia. Este último tipo de sistema se ha convertido en uno de los temas esenciales y más actuales de la informática y se tiende a que toda comunicación del hombre con la máquina se realice por este procedimiento. Las analogías que este método de comunicación presenta con los lenguajes naturales, aproxima aun más la informática y la lingüística y hace que el modelo computacional presente claras ventajas para el estudio de ciertos aspectos de la lengua, no sólo en su nivel de estructura sintáctica, sino también en el plano fonológico al tratarse, no sólo a nivel explicativo sino también operativo, el análisis y la síntesis del lenguaje hablado y su aplicación a los sistemas de comunicación hombre maquina.

Otra aplicación importante y muy en boga en la actualidad es la relativa a la edición de textos y al tratamiento de las palabras. Esta aplicación orientada especialmente como ayuda al mundo editorial y a facilitar los trabajos de secretaría también tiene como objeto de estudio el lenguaje y por tanto aporta de forma empírica un caudal de conocimiento objetivado nada desdeñable a la hora de estudiar el lenguaje.

* * *

En los sistemas informáticos se han distinguido siempre dos tipos de información : programas y datos. En un principio los programas se construyen para resolver problemas que hayan sido analizados previamente y determinado el método de solución ; de hecho un programa es la descripción (en un lenguaje comprensible por la máquina) del procedimiento o algoritmo mediante el que obtenemos la solución de un problema. En general los programas se escriben de forma paramétrica para que puedan aplicarse en la obtención de las soluciones de toda una familia infinita de problemas, de forma que, al fijar los parámetros, el problema quede determinado y la solución correspondiente se obtenga de forma unívoca. La colección de valores concretos de los parámetros mediante los que determinamos un problema es la que recibe el nombre de datos del problema.

Al comienzo de la informática se prestaba casi toda la atención a la forma de los programas y a los lenguajes de programación, debido principalmente a la complejidad de los algoritmos en relación con la sencillez del conjunto de datos sobre el que actuaba. La organización de los datos estaba establecida el interior del programa que los utilizaba.

Pero cuando un mismo conjunto de datos debía ser usado por varios programas distintos, aquel debía organizarse, de forma que los datos en el contenido pudieran ser utilizados por los distintos programas, lo que obligaba a que estos programas se construyesen teniendo en cuenta la organización de los datos. De esta forma quedaba patente la necesidad de organizar los datos, con independencia del programa que los fuese a utilizar y así surgieron los bancos de datos.

En un principio, los criterios de organización de los datos se apoyaban en la forma de almacenamiento, de manera que los programas pudieran encontrar y recuperar los datos necesarios para su ejecución. Esta supeditación de la organización de los datos a la estructura física de la memoria del ordenador o del soporte en el que fuera a realizarse su almacenamiento, dejó patente una rigidez excesiva en su utilización y puso de manifiesto que la estructuración de los datos no debía estar determinada por la estructura física de la memoria, por sus formas de acceso, ni por la naturaleza formal de los mismos, sino que debía realizarse teniendo muy en cuenta él contenido semántica de los datos para lograr una eficiente estructuración de los mismos. Así aparecen las bases de datos. Los tipos de bases de datos que se desarrollan sucesivamente, atendiendo a diversos modelos de organización, se denominan jerárquicas (si su estructura es un árbol), en red (sí en el árbol se permiten conexiones entre nodos de ramas distintas) o relaciónales (sí el modelo usado es el cálculo relacional).

De esta forma los conjuntos de datos se van convirtiendo en lo que deben ser : modelos del mundo exterior que corresponden a la representación del conocimiento del mundo sobre el que actúan los programas. Atendiendo a esta idea aparecen diversas metodologías, mediante las que se pretende conseguir una representación del conocimiento, atendiendo esencialmente a los aspectos semánticos de la información.

Toda esta búsqueda de formas de representación del conocimiento motivada por imperativos pragmáticos, ha conducido a que las principales universidades, así como los laboratorios de investigación de empresas como General Motors, IBM, Texas Instruments, Hewlett Pakard, Xerox, Mushashine, etc., hayan emprendido proyectos sobre métodos de representación del conocimiento en conexión con problemas de lenguaje natural, utilizando técnicas de inteligencia artificial. En el número de enero de 1982 del Sígart Newsletter (una publicación trimestral del Grupo de Interés Especial sobre Inteligencia Artificial de la ACM) se incluye una sección especial dedicada a Lenguaje Natural, en el que se reseñan 65 proyectos de investigación dedicados a NLP (Procesamiento de Lenguaje Natural) desarrollados, entre otras, en las Universidades de Berkeley, Cambridge U.K., París, Hamburgo, Illinois, Roma, Stanford, Turín, Yale, etc.,... así como en los laboratorios de SRI International de Menlo Park, o del MIT, por autores coro Bobrow, Woods, Charníak. Zadeh, Zorrí, Lebowítz, Berwick, Nomura, Grosz, García Camarero .... en temas que podrían titularse : "Representación del conocimiento para el entendimiento del lenguaje natural", "Representación de los significados del lenguaje natural", "Comprensión del lenguaje hablado", "Interrogación a una base de datos en lenguaje natural", "Modelo computacional basado en la neurolingüística para el procesamiento del lenguaje natural", "Redes semánticas para el análisis conceptual", etc., ...

Toda esta actividad investigadora, junto con los trabajos anteriores de psicólogos cognitivos como Norman, Rumelhart o de lingüistas como Schank, han conducido a establecer un nuevo enfoque en el estudio del lenguaje basado en el paradigma computacional que sirve de base para el desarrollo del libro de Wínograd.

Para Winograd, los paradigmas "generativo" y "computacional" son dos variantes de un único paradigma "cognitivo" que se basa en los siguientes principios :

1) El dominio propio de estudio es la estructura del conocimiento que posee un individuo que usa un lenguaje.

2) Este conocimiento puede entenderse como reglas formales relativas a estructuras de símbolos.

Dentro de este marco general que caracteriza al paradigma cognitivo se pueden distinguir rasgos que diferencian al enfoque computacional del generativo. El computacional considera que la estructura del lenguaje depende de la estructura del proceso cognitivo, trata la organización del conocimiento en tanto puede servir de datos para un procedimiento efectivo. En el modelo generativo, el conocimiento del lenguaje se divide en dos aspectos, uno relativo a la competencia y otro a la actuación. La estructura de la competencia lingüística de una persona es independiente de cualquier proceso por el cual se manifieste, la actuación es relevante en la descripción del comportamiento lingüístico, pero es teóricamente secundario de la independiente especificación de la competencia. Por otra parte, el modelo computacional presta mucha atención a la interacción entre el conocimiento lingüístico y no lingüístico, supone que las estructuras de conocimiento y los procesos que tratan con el lenguaje son ampliamente compartidos con otros aspectos de la inteligencia. Sin embargo, el modelo generativo supone que existe una facultad lingüística específica, poseída por los humanos y no por los animales, que determina la estructura del lenguaje, y adopta la hipótesis de la autonomía sintáctica ; y aunque la teoría generativa del lenguaje íntegra al lenguaje con el pensamiento en general, éste no incide directamente en las teorías y en las metodologías usadas para caracterizar la competencia sintáctica.

* * *

Con las líneas anteriores hemos querido interpretar y situar el libro de Winograd, cuyo título encabeza esta nota, y dejar patente cómo la aparición de las computadoras esta incidiendo en la construcción de modelos que expliquen el comportamiento cognitivo del hombre y, en particular, el lenguaje como uno de los aspectos más importantes de la conducta inteligente del hombre. Cierto es que la estructura electrónica de los actuales ordenadores es de gran simpleza si se pretende compararla con la complejidad bioquímica del cerebro humano, y que el software, aunque dota a las maquinas de capacidades muy aumentadas, tampoco puede compararse a la potencia intelectual del hombre, pero sí podemos usar la computadora como banco de pruebas, laboratorio experimental y estímulo operativo, para que logremos construir una ciencia cognitiva más comparable con otras ciencias de la naturaleza y en la que podamos aplicar estructuras lógicas parecidas a la dé las ciencias exactas.