domingo, 13 de marzo de 2011



La norma lingüística y la “modernidad musical.





   Toso los pueblos tenemos cultura. Veamos un concepto general de esta palabra: “conjunto de modos de vida y costumbres, conocimientos y grado de desarrollo artístico, científico, industrial, en una época, grupo social, etc”. Según esta idea, no hay ninguna sociedad que carezca de cultura; sin embargo, hay formas más fuertes que otras y son las que imperan. Esto conlleva variables que determinan si una forma de vida, una filosofía o un lineamieto social se impondrá o no en una colectividad.

Los españoles destruyeron (con un castellano incipiente) una gran cantidad de lenguas en América, tiraron por la borda los esquemas religiosos y artísticos de nuestros aborígenes. Todos sabemos que los peninsulares emplearon la persuasión y la fuerza para acomodar sus ideas a los conquistados. Éste sólo es un ejemplo de aculturación avasalladora.

Casi todas casi todas nuestras formas de vida son una herencia de la “madre patria”; somos en la mayor parte católicos, por ejemplo. Es una realidad que aunque tengamos similares actitudes sociales, cada país marca diferencias idiomáticas; es decir, toda comunidad tiene su propia norma lingüística, algo que nada tiene que ver con el conjunto de rasgos o reglas gramaticales que coinciden con el buen uso de la lengua. Eugenio Coseriu considera la norma en el plano de abstracción lingüística situado entre el sistema y el habla. Esa norma serían las realizaciones prototípicas en el caso de los alófonos o las construcciones gramaticales estándares.

      Si nos fijamos bien notaremos los diferentes alófonos de los hondureños con los hablantes hispanos de otros países. Los mexicanos pronuncian fuerte la “j” dicen “kaja”, nosotros, “k”"aj..a”; los argentinos dicen “kabasho”, nosotros “kabaio” (es común observar que muchos hondureños jugadores de fútbol cuando se quedan un par de meses en Sudamérica vienen hablando con esa norma). Los dominicanos del sur confunden la “r” final por “i” y dicen comei,caminai. El puertorriqueño pronucia la “rr” múltiple como “j”: “pejo por perro“, también cambian la r por l al final: cantal por cantar (éste último alófono es compartido con muchos sectores poblacionales cubanos).

    Todas las comunidades hablantes tenemos una norma lingüísta establecida. Pero también están los regionalismos; de los cuales no nos podemos abstraer; los dominicanos nombran habichuelas a lo que nosotros conocemos como frijoles maduros - que en otras partes se llaman fréjoles, frijoles, judías, alubias-. María trabaja en una pollera aquí en San Pedro Sula, vende pollo frito; pero para algunos sudamericanos una pollera es una falda externa de vestido femenino.

    Tanto los alófonos como los regionalismos conforman una relidad cultural de la lengua y son signos de identidad cultural de cada grupo de hablantes. Pero qué raro sería que de pronto saliéramos hablando como argentinos o como puertorriueños, nos miraríamos “graciosos”; habríamos perdido la auntenticidad. Y peor si no supiéramos decodificar sus términos, quedaríamos en el ridículo. Lo hermoso de este asunto es que seamos capaces de comprender y darnos a comprender con cualquier hablante independientemente de donde sea. Se preguntarán cómo, facil: siempre hay un español estándar, ese que se adquiere con la buena lectura y formación de calidad y que en cualquier parte del mundo hispano se comprende.

    ¿Qué es lo malo? Que nuestros modernos “cantantes” locales son tan indigentes de erudición que les pasa lo de la India María: ni de aquí ni de alláporque cuando entonan una “pieza musical” no se sabe si son boricuas, cubanos, dominicanos u hondureños por la esperpenta mezcla de alófonos y regionalismos ajenos al castellano catracho. Claro, esta zafiedad verbal no es sólo de los nuestros, también se da en los pueblos que están muy dominados por las culturas de exportación económica. Pero esto no nos inhibe de ser sui géneris como -por ejemplo- nuestros vecinos colombianos que en cualquier parte del mundo se les conoce por su ballenato y la cumbia; a los mexicanos por sus mariachis. Aquí también hay suficientes valores del arte que pueden hacer que esto no se convierta en una de mis quijoterías.


Anyela Molina
EES
CI 19597827
 ¿Qué es la Lingüística Computacional o PLN?

    La Lingüística Computacional (Computational Linguistics) puede considerarse una disciplina de la linguística aplicada y la Intelingencia Artificial, y tiene como objetivo la realización de aplicaciones informáticas que imiten la capacidad humana de hablar y entender. A la Lingüística Computacional se le llama a veces Procesamiento del Lenguaje Natural (PLN), o Natural Language Processing (NLP). Ejemplos de aplicaciones de PLN son, por ejemplo, los programas que reconocen el habla, los traductores automáticos, ...
Todavía se sabe relativamente poco sobre el lenguaje humano. Los linguistas llevan décadas intentando descifrar cómo funciona esta capacidad única de la especie humana. Muchos animales tienen formas complejas de comunicación pero, que se sepa, ninguno de estos "lenguajes" cumple la característica más significativa del lenguaje humano natural: la infinitud discreta.
El lenguaje humano natural es discreto en cuanto a sus unidades, pero infinito en cuanto a las combinaciones que pueden hacerse con estas unidades.
Por ejemplo, las palabras son unidades discretas y finitas de la lengua. Sin embargo, combinando un número limitado de palabras podemos construir infinitas frases.
Y esa es la razón por la que un niño o un adulto construye contínuamente frases que no ha escuchado jamás a partir de palabras que sí ha tenido que escuchar y memorizar con anterioridad. Así, hablar es inventar continuamente nuevas combinaciones.

Lenguaje natural vs lenguaje artificial



      Tanto el lenguaje natural como el lenguaje artificial son humanos. El primero es natural porque se aprende (o adquiere) inconsciente e involuntariamente. Ningún bebé decide aprender o no la lengua que hablan sus padres, y ningún padre sienta a su hijo y le enseña las reglas sintácticas de su lengua, entre otras razones porque ni él mismo las sabría describir. Las personas hablan y se entienden, pero no se cuestionan las reglas que utilizan al hablar. Los linguistas sí lo hacen, y a veces llegan a conclusiones interesantes.
    Los lenguajes artificiales sí que se aprenden voluntária y conscientemente. Aunque algunos tienen la característica de la infinitud discreta, son muy diferentes a los lenguajes naturales. Un ejemplo de lenguaje artificial son los lenguajes de programación utilizados para desarrollar programas informáticos. Un ejemplo de lenguaje artificial finito sería el menú de los cajeros automáticos, el sistema operativo MS Windows,...



¿Podremos hacer que una máquina hable algún día?


   Bien, es hora de ponerse futurista.La máxima aspiración de la PLN sería conseguir que la computadora nos hablara y nos entendiera (en el sentido estrictamente lingüístico, claro).

    Es decir que fuera capaz de generar infinitas frases como las nuestras. Pero no solo infinitas, sino también aceptables. Una oración es aceptable cuando los hablantes nativos de esa lengua la reconocen como oración bien formada. Así, aunque cualquier hablante de español entienda 'perro comer hueso', ninguno la consideraría aceptable.
    Se supone que en el lenguaje intervienen múltiples factores cognitivos y psicológicos, pero no hace falta representar toda la estructura mental y cognitiva humana para empezar a trabajar. Cada programa informático, según sea su función, se ocupará de unos aspectos u otros del lenguaje y sus estrechas relaciones con los demás  componentes cognitivos. Se trabaja, pues, modularmente.
Por ejemplo, imaginemos que queremos crear un programa que genere infinitas oraciones bien formadas sintácticamente sin tener en cuenta el significado de éstas. Para hacerlo, solo haría falta un lexicón y un conjunto de reglas combinatorias. El lexicón es algo así como una lista de palabras que están almacenadas en nuestro cerebro. Estas palabras se relacionan de manera compleja con sus respectivos significados,  pero eso no nos interesaría para crear el programa . Al conjunto de reglas que nos permite combinar las palabras que hay en el lexicón se le llama sintaxis. Gracias a estas reglas el cerebro es capaz de crear infinitas oraciones.
Pues bien, la reglas sintácticas y el lexicón es lo que habría que hacer explícito en nuestro programa.  Formalizando ambas cosas, y precindiendo del resto, muchos lingüistas piensan que es suficiente para hacer que la computadora genere infinitas oraciones sintácticamente correctas.
Hoy día se están realizando muchas investigaciones para conseguir "explicar" a una computadora la manera que tenemos de comunicarnos los humanos, pero todavía queda mucho camino. Una de las mayores dificultades es el hecho de que todavía no hemos conseguido descifrar y explicitar totalmente las reglas inconscientes que rigen nuestra capacidad lingüística. De esto se encarga la linguistica teórica, que junto a la informática, son las dos herramientas con las que trabaja el PLN.



Anyela  Molina Rosales CI :19597827
 sección 2
PROBLEMAS ACTUALES DE LINGÜÍSTICA COMPUTACIONAL
GRIGORY SIDOROV
 
   El artículo describe en términos muy generales los problemas que enfrenta la lingüística computacional. El enfoque del artículo es mostrar qué tipo de problemas existen en diferentes niveles del lenguaje natural (fonética/fonología, morfología, sintaxis, semántica y pragmática) y en procesamiento automático de textos, así como dar algunos ejemplos de aplicaciones en que se usa el conocimiento lingüyístico. Aquí describimos brevemente un sistema de clasificación de textos, un buscador inteligente y un sistema de análisis sintáctico (parser).
[English]

Artículo
1. INTRODUCCIÓN
Los seres humanos tenemos características que nos hacen ser lo que somos. Una de estas características más importantes, es el dominio del lenguaje natural. Es difícil imaginar algunas actividades intelectuales que no involucren frases en algún idioma.
La humanidad posee una gran cantidad de conocimientos. La mayor parte de ellos tiene una forma simbólica, es decir, la representación de textos. En la época moderna, la humanidad ha obtenido un instrumento muy importante: la computadora, la cual ha transformado totalmente nuestro mundo en sólo los últimos diez años. Tal vez este cambio no es tan obvio para nosotros, porque las conversiones pasan día tras día, pero si comparamos la vida de hoy con la de hace 10 años, tenemos que la intervención revolucionaria de las computadoras es obvia.
Aunque son ayudantes valiosos, las computadoras no pueden ser usadas todavía como una herramienta que sustituya a los seres humanos en áreas que requieren la aplicación de conocimientos. Si fuera posible dar a las computadoras la posibilidad de entender de alguna forma los textos, que es equivalente a darles el acceso a todo el conocimiento de la humanidad, se estaría dando un paso nuevo en el desarrollo de nuestra civilización.
La ciencia que se ocupa de la forma como usamos el lenguaje natural, es decir, entender las frases de otras personas, así como formular nuestros pensamientos y transmitirlos, se llama lingüística. Si hablamos de la ciencia que trata de los modelos computacionales del lenguaje natural y cómo hacer entender a las computadoras los idiomas humanos, nos referimos a la lingüística computacional. También el término Procesamiento del Lenguaje Natural (NLP en inglés, Natural Language Processing) es usado frecuentemente.
En este artículo hablamos sobre los problemas que, en general, ahora son actuales en las áreas distintas a la lingüística computacional, los cuales corresponden a los tradicionales niveles del lenguaje. También hablamos de los problemas más específicos y presentamos unas soluciones para ellos.


2. NIVELES DE LENGUAJE

Tradicionalmente, el lenguaje natural está constituido en cinco niveles:
Fonética/fonología
Morfología
Sintaxis
Semántica
Pragmática

Las diferencias entre los niveles se basan en las distintas entidades Lingüísticass, de acuerdo al enfoque de análisis en cada nivel.
2.1. Fonética/fonología
La fonética es la parte de la Lingüística que se ocupa de la exploración de las características del sonido, factor esencial del lenguaje. Por esta razón los métodos de la fonéticaca son físicos en su mayoría. Gracias a esto, su posición en la lingüísticaa es bastante aislada.
Los problemas en fonética computacional están conectados al desarrollo de sistemas de análisis y síntesiss del habla. Aun cuando hay sistemas de reconocimiento de voz (la computadora puede reconocer palabras dichas en el micrófono), el porcentaje de palabras identificadas correctamente es todavía bastante bajo. Entre sistemas de generación de voz hay mucho más progreso: existen algunos que hablan bastante bien, sin "acento de robot", basados en síntesis compilativas, aunque su área de aplicación es bastante restringida.
A la fonología le interesa la posición del sonido en el sistema de sonidos del idioma, es decir, las relaciones con otros sonidos y sus implicaciones. Por ejemplo, los japoneses no pueden distinguir entre [l] y [r]; los extranjeros hablan el español con un acento fuerte al decir [rr] en lugar de [r]), y los españoles, usualmente, tienen un acento al hablar ciertos idiomas, pues no pueden pronunciar [l duro]. La respuesta es la misma: en sus idiomas nativos no existen oposiciones entre estos fonemas. Las diferencias que parecen muy grandes para quienes hablan otros idiomas, en realidad son insignificantes para ellos. En japonés no existe el fonema [l]. En la mayoría de los idiomas existe sólo un fonema para [r]-[rr] y, por lo tanto, no importa su duraciónn (en el español, al contrario). En español no existe el fonema [l duro], sólo [l suave].
2.2. Morfología
La morfología se ocupa de la estructura interna de las palabras (sufijos, prefijos, raíces y flexiones) y el sistema de categorías gramaticales de los idiomas (género, número, etcétera). Hay lenguajes que tienen bastantes diferencias con el español. Por ejemplo, enárabe, la raíz contiene tres consonantes. Asimismo, las variantes de una palabra se construyen con la inserción de vocales entre las consonantes (KiTaB - el libro, KaTiB - leyendo). En suahili hay una categoría de sustantivos, llamada "tipo de concordancia", en la que todas las palabras dependientes del sustantivo tienen el prefijo de éste. Los prefijos dependen del "tipo" de sustantivo. Aunque hay un parecido al género en español, hay más valores en esta categoría y la mayoría de sustantivos tiene su semántica correspondiente.
Los problemas de morfología computacional estánn relacionados con el desarrollo de los sistemas de análisis y síntesis automático morfológico. Aun el desarrollo de tales m´dulos es bastante difícil, porque hay que hacer grandes diccionarios de raíces (alrededor de 100 000). En general existe la metodología para tal desarrollo. Existen sistemas funcionando para muchos idiomas. Lo que falta aquí es un estándar. Por eso, frecuentemente, los investigadores crean de nuevo tales módulos, "reinventando la bicicleta".
2.3. Sintaxis
La sintaxis se ocupa de estudiar las relaciones entre las palabras de la frase. Existen dos modelos para representar tales relaciones: dependencias, en que las relaciones se marcan con las flechas (ver por ejemplo, Melchuk, 1988) y constituyentes, en que las relaciones existen en forma de árboll. El personaje principal, fundador de la "lingüística generativa", es N. Chomsky (ver por ejemplo, en españoll, Morales, 1974).
La sintaxis computacional debe tener métodos automáticos para análisis y síntesis, es decir, para construir la estructura de la frase por la frase, o generar la frase con base en su estructura. El desarrollo de los generadores es una tarea mucho más fácil, y está más o menos claro qué algoritmos son necesarios en estos sistemas. Al contrario, en el desarrollo de los analizadores sintácticos (se llama parser), todavía es un problema, especialmente para los idiomas que no tienen un orden de palabras fijo, como en el español (en ingléss, el orden de las palabras es fijo. Por eso las teorías basadas en inglés no son fáciles de adoptar al español). Vamos a ver un ejemplo de parser en las secciones siguientes.
2.4. Semántica
El propósitoo de la semántica es "entender" la frase: ¿Pero qué significa "entender"? Es obvio que hay que saber el sentido de todas las palabras y dar las interpretaciones a las relaciones sintácticas. Ahora los investigadores están más o menos de acuerdo en que los resultados del análisis semántico, deben ser las redes semánticas, donde se representan todos los conceptos y relaciones entre ellos. Entonces es necesario saber transformar el árbol sintáctico en la red semántica. Ese problema todavía no tiene una solución general.
Definir los sentidos de las palabras en sí ya es muy difícil, porque existe polisemia. Por ejemplo, "gato" es un felino y tambiénn un instrumento. Entonces, el problema es encontrar todos los sentidos y hacer separaciones entre ellos. A eso se dedica una parte de la semántica, que se llama lexicografía. Los resultados en este tipo de investigaciones, se encuentran en forma de diccionarios.
As, los problemas de semántica computacional son muy interesantes, pero todavía no tienen soluciones para la definiciónn de palabras y la construcción de redes semánticas. Mucho menos éxito hay si hablamos de representación de conocimientos en general.
2.5. Pragmática
Usualmente dicen que la pragmática trata de las relaciones entre la oración y el mundo externo. El ejemplo famoso es: si estamos comiendo juntos y yo le pregunto si usted puede pasarme la sal, usted contesta que sí y sigue comiendo. Seguramente la respuesta es formalmente correcta, porque usted de verdad puede pasarme la sal y esa fue la pregunta, pero la intención fue pedir la sal y no preguntar sobre la posibilidad de eso.
Otro ejemplo lo tenemos en una clase de oraciones que tienen una característica muy interesante. Ellas son las acciones por sí mismas (se llaman performativos). Por ejemplo, decir "prometo" es igual a prometer.
Como ya tenemos muchos problemas en la semántica, no podemos continuar el análisis en el nivel siguiente. Así que aún hay que tomar esto en cuenta.


3. PROCESAMIENTO DE TEXTOS
Suponemos que podemos hacer un procesamiento parcial de los cinco niveles de lenguaje. ¿Qué aplicaciones pueden tener los resultados en el procesamiento de textos? Los siguientes parecen ser los más importantes (aquí no hablamos de cosas que ya son una rutina, como correctores ortográficos, etcétera):
Generación automática de resúmenes
Clasificación automática de los documentos
Búsqueda inteligente en bases de datos (incluyendo Internet)
Traducción automática
Es obvio que para hacer todo esto, el sistema debe entender el texto. En la época moderna existen sistemas que hacen ese tipo de funciones, pero usualmente usan unas heurísticas y no implementan toda la cadena de análisis.
En el procesamiento de textos hay un problema muy importante: la resoluciónn de correferencia. A veces las relaciones de correferencia se llaman anafóricas (ver Gelbukh and Sidorov, 1999; Mitkov, 1997 y Hirst, 1981).
Hay dos casos principales de relaciones de correferencia:
(1) la correferencia directa, como en el discurso: "he visto una nueva casa ayer. Su cocina era excepcionalmente grande" (su = de la casa), y
(2) la correferencia llamada indirecta, como en el discurso: "he visto una nueva casa ayer. La cocina era excepcionalmente grande" (la cocina = de la casa) (ver ejemplo de Chafe, 1974).
En el último caso, la relación de correferencia se sostiene conceptualmente entre las dos palabras diferentes, cocina y casa. Nótese que no hay ninguna correferencia explícita entre estas dos palabras. La correferencia se sostiene entre la palabra cocina en el texto y la palabra cocina, que está introducida implícitamente en el discurso por la palabra casa.


4. UN CLASIFICADOR DE TEXTOS
Vamos a describir brevemente un sistema desarrollado en el Centro de Investigacin en Computación del IPN.
En la Ilustración 1 se presenta el resultado del funcionamiento del sistema Classifier. El sistema determina los temas principales del documento y los muestra como una histograma. Se nota que para el texto de que se trata, de Rabin y Arafat, el tema principal es "soldados y vida militar". Para detectar esto se hace un análisis de frecuencias de palabras, con el uso del diccionario jerárquico de conceptos, que se puede ver en la Ilustración 2. Las palabras "votan" por algún tema. La estructura del diccionario, en forma del árboll, permite hacer propagaciones de temas para los nodos no-terminales. En la parte derecha de la Ilustración 2, están presentes las palabras que se asocian con el nodo terminal. En este caso están en inglés, pero el sistema por el momento soporta también el español y el francés. La descripción detallada se encuentra en Gelbukh, et. al., 1999). (Figura 1.)


5. UN BUSCADOR "INTELIGENTE"
Vamos a hablar sobre un sistema desarrollado en el Centro de Investigaciónn en Computación del IPN, para el Senado de la República Mexicana. El sistema permite enriquecer la petición del usuario, dependiendo del modo que el mismo elija. Entonces, la búsqueda con este sistema da la posibilidad de encontrar palabras, que son pertinentes, lo que con el buscador normal no seria posible. Entonces, cierto nivel de inteligencia del sistema se asegura con el uso de los diccionarios bastante grandes (de 10-20 megabytes cada uno). Por ejemplo, el diccionario de los sinónimos más lejanos contiene 65 378 entradas y 1 927 976 palabras en total. A cada modo (opción) del sistema le corresponde el uso de un diccionario.Vamos a hablar sobre un sistema desarrollado en el Centro de Investigación en Computación del IPN, para el Senado de la República Mexicana. El sistema permite enriquecer la petición del usuario, dependiendo del modo que el mismo elija. Entonces, la búsqueda con este sistema da la posibilidad de encontrar palabras, que son pertinentes, lo que con el buscador normal no seria posible. Entonces, cierto nivel de inteligencia del sistema se asegura con el uso de los diccionarios bastante grandes (de 10-20 megabytes cada uno). Por ejemplo, el diccionario de los sinónimos más lejanos contiene 65 378 entradas y 1 927 976 palabras en total. A cada modo (opción) del sistema le corresponde el uso de un diccionario.(Figura 2.)
Si se elige la opción Formas de palabras, se enriquecerá la petición con las formas morfológicas de las palabras. Por ejemplo, si se busca por la petición "pequeño", se encontrarán los documentos que contienen las formas pequeño, pequeña, pequños pequeñas.
Si se elige la opción Sinónimos, se enriquecerá la orden con los sinónimos de las palabras de la petición. Por ejemplo, si se busca por la petición "pequeño", se encontrarán los documentos que contienen las formas pequeño, chico.
Si se elige la opción Sinónimos más lejanos, se enriquecerá la solicitud con los sinónimos cercanos y lejanos de las palabras de la petición. Por ejemplo, si se busca por la petición "pequeño", se encontrarán los documentos que contienen las formas pequeño, chico, reducido.
Si se elige la opción Sinónimos y antónimos, se enriquecerá la petición con los sinónimos cercanos y lejanos de las palabras de la solicitud, así como sus antónimos. Por ejemplo, si se busca por la petición "pequeño", se encontrarán los documentos que contienen las formas pequeño, chico, reducido, grande.
Si se elige la opción Sinónimos y antónimos más lejanos, se verá enriquecida la petición con los sinónimos cercanos y lejanos de las palabras de la solicitud, así como sus antónimos cercanos y lejanos. Por ejemplo, si se busca por la petición "pequeño", se encontrarán los documentos que contienen las formas pequeño, chico, reducido, grande, amplio y sus formas morfológicas.
En la Ilustración 3 se muestran los resultados de la búsqueda para la palabra "coche". También fue encontrada la palabra "automóvil", porque el modo de sistema fue "búsqueda con sinónimos".
(Figura 3.)
En un fragmento del diccionario de sinónimos más cercanos, con todas las formas morfológicas, tenemos:
zurruscarse zurruscábamos zurruscáis zurruscáramos zurruscáremos zurruscásemos zurruscó zurrusca zurruscaba zurruscabais zurruscaban zurruscabas zurruscad zurruscada zurruscadas zurruscado zurruscados zurruscamos zurruscan zurruscando zurruscará zurruscarán zurruscarás zurruscaré zurruscaréis zurruscaría zurruscaríais zurruscaríamos zurruscarían zurruscarías zurruscara zurruscarais zurruscaran zurruscaras zurruscare zurruscareis zurruscaremos zurruscaren zurruscares zurruscaron zurruscas zurruscase zurruscaseis zurruscasen zurruscases zurruscaste zurruscasteis zurrusco zurrusqué zurrusquéis zurrusque zurrusquemos zurrusquen zurrusques
zutano citano cualquiera desconocida desconocidas desconocido desconocidos fulqo mengano perengano

6. UN PARSER
Damos un ejemplo de un sistema que permite hacer un análisis sintáctico de español desarrollado del CIC-IPN. El parser es el programa, que, en general, no depende del idioma de la frase de entrada. Lo que depende del idioma es la gramática, un conjunto de reglas en la forma especial.
Los resultados del árbol sintáctico se muestra en la Ilustración 4. El programa hace un análisis morfológico, y despuéss trata de aplicar las reglas gramaticales para cubrir toda la frase. Si no está cubierta toda la frase, entonces no se puede construir el árbol.(Figura 4.)
Las reglas tienen la siguiente forma:
VP(nmb,pers,mean)
-> VP_DOBJ(nmb,pers,mean)
-> VP_OBJS(nmb,pers,mean)

Esta regla significa que la frase verbal puede ser frase verbal con objeto directo o indirecto.
VP_DOBJ(nmb,pers,mean)
     -> @:VP_OBJS(nmb,pers,mean) dobj_suj:SUJ_DOBJ [dobj_suj:SUJ_DOBJ]
#                            clavaban sus dardos
     -> @:VP_DOBJ(nmb,pers,mean) obj:LIS_PP
#                             trasladó su fábrica a la frontera
     -> @:VP_DOBJ(nmb,pers,mean) &mod:VP_MODS
#                            ordenó una fila moviendo las sillas
Esta regla dice qué formas puede tener el objeto directo. Las reglas automáticamente están compiladas en forma entendible para el parser.

Conclusiones
Nosotros hemos discutido algunos problemas a los que se enfrenta la lingüística computacional, en relación con los niveles de lenguaje natural y con las tareas prácticas de procesamiento de textos. Como ejemplo, hemos visto un clasificador de textos, un sistema de búsqueda "inteligente" (por contenido) y un parser. En general, la lingüística computacional es una ciencia que tiene por el momento más problemas que soluciones, pero es un campo de investigación muy interesante y prospectivo.


http://www.revista.unam.mx/vol.2/num1/art1/

Anyela  Molina Rosales CI :19597827
 sección 2

TEORÍAS LINGÜÍSTICAS DEL HUMOR




por Fco. Javier Sánchez García1
   La teoría semántica en los esquemas de Raskin y la teoría de la relevancia en los esquemas de Curcó o Yus.
   La semántica de script o de esquema de Raskin se sitúa dentro de la semántica cognitiva. Intenta Raskin establecer un modelo formal de la competencia humorística: ¿qué combinaciones dan lugar a estructuras humorísticas y cuáles no? Para ello elabora un Principio de Cooperación Humorístico.
   Distingue dos tipos de comunicación: Bona Fide y Non Bona Fide. La primera se relaciona con la mayoría de la comunicación siempre que ésta no infrinja el Principio de Cooperación; la segunda, se relaciona con dos tipos de comunicación: el chiste (humor) y la mentira, usos desviados del lenguaje.
Curcó no se centra en las propiedades de los textos o discursos humorísticos sino en los mecanismos de interpretación humorística: los procesos cognitivos asociados al humor. Para Raskin el humor es un uso desviado del lenguaje, mientras que para Curcó no. En él operan los mecanismos de siempre.
Curcó retoma la forma de concebir la incongruencia de Forabusco (1992) “Un estímulo es incongruente cuando difiere del modelo cognitivo referente”. La incongruencia es un instrumento para alcanzar el efecto humorístico, es decir, no es en sí misma un mecanismo generador de humor.
Francisco Yus Ramos también se decanta por la idea de que la incongruencia es necesaria pero no suficiente para la creación de un efecto humorístico. “Mi modelo comunicativo incide sobre todo en la imposibilidad inicial de determinar la intencionalidad de muchos actos (no)-verbales de nuestros interlocutores (Yus:1996).


Piensa además que “la Teoría de la Relevancia es un avance claro en la explicación pragmática de la conducta comunicativa humana”... Centrándose en comprender “por qué entendemos los mensajes, en qué forma los entendemos y en qué circunstancias concurrentes los mensajes varían su significación” (Yus:1997).
Raskin caracteriza un texto como chiste si cumple dos condiciones: a) ser compatible parcial o plenamente con dos esquemas diferentes; y b) los dos esquemas tienen que oponerse.
Para Curcó el mecanismo generador de humor parte de una suposición básica (Key assumption) la cual se presenta en contradicción con la suposición previsible (target assumption). Se invierte el grado de fuerzas mediante la contradicción. La suposición fuerte pasa a ser débil y viceversa. La recepción de una incongruencia indica al oyente la posibilidad de que el hablante expresa de manera implícita una actitud de distanciamiento con respecto a una de las suposiciones.
Curcó critica la idea de la existencia de unos principios del humor en nuestra mente. Es nuestra competencia gramatical la que nos permite producir y entender sin esfuerzo un número indeterminado de construcciones gramaticales, incluídos los chistes.
Raskin no explica qué mecanismo semántico o pragmático nos hacer gozar de la incongruencia. La idea de que el discurso humorístico es un desvío respecto al discurso normal está desacreditada hoy en día.
Attardo (1993): “Violation of conversational maxims and cooperations: The case of jokes"
¿Condiciona un chiste la información que ofrece? Attardo reflexiona sobre el carácter del texto humorístico o chiste, y, partiendo de una recapitulación del Principio de Cooperación (PC) de Grice, explica cómo el chiste viola las máximas conversacionales.
Grice distingue diversas actitudes en el hablante; éste cumple las máximas, las viola, se burla de ellas o saca provecho de las mismas. El caso más interesante es la violación de una máxima para salvar la violación de otra.
¿Favorece el chiste un próspero intercambio comunicativo, o por el contrario viola el PC?. Si tanto el hablante como el oyente persiguen el entendimiento, entonces deduciremos que existe la intención de no violar el PC. Raskin ha establecido un Principio de Cooperación del humor, o del chiste, tomando como base el PC de Grice.
No obstante, el conocimiento del hablante sobre las violaciones de las máximas que producen los chistes, no implica que éstas no existan sino, simplemente, que el oyente ya las espera sin sorpresa.
La reflexión sobre el carácter del chiste ha ido acompañado por el intento de creación de una Teoría del Humor, véase por ejemplo: Sperber y Wilson (1981) o Yamaguchi (1988).
Yamaguchi (1988) insiste en que el chiste, caracterizado por la ambigüedad, viola las máximas conversacionales de Grice. El narrador, por su parte, minimiza su responsabilidad a la hora de romper la máxima. Yamaguchi aporta una descripción de las técnicas usadas por el hablante para disimular la violación del PC en la narración. Attardo, por su parte, refuta la inocencia del narrador. éste siempre es culpable de la violación.
Raskin (1985:110-114) explica cómo el oyente transforma la información que considera fidedigna (Bona Fide) en Non Bona Fide (NBF), al percibir el carácter humorístico del texto. Es decir, el oyente procesa el texto, nota la violación del PC, vuelve atrás y reinterpreta el texto como una broma.
Ahora bien ¿cómo puede el chiste aportarnos información siendo NBF? Attardo expone tres maneras: 1) base presuposicional, 2) metamensaje y 3) supresión de la violación.
1) base presuposicional:
“El asesino de Kennedy no formaba parte de la CIA”.
A partir de esta oración suponemos que a) Kennedy murió, b) su muerte no fue accidental, c) fue asesinado, d) alguien podría suponer que la CIA lo hizo y e) la CIA en algunas circunstancias actúa así.
Es decir, un chiste puede dar información actual aunque viole el PC. La respuesta puede ser absurda pero la presuposición no.
2) metamensaje:
Al contar un chiste expresamos un gran número de inferencias. Se presenta el carácter de quién lo cuenta y su percepción del mundo. Un ministro bautista no contará los chistes de la misma manera que un grupo de “hippies”.



3) supresión de la violación:
El oyente puede interpretar el chiste seriamente y, por lo tanto, suprimir la violación de las máximas.
Attardo no olvida comentar la repercusión social del humor. ¿Cómo se utiliza el humor en la sociedad?. Expone que hay unas tácticas con las que el hablante no se compromete con la información que ofrece. éstas son el “tanteo” y “retroceso”. El oyente puede tantear, mediante el humor, las reacciones y la opinión de los oyentes acerca de un tema. Si la reacción es violenta, entonces se pone en marcha el “retroceso” con expresiones como “era simplemente una broma”.
El humor, pues, puede producir, a pesar de su agresividad, la identificación en grupo. Attardo ejemplifica diciendo que si A cuenta a B un chiste agresivo y C, D, E se ríen, B supone que A,C,D,E comparten la misma intención agresiva. Hay entonces dos grupos: 1) A,C,D,E y 2) B.
Attardo concluye que:
- los chistes implican, al menos, una submáxima del PC en BF.
- los hablantes usan los chistes para explotar la retractabilidad de sus dichos y otros modos de intimidad.
Chistes y juegos de ingenio. Puntos en común.
Hablar de las características comunes entre los chistes y los juegos de ingenio del tipo “Sea paciente. No fume”, supone hacer una rápida alusión a un uso del lenguaje específico y no ordinario. Esto es así porque se utiliza el principio de economía, la ambigüedad, el final abrupto o el uso aproximativo del lenguaje, entre otros.
Un rápido análisis del enunciado “Sea paciente. No fume” (ubicado en el hospital) nos permite distinguir, sin muchos esfuerzos, dos posibles interpretaciones: a) se nos insta a desarrollar la actitud de la paciencia y a no fumar, dentro del ámbito del hospital; y b) se nos plantea la posibilidad de colocarnos en el lugar de la persona que se encuentra en el hospital por motivos médicos o de salud: el paciente. Estas dos posibilidades se nos presentan con una estructura tan sencilla como la que acabamos de analizar.
El chiste persigue también presentar la mayor información posible con el menor número de palabras: “¿Sabes cómo se llaman los habitantes de San Sebastián?” (a lo que se responde) “Todos no”. Puede haber también más de una interpretación en estos enunciados. Y sin embargo, tanto en el caso de “Sea paciente” como en el del chiste sabemos que prevalece una interpretación sobre la otra. Hay, pues, tanto en un caso como en otro la intención de resaltar una información. Ana Mª Vigara Tauste (1994: 25) afirma que “el chiste como texto no es improvisado”, por lo tanto deducimos que es información elaborada, como también lo es el juego de ingenio. Bien es cierto que el chiste suele presentar un final abrupto (factor sorpresa), y el juego de ingenio no tanto.
Toda esta información elaborada, pues, utiliza diversos factores para su presentación. Uno de ellos es el principio de economía (Giora 1991: 465-485). Ya hemos comprobado cómo se presenta una gran cantidad de información con el menor número de palabras posibles.
Toda esta información juega con la ambigüedad. No es lo mismo decir “Sea paciente. No fume” que “Tenga paciencia. No fume”. La primera sí incluye la interpretación de la segunda, pero no ocurre del mismo modo al contrario. Por lo tanto, observamos que hay dos posibles interpretaciones que toman como base una misma estructura. Lo mismo ocurre con el chiste. Podemos interpretar que se pregunta: a) cómo se llama cada uno de los habitantes que pertenecen a San Sebastián; o b) como se llama al conjunto de habitantes de una determinada zona del país, en este caso, San Sebastián. La persona que responde opta por la interpretación menos obvia, la distributiva en lugar de la colectiva. Ahí está el golpe y efecto humorístico.
Un último punto que me interesa resaltar es la intención de manifestar una actitud (Sperber y Wilson (1994: 284-296). Tanto los enunciado eco y de ironía, como los chistes y los juegos de ingenio sirven para manifestar actitudes que a su vez son testimonio de pensamientos y opiniones concretas acerca de algo. En un hospital, “Sea paciente. No fume.” nos propone pensar en alguien más que en nosotros mismos o nuestras necesidades.
Attardo, como hemos visto en el ejercicio anterior, nos muestra que una de las características de los usos humorísticos es la capacidad que tienen éstos para crear vínculos sociales de proximidad o lejanía, aceptación o rechazo, frente a convicciones políticas, religiosas...... No es fácil escuchar, en la actualidad, un chiste racista, o verde, desde el púlpito de una iglesia. Y tampoco encontraremos el juego de ingenio “Sea paciente. No fume” en una cafetería o bar.



Anyela  Molina Rosales CI :19597827
 sección 2