Termout.org logo/LING


Update: February 24, 2023 The new version of Termout.org is now online, so this web site is now obsolete and will soon be dismantled.

Lista de candidatos sometidos a examen:
1) parser (*)
(*) Términos presentes en el nuestro glosario de lingüística

1) Candidate: parser


Is in goldstandard

1
paper corpusSignosTxtLongLines281 - : El objetivo de los analizadores fragmentales, también denominados agrupadores sintácticos o chunkers, es la detección de frases nominales, verbales, adjetivas, adverbiales básicas (sin recursión). A veces se trata simplemente de detectar el segmento (es lo que se denomina 'parentizado' o bracketting), mientras que en otras ocasiones se desea obtener el etiquetado correcto y la estructura sintáctica del segmento. Es frecuente el uso de técnicas de estados finitos y la actuación de transductores en cascada. También se han utilizado técnicas de aprendizaje automático. A menudo el siguiente paso es la obtención de dependencias y de relaciones sintácticas entre los segmentos (Rodríguez, 2000). Otro tipo de parser es el parser superficial o parcial se denomina shallow parsing o análisis ligero . Este se encarga solo de encontrar los componentes principales de la frase como nombres o verbos.

2
paper corpusSignosTxtLongLines281 - : Los parsers diseñados para la enseñanza de lenguas generalmente contienen un componente que anticipa o detecta los errores en el caso de que las reglas gramaticales sean violadas. Por ejemplo, un procedimiento muy común son las buggy rules (reglas agramaticales), que hacen posible que el parser procese una oración que contiene uno o más errores e identificarlos. Investigadores del área (Heift & Schulze, 2007) analizaron, con la ayuda de métodos estadísticos, córpora de alumnos de L2 para poder determinar las buggy rules necesarias para ser incluidas en el parser. La importancia de los parsers en CALL fue muy discutida en la última década por varios investigadores: Nagata, Matthews, Holland, Maisano, entre otros (Heift & Schulze, 2007 ; Schulze, 2008). Holland et al. (1995) se refieren a las posibilidades y limitaciones de tutores de lengua basados en parser, realizan una comparación entre el CALL convencional y el CALL basado en parser y concluyen que en CALL basado en parser el estudiante

3
paper corpusSignosTxtLongLines281 - : Para el funcionamiento del parser, es necesario construir una gramática, es decir, un conjunto de reglas de formación de frases que el analizador reconocerá . Además, es necesario definir un conjunto de reglas agramaticales (buggy rules), lo que permite que el parser procese una oración que contiene uno o más errores e identificarlos.

4
paper corpusSignosTxtLongLines281 - : Debido a que el parser debe procesar entradas erróneas, un elemento importante es el tratamiento de los errores . Este debe tener especificaciones muy precisas, debe tolerar, detectar y diagnosticar errores, como asimismo ser capaz de entregar una respuesta flexible en el reporte de los mismos. Un tema importante es el tratamiento de los errores múltiples. Por un lado, es deseable que el programa sea capaz de detectar y explicar todos los errores, pero eso no significa que tenga que desplegar cada uno de los errores detectados. La ausencia de un mecanismo de filtro puede llegar a agobiar al alumno. Por ello, nuestro sistema contiene una jerarquía de errores, que ejemplificaremos con el caso de los ejercicios de futuro simple y compuesto:

5
paper corpusSignosTxtLongLines281 - : 2. Se etiqueta la entrada usando un etiquetador que aplica la técnica de 'n-gramas' (en este parser en particular se utiliza un sistema de 3-gramas que consiste en la revisión del contexto de dos etiquetas precedentes ).

6
paper corpusSignosTxtLongLines340 - : Figura 7. Modelo del parser ELE-TUTOR mostrando el procesamiento de la entrada de un alumno: “no salió la fin de semana” .

7
paper corpusSignosTxtLongLines389 - : Preprocesamiento. El conjunto de GCs se creó a partir de los textos de la colección DUC. Para identificar las relaciones entre las palabras de los textos, los documentos se preprocesaron con el analizador sintáctico (parser) de Stanford (de Marneffe, MacCartney & Manning, 2006), es decir, se obtuvieron los árboles de dependencia (Mel’cuk, 1988 ) y se implementó un conjunto de reglas considerando el tipo de relación obtenida por el parser para establecer la relación conceptual.

8
paper corpusSignosTxtLongLines389 - : Los nodos que se generan a partir de la relación nsubj son Bell, AGNT (agente) y distribute (distribuir), y para la relación dobj son THME (tema) y Computer:{*} (número indeterminado de computadoras). Las características sintácticas del concepto, por ejemplo, en el caso del verbo, se mantienen codificadas en el nodo correspondiente tal como distributes (etiqueta VBZ generada por el parser que significa: verbo, tercera persona del singular, tiempo presente ) y solo la palabra normalizada (verbo en infinitivo) se muestra en el grafo. El conjunto de etiquetas para las categorías gramaticales usadas por el parser de Stanford es el definido en el marco del proyecto Penn TreeBank (Santorini, 1990).

9
paper corpusSignosTxtLongLines500 - : Bearing in mind the computationally-based notion of construction presented in Section 2 and the inadequacy of Levin’s taxonomy for parsing, alternations have been substituted for constructional schemata, since the former are based on the modification of an input structural pattern and its derivation into a different one. However, the parser only recognizes the input text, in this case, a constructional pattern, so what the parser requires is:

10
paper corpusSignosTxtLongLines522 - : Entre los errores más frecuentemente encontrados destacan los problemas de lematización (patrones generados a partir de ‘siembra’ como sustantivo), problemas del parser (por ejemplo, en ‘Ese año sembró soja’ se detecta erróneamente ‘Ese año’ como sujeto) y errores el etiquetador semántico (‘algodón’ es clasificado como ‘material’ y esto es erróneo como argumento de ‘sembrar’ ). El principal problema de los resultados, sin embargo, está en la sobregeneración de patrones por ser estos demasiado específicos.

Evaluando al candidato parser:


1) errores: 10
2) reglas: 5
7) detectar: 3
10) buggy: 3 (*)
11) schulze: 3
12) verbo: 3 (*)

parser
Lengua: spa
Frec: 62
Docs: 11
Nombre propio: / 62 = 0%
Coocurrencias con glosario: 2
Puntaje: 2.832 = (2 + (1+4.8073549220576) / (1+5.97727992349992)));
Candidato aceptado

Referencias bibliográficas encontradas sobre cada término

(Que existan referencias dedicadas a un término es también indicio de terminologicidad.)
parser
: “the actual description of each of the constructional patterns in which a verb can enter and a pointer in the Lexicon to lead the parser to the description of these constructions in the Grammaticon” (^[78]Fumero & Díaz, 2017: 37).
: Briscoe, T. & Carroll J. (1995). Developing and evaluating a probabilistic LR Parser of Part-Of-Speech and punctuation labels. En Proceedings of the ACL/SIGPARSE 4th International Workshop on Parsing Technologies (pp. 48-58). Prague: ACL.
: Chaplot, D. S., Bhattacharyya, P. & Paranjape, A. (2015). Unsupervised word sense disambiguation using markov random field and dependency parser. Proceedings of the Twenty-Ninth AAAI Conference on Artificial Intelligence (pp. 2217-2223).
: Díaz, A. & Martín, M. A. (2018). Computational treatment of clausal units in a controlled natural language: The ARTEMIS parser for ASD-STE100. Paper presented at the 36^th International Conference of the Spanish Association of Applied Linguistics, University of Cádiz, Spain.
: Gamallo, P. & González, I. (2012). DepPattern: A multilingual dependency parser. Sesión de demos. Ponencia presentada en el 10 ^t ^h International Conference on Computational Processing of the Portuguese Language (PROPOR’ 2012), Coimbra, Portugal.
: Hale, J. T. (2011). What a rational parser would do. Cognitive Science, 35, 399-443.