Termout.org logo/LING


Update: February 24, 2023 The new version of Termout.org is now online, so this web site is now obsolete and will soon be dismantled.

Lista de candidatos sometidos a examen:
1) vector (*)
(*) Términos presentes en el nuestro glosario de lingüística

1) Candidate: vector


Is in goldstandard

1
paper CO_Lenguajetxt59 - : Al respecto, sus investigaciones sobre la adquisición de la variable de suburbios de Filadelfía (2006-2009), señalan cómo éstas son influenciadas por grupos poblacionales específicos quienes reforman aspectos de las reglas fonéticas, que son a posteriori, aplicadas por nuevos sujetos que ingresan a este grupo poblacional. En el caso de estudio reportado por Labov (2009) la transformación surge como respuesta a la necesidad de distinguir por medio de usos fonéticos específicos criterios de pertenencia a grupos con orientaciones profesionales determinadas. Los cambios de las reglas fonéticas para estos adolescentes están estrechamente relacionados con la elección de su futuro profesional y la necesidad de inscribirse desde la escuela secundaria a un grupo con orientación profesional específica. El vector para el cambio es el futuro profesional y es este vector lo que se transmite . En este sentido, los resultados de las investigaciones de Labov reconfirman la preeminencia de variables de edad

2
paper CO_Lenguajetxt121 - : Otra particularidad es que la seña que hemos denominado hasta ahora GRUPO-2 (1234crzα/o+), y que aparentemente es un sucedáneo de GRUPO-1 (1234+°/o+), se comporta de una manera que hace pensar que podría tratarse de una seña con configuración manual clasificadora. En efecto, según la terminología de ^[132]Liddell (2003), podría tratarse de un “verbo representacional (depicting verb) de colocación de una entidad o grupo de entidades en el espacio (ES-UBICADO-EN)” (p. 362). En ese caso, se tendría una configuración manual clasificadora, CL:1234crzα/o+ [conjunto de entidades agrupadas], con orientación dorso hacia el interlocutor y base hacia el piso, ubicada en un vector espacial específico con un ligero movimiento hacia abajo, como es el caso de los clasificadores . Así, para indicar que el grupo (“reino”) de los Protista se desprendió del de las Plantas para formar un nuevo grupo, la seña GRUPO-2, reinterpretada como CL:1234crzα/o+ [conjunto de entidades agrupadas manipuladas], en

3
paper PE_Lexistxt145 - : Conforme a esta misma mirada, los presupuestos científicos y estéticos definidos desde el racionalismo de herencia griega no poseen el alcance y la significación que un modelo radical de abstracción, ya desde inicios del pasado siglo y en su afán por exponer un vector conducente de la materialidad a la inmaterialidad, evidencia a partir de lo que ^[84]Larrea vino a comprender como el paso de la “mente estrictamente física a la mente psíquica” (2019: 59 ). La descomposición de los presupuestos epistemológicos tradicionales advertida en el arte vanguardista generará un vacío desde el que emergerá el ideario escatológico del poeta, si bien adjudicando a estos ismos -al surrealismo^[85]^33 y al cubismo ante todo- una espiritualidad en verdad más ceñida a las búsquedas de la abstracción pura.

4
paper corpusLogostxt2 - : 5. Vector: Corresponde a aquello que activa el espacio visual, es decir, corresponde a la línea de energía o contacto que atraviesa una imagen vinculando los participantes y se puede dar de dos formas . (a) Línea de mirada del espectador o camino de lectura. (b) Líneas de fuerza representadas en el espacio entre participantes de la imagen: miradas, acciones, movimientos.

5
paper corpusLogostxt2 - : El segundo episodio se construye a partir de las imágenes 6 a 9. La imagen 6 corresponde a la consecuencia del estado inicial y a la respuesta interna del personaje principal. Se considera una imagen narrativa, ya que construye el proceso de encerrar, el agente y la meta: el antagonista y la protagonista, respectivamente. Las circunstancias representan un cambio de escenario: el interior de la casa. Es una escena donde se ofrece información al observador, en el cual el vector de movimiento se dibuja a partir de don Bigotes, al tener la mano dentro del frasco simbolizando lo que expresa el texto verbal: la encerró en el frasco . Asimismo, la distancia social media, permite que se represente la respuesta interna de Flopi encarnada en la cara de la mariposa, emoción que no es referida explícitamente en el input verbal.

6
paper corpusRLAtxt73 - : En esta etapa del trabajo no se obtienen todavía los resultados de salida, ya que, según lo anunciado más arriba, se efectúan aquí las operaciones de definición de parámetros. Junto con ello, es necesaria una normalización de los datos. Normalizar un conjunto de datos numéricos que conformarán el ejemplo de entrada a la red neuronal, conjunto denominado vector de entrada, consiste en someterlo a un proceso de ajuste de sus valores individuales, dividiendo cada uno por el valor más alto del conjunto . Por ejemplo, si el conjunto de datos fuera 1 3 5 7, el valor más alto correspondería a 7, de esta forma, al aplicar el proceso de normalización, el nuevo conjunto quedaría 1/7 3/7 5/7 y 1. Este proceso se aplicó solamente a aquellas variables que alcanzaron valores superiores a 1. Normalizar un vector de datos de entrada o salida de una red consiste en obtener otro vector cuyo valor sea la unidad, pero conservando las propiedades del mismo, en el sentido que si el valor es negativo o positivo se

7
paper corpusRLAtxt168 - : Los quince vectores de la [82]Tabla I tienen unas frecuencias muy desiguales. El vector 2 es el que mayor frecuencia presenta (32 ; 42,67%), le siguen los vectores 1 y 3 (9; 12% cada uno), a continuación se sitúa el vector 10 (7; 9,33%), los vectores 9 y 11 (4; 5,33% cada uno) y el 15 (2; 2,67%); los vectores 4, 5, 6, 7, 8, 12, 13 y 14 sólo aparecen una vez.

8
paper corpusSignostxt455 - : An associative memory is represented by a matrix generated from a finite set of pairwise pattern vector associations referred to as the fundamental set, which is described as:

9
paper corpusSignostxt455 - : The first step of the learning phase consists of building an output vector, y^µ of length p, for each input vector, x^µ of length z, to be recovered later depending on the type of Alpha-Beta hetero-associative memory to be computed. The output vectors would be built employing the one-hot codification ([91]Equation 2) for the type max or the zero-hot codification ([92]Equation 3) for type min (^[93]Román-Godínez & Yáñez-Márquez, 2007):

10
paper corpusSignostxt455 - : For the Alpha-Beta hetero-associative memory of type max, the ‘s’ vector is built as follows:

11
paper corpusSignostxt455 - : Then, the corresponding y^ω vector is given as:

12
paper corpusSignostxt455 - : On the other hand, for the Alpha-Beta hetero-associative memory of type min, the ‘r’ vector is obtained by:

13
paper corpusSignostxt455 - : Finally, the corresponding y^ω vector is given as:

14
paper corpusSignostxt455 - : 4. Vector normalization: given that the number of binary digits needed for the codification of each word may be different, the lengths of all codified word vectors are normalized to the largest length . The nonexistent components of each vector (context and sense vectors) are filled with a numeric value depending on the Alpha-Beta hetero-associative memory used, 0’s for max type and 1’s for min type.

15
paper corpusSignostxt124 - : Kintsch ([71]2001) establece que existe además otra medida que es a menudo útil, "la longitud de vector" que, como el coseno, se define matemáticamente. Intuitivamente, la longitud de vector nos dice cuánta información tiene el LSA sobre tal o cual vector. Así, la longitud de vectores de la frase es generalmente mayor que la longitud de vectores de la palabra, y la longitud de vectores del párrafo es aún mayor. Las palabras sobre las que el LSA sabe mucho (porque aparecen frecuentemente en el corpus de entrenamiento, en muchos contextos diferentes) tienen longitudes de vector mayores que de aquellas que el LSA no conoce bien. Así, "caballo" tiene una longitud del vector de 2,49, mientras la "cochera" tiene una longitud del vector de 0,59. Palabras funcionales que frecuentemente se usan en muchos contextos diferentes tienen longitudes de vector bajas (por ejemplo: "el" y "de" tienen las longitudes del vector de 0,03 y 0,06, respectivamente, mientras que su coseno es 0,99, el LSA no sabe nada

16
paper corpusSignostxt213 - : Observamos que el vector identifica en qué grado el documento D[i] satisface cada una de las m características. En otras palabras el vector, c[i]k es un valor numérico que expresa en qué grado el documento D[i] posee la característica k . La noción de “característica” suele concretarse en la ocurrencia de determinadas palabras o términos en el documento, aunque nada impide tomar en consideración otros aspectos. Respecto de esto último, cabe señalar que este tipo de procedimientos se han utilizado en el reconocimiento de objetos, donde las características son de carácter viso-perceptual (color, forma, etc.) (Landauer, 2002).

17
paper corpusSignostxt213 - : Para determinar la capacidad de representación de un término para un documento dado, se calcula el número de veces que este aparece en dicho documento, obteniéndose la frecuencia del término en el documento (term frequency, tf). Por otra parte, si la frecuencia de un término en toda la colección de documentos es extremadamente alta, se opta por eliminarlo del conjunto de términos de la colección. Podría decirse que la capacidad de recuperación de un término es inversamente proporcional a su frecuencia en la colección de documentos. Esto es lo que se conoce como idf (inverse document frequency). Así, para calcular el peso de cada elemento del vector que representa al documento, se tiene en cuenta la frecuencia inversa del término en la colección, multiplicándola por la frecuencia del término dentro de cada documento (Harman, 1992), esto es:

18
paper corpusSignostxt213 - : Ahora bien, dado que en nuestro caso nos interesa describir el Corpus PUCV-2006 e identificar las similitudes y diferencias entre las disciplinas consideradas en este corpus, compararemos dos métodos de clasificación supervisada, basados en el modelo vectorial: el Bayes Ingenuo (Multinomial Naïve Bayes ) y la Máquina de Soporte de Vectores (Support Vector Machine), con el fin de conocer cuál de ellas es más eficiente en la clasificación de los textos.

19
paper corpusSignostxt256 - : Los documentos y las consultas del usuario están representados en un espacio multidimensional, para que se puedan traducir en un patrón que representa un vector de criterios una vez que el procesador de LN los haya procesado. El agente de búsqueda utiliza métricas de distancia y algunos motores existentes para recuperar los documentos apropiados. Un documento D estructurado de esta manera se representa como un vector i: Vd = X0 X1 ... Xn donde Xi expresa el valor extraído de los usuarios o los resultados de búsqueda para el i-ésimo criterio de los documentos que se están recuperando. Estos criterios representan información contextual relevante relacionada con páginas web que puedan ser de utilidad para entrenar los patrones y filtrar los resultados de búsqueda. Inicialmente, el criterio X0 se relacionará con el tema principal (el tópico principal del input en LN) y el resto del vector permanecerá vacío. En la medida que avanza el diálogo y se obtienen nuevos resultados de búsqueda, se van

20
paper corpusSignostxt555 - : En un problema multi-etiqueta existe un número de etiquetas finito L = {λ [j ]: j = 1…l}, donde λ [j ]corresponde a la etiqueta j-ésima, y al set de documentos etiquetados D= f x i , 𝐘 i :i=1…d D = {f{x[i],Y[ i ]: i=1…d}}, donde x[i] representa el vector de características y Y[i] ⊂ L es el conjunto de etiquetas del texto i-ésimo .

21
paper corpusSignostxt555 - : En el caso particular de los documentos, la representación del texto tiene un alto impacto en la tarea de clasificación (^[62]Keikha, Razavian, Oroumchian & Razi, 2008). El modelo espacio vectorial es uno de los modelos más usados para recuperación de información, principalmente por su simplicidad conceptual y el atractivo de su metáfora subyacente, de usar una proximidad espacial para proximidad semántica (^[63]Manning & Schütze, 1999 ). En el modelo de espacio vectorial (Vector Space Model), los contenidos de un documento son representados por un vector de términos d = {w[ 1 ],…,w[ k ]}, donde k es el tamaño del conjunto de términos w[ i ](o características). Algunos elementos usados en la representación de un texto son los N-gramas, palabras, frases, lógica de términos y declaraciones o cualquier otra unidad léxica, semántica y/o sintáctica que pueda ser utilizada para representar el contenido del texto.

22
paper corpusSignostxt555 - : Según ^[72]Sebastiani (2002), la representación de textos más utilizada para clasificación de textos es tf-idf de ^[73]Salton y Buckley (1988). Donde, cada componente del vector es calculado según la [74]Ecuación 1:

23
paper corpusSignostxt555 - : Para describir las medidas de desempeño, se utiliza la siguiente notación: considerando el vector Y[i] ∈{0,1}^ |L| ∶i = 1…d , entonces cada etiqueta será relevante si y[ i,j ]= 1, y por su parte, la predicción del clasificador automático será y^ ' [i,j ]= 1 , donde d es el número de documentos y |L| es el número de posibles etiquetas .

24
paper corpusSignostxt393 - : Each document can be represented by a vector where each entry corresponds to the ‘tf-idf’ value obtained by each vocabulary term of the given document. Thus, given two documents in vectorial representation, and , it is possible to calculate the cosine of the angle between these two vectors as follows:

25
paper corpusSignostxt176 - : a) El largo del vector o longitud del vector es una medida que se obtiene al sumar todos los números que componen al vector y permite medir tanto la cantidad de información semántica general que el LSA tienen respecto de un dominio de conocimiento, como la que particularmente tiene, dentro de ese dominio, respecto de cada palabra, cada documento y/o cada frecuencia de ocurrencia de aquéllas en estos (Berry et al ., 1994; Maldonado, 2002).

26
paper corpusSignostxt176 - : Quesada, J., Kintsch, W. & Gómez, E. (2001). A computational theory of complex problem solving using the vector space model (part I): Latent semantic analysis, through the path of thousands of ants [en línea] . Disponible en: [79]http://lsa.colorado.edu/~quesadaj/pdf/THEORETICALfinal.PDF [ [80]Links ]

27
paper corpusSignostxt479 - : Para poder llevar a cabo el análisis de similitud basado en construcciones, tres lingüistas determinaron si cada sentido verbal podía instanciar o no cada una de estas construcciones. Para ello se recogieron ejemplos de frases para cada sentido verbal y construcción con la ayuda de una gramática descriptiva (^[78]Bosque & Demonte, 1999), o bien se anotó la imposibilidad de encontrar un ejemplo. A partir de estos datos se establecieron varias sesiones de discusión en las que se valoró la adecuación de los ejemplos o la ausencia de los mismos, según el caso. En estas sesiones, tras partir de un alto grado de consenso, se llegó a un acuerdo global. Estas concurrencias de sentidos y construcciones quedan registradas en una matriz en la que cada sentido verbal es representado mediante un vector y cada construcción es una componente de ese vector, cuyo valor es 1 o 0 dependiendo de si el verbo puede instanciar la construcción o no . Un ejemplo de esta formalización puede verse en la [79]Tabla 2.

28
paper corpusSignostxt229 - : • ¿Es la fuerza de conexión que resulta del vector de activación un asunto de todo o nada (es decir, si dos proposiciones son co-activadas se establece una conexión sin importar sus reales valores de activación), aditiva (es decir, la fuerza de conexión es la suma de cada una de sus activaciones o, si uno admite la activación negativa, la suma de los valores absolutos de sus activaciones), o multiplicativa (es decir, la fuerza de las conexiones es una función del producto de las dos activaciones )?

Evaluando al candidato vector:


1) documento: 11
4) documentos: 7
5) frecuencia: 7 (*)
13) palabras: 5 (*)
15) términos: 5

vector
Lengua: spa
Frec: 152
Docs: 57
Nombre propio: 2 / 152 = 1%
Coocurrencias con glosario: 2
Puntaje: 2.747 = (2 + (1+5.16992500144231) / (1+7.25738784269265)));
Candidato aceptado

Referencias bibliográficas encontradas sobre cada término

(Que existan referencias dedicadas a un término es también indicio de terminologicidad.)
vector
: Bautista, E., Guzmán, E. & Figueroa, J. (2004). Predicción de múltiples puntos de series utilizando support vector machines. Computación y sistemas, 7(3), 148-155.
: Cortes, C. & Vapnick, V. (1995). Support vector networks. Machine Learning, 20, 273-297.
: Cristianini, N. & Shaw-Taylor, J. (2002). Introduction to support vector machines: And other kernel-based learning methods. Cambridge: University of Cambridge.
: Gunn, S. (2003). Support vector machine for classification and regression. Informe técnico de la Universidad de Southampton, Inglaterra.
: Hsu, Ch., Chang, Ch. & Lin, Ch. (2003). A practical guide to support vector classification [en línea]. Disponible en: [55]http://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf
: Joachims, J. (2002). Learning to classify text using support vector machines: Methods, theory, and algorithms. Dordrecht: Kluwer Academic.
: Leopold, E. & Kindermann, J. (2002). Text categorization with support vector machines. How to represent texts in input space? Machine Learning, 46(1-3) 423-444.
: Mullen, T., & Collier, N. (2004). Sentiment analysis using support vector machines with diverse information sources. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing. Retrieved from [145]http://www.aclweb.org/anthology/W04-3253.
: Platt, J. (1998). Fast training of Support Vector Machines using sequential minimal optimization. Advances in Kernel Methods - Support Vector Learning. Cambridge: MIT Press.
: Salton, G., Wong, A. & Yang, C. (1975). A Vector Space Model for Automatic Indexing. Communications of the AMC, 18(11), 613-620.
: Sidorov, G., Gelbukh, A., Gómez-Adorno, H. & Pinto, D. (2014). Soft similarity and soft cosine measure: Similarity of features in vector space model. Computación y Sistemas ,18(3), 491-504.
: Uriarte-Arcia, A. V., López-Yáñez, I. & Yáñez-Márquez, C. (2014). One-hot vector hybrid associative classifier for medical data classification. PloS one, 9(4), e95715.
: Wolff, P. & Zettergren, M. (2002). A vector model of causal meaning. In W. Gray & C. Schunn (Eds.), Proceedings of the twenty-forth annual conference of the cognitive science society (pp. 944-949). Hillsdale, NJ: Erlbaum.
: Wong, S., Ziarko, W. & Wong, P. (1985). Generalized vector space model in information retrieval. Proceedings of the 8^th International ACM SIGIR Conference on Research and Development in Information Retrieval, New York, U.S.A.
: ^[34]2 In (Wong, Ziarko & Wong, 1985) a similar schema is adopted to define a Generalized Vector Space Model, of which the Domain VSM is a particular instance.