Satisfacción de usuarios del ámbito de la traducción en el uso de sistemas de búsqueda multilingüe de respuestas como recurso de información terminológica

Olvera-Lobo, María-Dolores and Gutiérrez-Artacho, Juncal Satisfacción de usuarios del ámbito de la traducción en el uso de sistemas de búsqueda multilingüe de respuestas como recurso de información terminológica., 2012 . In XIII Simposio Iberoamericano de Terminología, IULMA, Universidad de Alicante, 25, 26 y 27 de octubre de 2012. [Conference paper]

[thumbnail of Conference paper]
Preview
Text (Conference paper)
SATISFACCINDELOSUSUARIOSENLABSQUEDAMULTILINGEDERESPUESTASCOMORECURSOSDEINFORMACINTERMINOLGICA.pdf - Published version
Available under License Creative Commons Attribution.

Download (405kB) | Preview

English abstract

The present work focuses exclusively on the evaluation of multilingual answer search systems since it allows the user to access terminological information not available in their language, and in the user-centered evaluation to understand the needs of the user and identify the dimensions and factors in the development of an information system in order to improve its acceptance.

Spanish abstract

Con el rápido crecimiento de Internet y el desarrollo de las nuevas tecnologías en los últimos años, los sistemas de búsquedas de respuestas (SBR) se han convertido en una alternativa a los tradicionales sistemas de Recuperación de Información. Aunque existe una prolífera producción sobre estos sistemas, pocos son los trabajos que se han desarrollado en la evaluación centrada en el usuario. El presente trabajo se centra exclusivamente en la evaluación de los SBR multilingüe ya que permite al usuario acceder a información terminológica no disponible en su lengua, y en la evaluación centrada en el usuario para entender las necesidades del usuario e identificar las dimensiones y factores en el desarrollo de un sistema de información con el fin de mejorar su aceptación. El objetivo es conocer el grado de satisfacción del usuario para el SBR multilingüe HONqa (inglés, francés e italiano) utilizando la herramienta de los investigadores ONG et al. (2009) basado en un examen de modelos y teorías. Para ello, se ha analizado el grado de satisfacción de los profesionales de la traducción como recurso de información terminológica. Un total de 122 especialistas en inglés, francés o italiano ha utilizado y evaluado el recurso terminológico desde la perspectiva de la traducción. Tras el análisis de los resultados obtenidos respecto al SBR de HONqa los cuales han permitido evaluar la satisfacción de los alumnos de la Facultad de Traducción e interpretación de Granada se ha comprobado que el sistema les resulta a los usuarios-alumnos fácil y útil para la recuperación de información terminológica en todos los idiomas.

Item type: Conference paper
Keywords: Información multilingüe, Sistemas QA multilingües, Sistemas QA de dominio especializado, HONqa,Evaluación de la satisfacción de los usuarios, Información terminológica.
Subjects: L. Information technology and library technology
Depositing user: Maria Dolores/ M.D. Olvera Lobo
Date deposited: 24 Jul 2018 09:17
Last modified: 24 Jul 2018 09:17
URI: http://hdl.handle.net/10760/32951

References

Adiwibowo, S.; Adriani, M (2007). Finding answers using resources in the internet. En: Working notes for the CLEF 2007 Workshop .Disponible en:

http://www.clefcampaign.org/2007/working_notes/adiwibowoCLEF2007.pdf

Ajzen, I. (1991). The theory of planned behavior. En: Organizational and Human Decision Processes, Vol. 50, 179-211

Blair-Goldensohn, S., McKeown, K., & Schlaikjer, A. H. (2004). Answering Definitional Questions: A Hybrid Approach, New Directions in Question Answering, 4, 47-58

Breck E. et al. (2000). How to Evaluate Your Question Answering System Every Day ... and Still Get Real Work Done, Proceedings of Second International Conference on Language Resources and Evaluation. Atenas: Grecia

Cui, Hang; Kan, Min-Yen; Chua, Tat-Seng y Jing Xiao (2004). A Comparative Study on Sentence Retrieval for Definitional Question Answering. SIGIR Workshop on Information retrieval for Question Answering (IR4QA), Sheffield

Crouch, D., Saurí, R. y Fowler, A. (2005). AQUAINT Pilot Knowledge-Based Evaluation: Annotation Guidelines. Palo Alto Research Center. Disponible en:

http://www2.parc.com/isl/groups/nltt/papers/aquaint_kb_pilot_evaluation_guide.pdf[consulta 19/11/2011]

Charniak E. et al.( 2000, mayo). Reading Comprehension Programs in a Statistical-LanguageProcessing Class. ANLP/NAACL Workshop on Reading Comprehension Tests as Evaluation for Computer-Based Language Understanding Systems. Washington: Seattle.

DeLone, W.H.; E.R. McLean (2003). DeLone and McLean Model of Information Systems Success: A Ten-Year Update. Journal of Management Information Systems, (19:4), 9-30

Diekema, Anne R. (2003). Translation Events in Cross-Language Information Retrieval: Lexical ambiguity, lexical holes, vocabulary mismatch, and correct translations. Tesis Doctoral. University of Syracuse

García-Cumbreras, M.A., Ureña, L.A., & Martinez-Santiago, F. (2006, april). BRUJA: Question Classification for Spanish. Using Machine Translation and an English Classifier. Workshop on Multilingual Question Answering

Grefenstette, Gregory (1998). Cross-Language Information Retrieval. Kluwe academic publishers 1

Harabagiu, S. M.; Pascal, M. A.; Maiorano, S. J (2000).Experiments with open domain textual question answering. En: Proceedings of the Coling. Association for Computational Linguistics . Harman, D. K. (1998). Text retrieval conferences (TRECs): providing a testbed for information retrieval systems. Bulletin of the American Society for Information Science, vol. 24 (4), 11-13

I Izquierdo, R., Fernández, O., Fernández, S., Tomás, D., Vicedo, J.L., Martínez, P., & Suarez, A. (2007). Question Answering Learning technologies in a multilingual and multimodel Environment, 38, 43-47

Jackson, Peter y Frank Schilder (2005). Natural Language Processing: Overview. En K. Brown :. Encyclopedia of Language & Linguistics 2, 503-518. Amsterdam: Elsevier Press. Jones,K. Sparck, & Jackson, David M. (1970). The use of automatically-obtained keyword classifications for information retrieval. Information Storage and retrieval, 5(4), 175-201

Magnini,B.; Negri, M.; Prevete, R. (2001) “Open domain question/answering on the Web”. En: Congress of the Italian Association for Artificial Intelligence, n. 2175 (pp. 273-284)

Moldovan, D. et al. (2003).Performance issues and error analysis in an open-domain question answering system. ACM transactions on information systems. Esta indicado: v. 21, n. 2, 133 -154. 67

Olvera-Lobo, M. D. & Gutiérrez-Artacho, J. (2010). Question-answering systems as efficient sources of terminological information: Evaluation. Health Information and Library Journal, 27 (4): 268-274

Ong Cc, Day M, Hsu M. (2009). The measurement of user satisfaction with question answering systems. Information & Management, 46(7): 397-403 P Pérez-Coutiño, M.; Solorio, T.; Montes-Gomez, M.; López López, A.; Villaseñor-Pineda, L. “The use of lexical context in question answering for Spanish”. En: Workshop of the cross language evaluation forum (CLEF2004). Bath, UK. September2004

http://www.clefcampaign.org/2004/working_notes/WorkingNotes2004/46.pdf Pomerantz, J. (2005). “A linguistic analysis of question taxonomies”. Journal of the American Society for Information Science and Technology, v. 56, n. 7, 715-728. R Roger, S., Fernández, A., Peral, J., Fernández, S., & P.López. (2007, march). An Inference Mechanism for Question Answering. In: Journal of Computer Science and Technology. Argentina: San Luis

Solorio, T.; Pérez-Coutiño, M.; Montes-Gómez, M.; Villaseñor-Pineda,L.; López-López, A. (2004).A language independent method for question classification. En: The 20th Intl. conf. on computer linguistics , 1374-1380

Vicedo J. et al (2003. Los sistemas de Búsqueda de Respuestas desde una perspectiva actual. Revista de la Sociedad Española para el Procesamiento del Lenguaje Natural, n.31, 2003. Voorhees, E. M. (2002). Overview of the TREC 2002 Question Answering Track. Proceedings of the Eleventh Text REtrieval Conference.

http://comminfo.rutgers.edu/~muresan/IR/TREC/Proceedings/t11_proceedings/t11_proceeding s.html [5 noviembre 2011] 69

Voorhees, E. M.y Tice, D. (1999). The TREC-8 question answering track evaluation. En Greece: Athens


Downloads

Downloads per month over past year

Actions (login required)

View Item View Item