Examinando por Autor "Cruz Rojas, Petter Israel"
Mostrando 1 - 1 de 1
Resultados por página
Opciones de ordenación
- ÍtemAcceso AbiertoEvaluación de la predicción del nivel de complejidad de las palabras en los estudios de derecho aplicando el modelo de lenguaje basado en Transformers XLM-RoBERTa(Universidad de Guayaquil. Facultad de Ciencias Matemáticas y Físicas. Carrera de Ingeniería en Sistemas Computacionales., 2023-03) Cruz Rojas, Petter Israel; Rodríguez Poveda, Bryan Jesús; Ortíz Zambrano, Jenny AlexandraEste proyecto de investigación pretende lograr el mejoramiento del nivel de predicción de complejidad de las palabras en idioma español mediante la aplicación de Deep Learning y su modelo de lenguaje basado en Transformers, específicamente los dirigidos a español XLM-RoBERTa. El objetivo del proyecto busca contribuir a la reducción de las barreras de la comprensión lectora de los estudiantes de la carrera de Derecho de la Universidad de Guayaquil mediante la evaluación de los resultados generados de la ejecución del modelo. Se aplicaron las técnicas de Masked Language Modeling y Fine-Tuning para lograr una mejor precisión en la predicción de la complejidad. Se utilizó el corpus CEDUG (Complejidad léxica en los Estudios de Derecho de la Universidad de Guayaquil) el cual es un corpus etiquetado por los estudiantes de la carrera de Derecho. Este Dataset contiene textos extraídos de diferentes documentos jurídicos provenientes de varias fuentes como la Constitución del Ecuador y proyectos de titulación de la carrera de Derecho. Para el proceso de entrenamiento y evaluación se aplicaron las métricas del error común MAE, MSE, RMSE, y otras orientadas a la evaluación de la complejidad de las palabras como son R2 y Pearson. La población estuvo conformada por los estudiantes de la carrera de Derecho. La metodología de investigación que se aplicó fue cuantitativa y un muestreo por estratos. Adicional a este estudio se realizó una contribución en el cual se aplicaron otros modelos de lenguaje para el idioma español, los cuales fueron XLM-RoBERTa-base, XLM-RoBERTa-Large, RoBERTa-Large-BNE.