aboutsummaryrefslogtreecommitdiffstats
path: root/chapter/30-estado_del_arte.tex
diff options
context:
space:
mode:
Diffstat (limited to 'chapter/30-estado_del_arte.tex')
-rw-r--r--chapter/30-estado_del_arte.tex17
1 files changed, 9 insertions, 8 deletions
diff --git a/chapter/30-estado_del_arte.tex b/chapter/30-estado_del_arte.tex
index 5007129..ae8b0d6 100644
--- a/chapter/30-estado_del_arte.tex
+++ b/chapter/30-estado_del_arte.tex
@@ -131,7 +131,7 @@ Ver \autoref{tab:picoc}.
Predicciones de deserción estudiantil universitaria \\
\hline
Contexto &
- Estudiantes de pregrado, instituciones de educacion superior, nacional o internacional,
+ Estudiantes de pregrado, instituciones de educación superior, nacional o internacional,
tipo de grado académico perseguido, estatus socioeconómico del estudiante. \\
% El contexto de la intervención es amplio. Se espera
% recolectar información de las técnicas de Aprendizaje Automático
@@ -314,8 +314,9 @@ Se cuentan con los siguientes criterios de inclusión:
El artículo explora y compara herramientas y metodologías para analizar
la deserción estudiantil universitaria
\item
- El artículo incluye soluciones algorítmicas de Machine Learning para el
- análisis de deserción estudiantil universitaria.
+ El artículo incluye soluciones algorítmicas de aprendizaje automático
+ (\textit{machine learning}) para el análisis de deserción estudiantil
+ universitaria.
\end{itemize}
Y los siguientes criterios de exclusión:
@@ -400,8 +401,8 @@ extracción de datos. Ver \autoref{tab:formulario-extraccion}.
P2 \\
\hline
- Algoritmos de ML &
- Algoritmos actuales de Machine Learninng utilizados para analizar la
+ Algoritmos de aprendizaje automático &
+ Algoritmos actuales de aprendizaje automático utilizados para analizar la
deserción estudiantil universitaria &
P3 \\
\hline
@@ -699,7 +700,7 @@ Learning}, como lo son \textit{Decision Tree}, clasificación bayesiana, redes
neuronales, y regresión logística. Para cada técnica, se cuenta con varios
algorítmos, por ejemplo, C4.5, \textit{Random Forest}, \textit{Naïve Bayes}, y
\textit{Multilayer perceptron} \autocite{Alwarthan2022107649}. En la
-\autoref{tab:alg-comp} se sumariza el desempeño del mejor algorítmo para cada
+\autoref{tab:alg-comp} se sumariza el desempeño del mejor algoritmo para cada
artículo primario revisado.
\begin{table} [htbp]\centering
@@ -775,7 +776,7 @@ su naturaleza, están sujetas al enfoque subjetivo de cada encuestado. La
segunda falencia identificada es el trabajar con notas no estandarizadas cuando
se procesan datos de varias carreras \autocite{Kemper2020}. Distintos
estándares de calificación en cada carrera pueden afectar al modelo.
-Finalmente, se identifica que algunos estudios no se cuenta con un
+Finalmente, se identifica que algunos estudios no cuenta con un
\textit{dataset} grande, \autocite{Alvarez2020} cuenta con data de solo 456
estudiantes, y \autocite{Moreira2022} con 331 estudiantes.
@@ -858,7 +859,7 @@ instituciones educativas podrán desarrollar modelos de predicción más preciso
% estudios describen la metodología que siguieron, pero no mencionan un
% nombre en específico de su metodología.
% \item
-% Los algorítmos más utilizados y con mejores resultados son
+% Los algoritmos más utilizados y con mejores resultados son
% \textit{Random Forest}, \textit{C4.5}, y \textit{Multilayer perceptron}.
% Siendo los dos primeros técnicas de clasificación utilizando
% \textit{Decision Trees} y el tercero utilizando redes neuronales.