29 de septiembre de 2023
23 de ferero de 2024
200 hrs.
17DAP57319
Secretaría de Educación del Estado de Morelos (SEEM)
Clases online: Viernes de 4:00 pm a 6:00 pm (horario central de la Ciudad de México)
Todas las clase se van grabando y se comparten a través de la plataforma educativa, para su retroalimentación
el Estudiante deberá cubrir el 80% en asistencia.
A cada estudiante se asigna un usuario y contrasñea para la obtención de material de estudio y retroalimentación.
- Conocimientos básicos del uso de la computadora
- Sistema operativo Windows (Preferentemente)
Una vez que hayamos recibido su solicitud de inscripción le mandaremos los costos de acuerdo al calendario de costos, los datos bancarios, y le estaremos solicitando la siguiente documentación para abrir su expediente:
- Copia de credencial de elector o identificación oficial
- CURP actualizada
- Copia de cédula profesional de licenciatura, Maestría o Doctorado o Copia de Titulo en su caso (Mínimo Nivel Licenciatura)
*Nota: Una vez comience el diplomado también deberá enviar 3 fotografías tamaño diploma, con las especificaciones que se le indicarán por la Administración de Colegio Científico de Datos.
Costo general $16,000.00
10% de descuento al pagar su primera mensualidad durante el mes de agosto de 2023
Precio con descuento: $14,400.00 MXN
Formas de pago:
- En una sola exhibición
- 5 pagos diferidos
- 6 meses sin intereses con cuenta Paypal
Calendario:
- Durante el mes de agosto de $2,880.00 MXN
- Del 1 al 5 de octubre de 2023 $2,880.00 MXN
- Del 1 al 5 de noviembre de 2023 $2,880.00 MXN
- Del 1 al 5 de diciembre de 2023 $2,880.00 MXN
- Del 1 al 5 de enero de 2024 $2,880.00 MXN
Información general
Licenciados en Medicina en General,
Nivel mínimo de estudios: Licenciatura
Convertirse en un científico de datos profesional con R, aprendiendo su potencialidad, para el procesamiento de datos, interpretando de forma correcta los resultados obtenidos y así, innovar en sus proyectos de investigación biomédica.
1) Totalmente práctico con bases de datos Médicas
2) Solo se le recomienda tener nociones básicas de estadística aplicadas a las ciencias experimentales.
3) Comprenderá y sabrá aplicar las nociones básicas para poder llevar a cabo una investigación, desde el póster de concepto, cálculos muestrales hasta los distintos tipos de diseños de investigación, entre otros.
4) Aprenderá las técnicas estadísticas más utilizadas en investigación.
5) Aplicará las técnicas clásicas paramétricas y no paramétricas, predictivas y de análisis multivariado.
6) Conocerá y sabrá en qué situaciones aplicar las técnicas robustas en las diferentes técnicas para el tratamiento de falta de supuestos y presencia de datos anómalos.
7) Aprenderá técnicas de machine learning.
8) Trabajará estrategias ETL y bases de datos (big data) con cubos OLAP.
9) Aprenderá a trabajar bases de datos con entorno tidyverse.
10) Al finalizar obtendrá un diploma oficial con valor curricular por valor de 200 horas y/o 12.5 créditos de la Secretaría de Educación del Estado de Morelos con registro 17DAP57319.
Si desea inscribirse puede hacerlo a través de nuestro formulario de registro
Una vez que tengamos la información, nos pondremos en contacto con usted.
Si desea realizar su pago a través de transferencias o depósitos.
BBVA
PROMOTORA DE FORMACIÓN ASML, S.C.
Cuenta: 0113456544
Clave interbancaria: 012542001134565445
Nota: Una vez que tengamos su diploma, podrá recogerse en las instalaciones de COCID, o podemos enviarle a tráves de paquetería DHL con un costo de $800.00 MXN
Pagos en línea
Temario
MÓDULO I.
Diseño de Investigación
Fundamentos y bases empíricas.
1.1. Evolución del método estadístico.
1.2. Ciencia en la sociedad.
1.3. Método científico.
1.4. Conocimiento.
1.5. Medición de datos.
1.6. Experimentación.
1.7. Clasificación.
1.8. Inicio de una investigación.
Elección del tema, objetivos e hipótesis.
2.1. Tema de investigación.
2.2. Objetivo de la investigación.
2.3. Hipótesis de la investigación.
2.4. Metas.
Muestreos, tipos, datos y controles.
3.1. Datos.
3.2. Muestreo.
3.3. Tipos de muestreos.
3.4. Con azarización.
3.5. Sin azarización.
3.6. Cálculo de tamaño muestral.
3.7. Grupo control y grupo/s experimental/es.
3.8. Principios éticos en la investigación.
Tipos de diseños de investigación.
4.1. Diseño de una investigación.
4.2. Tipo de diseño. Motivos de elección.
4.3. Propiedades de una investigación.
4.4. Clasificación de los diseños de investigación estadística.
4.5. Según la intención de los objetivos que originan la investigación.
4.6. Según la direccionalidad de la investigación.
4.7. Según el número de mediciones.
4.8. Según el grado de control.
4.9. Diseños observacionales.
4.9.1 Ensayos de prevalencia.
4.9.2. Estudios de casos y controles.
4.9.3. Estudios de cohortes.
4.10. Diseños Cuasiexperimentales.
4.10.1. Diseños intersujetos.
4.10.2. Diseños intrasujetos.
4.10.3. Pre-post test de grupo único.
4.10.4. Pre-post test con dos grupos.
4.11. Diseños experimentales.
4.11.1. Diseños de laboratorio.
4.11.2. Ensayos clínicos controlados.
4.11.3. Estudios de campo.
Comunicación de resultados.
5.1. Autoevaluación del trabajo.
5.2. Presentación oral de las investigaciones.
5.2.1. Métodos audiovisuales.
5.2.2. Exposición verbal.
5.2.3. Presentación en cartel.
5.3. Manuscrito. Publicación.
5.3.1. Título.
5.3.2. Autores.
5.3.3. Redacción del texto.
5.3.4. Resumen.
5.3.5. Introducción.
5.3.6. Material y métodos.
5.3.7. Discusión.
5.3.8. Agradecimientos.
5.3.9. Referencias.
5.4. Elección de la revista.
Técnicas estadísticas cuantitativas.
6.1. Estadística descriptiva.
6.2. Estadística predictiva.
6.3. Estadística multivariada.
6.4. Machine learning.
6.5. Técnicas robustas.
MÓDULO II.
Técnicas clásicas.
1. R.
1.1. Instalación.
1.2. Primeros pasos.
1.3. Tipos de introducción de datos.
1.4. Importado y exportado de bases de datos.
1.5. Cambio de directorio.
1.6. Guardado de scripts.
2. Estadística descriptiva numérica y gráfica.
2.1. Medidas de posición y dispersión.
2.1.1. Media.
2.1.2. Mediana.
2.1.3. Cuasivarianza.
2.1.4. Cuasidesviación típica.
2.1.5. Cuantiles.
2.1.6. Resumen.
2.1.7. describeBy.
2.1.8. Descriptiva robusta. Huber. Alpha winsorizadas. Alpha recortadas.
2.1.9. Test de Grubbs para detección de outliers.
2.2. La distribución normal.
2.3. Funciones útiles para investigación. Tratamiento de datos faltantes.
2.4. Gráficos de barras.
2.5. Gráficos de sectores.
2.6. Histograma.
2.7. Nubes de puntos.
2.8. Gráficos de cajas.
2.9. Gráficos para tablas de contingencia.
2.10.- Conclusión.
3. Pruebas no paramétricas.
3.1. Test de Wilcoxon.
3.2. Test de Wilcoxon – Mann-Whitney.
3.3. Test de Kolmogorov – Smirnov.
3.4. Test de Shapiro-Wilks.
3.5. Test de Kruskal – Wallis.
3.6. Test de Chi cuadrado.
4. T de Student.
4.1. Distribución t-Student.
4.2. Función t.test.
4.3. Función var.test.
4.4. Resolución. Supuestos.
4.5. Media de una población normal.
4.6. Media de una población no necesariamente normal. Muestras grandes.
4.7. Cociente de dos poblaciones independientes.
5. Análisis de varianza. Diseño completamente aleatorizado.
5.1. Un factor. HSD Tukey.
5.2. Generalizaciones robusta del test de Welch y del test de Box para un factor. Comparaciones robustas lincon.
5.3. Dos factores. HSD Tukey.
5.4. Generalización robusta del test de Welch para dos factores. Comparaciones robustas lincon.
6. Análisis de varianza. Medidas repetidas.
6.1. Análisis de Varianza. Medidas Repetidas.
7. Análisis de varianza multivariante (MANOVA).
7.1. Proceso de realización de MANOVA.
8. Regresión y correlación lineal simples.
8.1. Regresión lineal simple.
8.1.1. Introducción.
8.1.2. Modelo.
8.1.3. Contraste.
8.1.4. Tabla de análisis de varianza.
8.1.5. Resolución e interpretación de resultados.
8.1.6. Predicciones.
8.2. Correlación simple.
8.2.1. Introducción.
8.2.2. Coeficiente de correlación de Pearson. Conocimiento de otros métodos Kendall y Spearman.
8.2.3.- Resolución de correlación.
9. Regresión múltiple.
9.1. Modelo.
9.2. Contraste de la regresión lineal múltiple.
9.3. Tabla de análisis de la varianza para la regresión lineal múltiple.
9.4. Estimación de la varianza común.
9.5. Contraste de hipótesis sobre los coeficientes de regresión.
9.6. Regresión múltiple con R.
9.7. Selección secuencial de variables por pasos. Criterio de Akaike (AIC)
10. Correlación múltiple.
10.1.- Introducción.
10.2.- Resolución.
10.3.- Representaciones gráficas.
MÓDULO III.
Técnicas avanzadas.
- Técnicas actuales en regresión. Tratamiento de datos anómalos.
1.1. Introducción.
1.2. Bibliotecas.
1.3. Formulación.
1.4. Regresión lineal por mínimos cuadrados.
1.5. Técnicas actuales en Regresión (tratamiento de datos anómalos).
1.5.1. Recta de Huber.
1.5.2. LTS-Least Trimmed Squares.
1.5.3. LMS-Least Median of Squares.
1.5.4. Recta M-estimador (MM).
- Regresión poisson.
2.1. Introducción.
2.2. Resolución del modelo.
2.3. Interpretación y predicciones.
- Modelos de regresión logística. Logit y probit.
3.1. Introducción.
3.2. Modelos logit y probit.
3.3. Resolución del modelo.
3.4. Interpretación y predicciones.
3.5. Conclusión.
- Regresión suavizada.
4.1. Introducción.
4.2. Formulación.
4.3. Resolución y toma de decisiones.
4.4. Conclusión.
- Regresión múltiple robusta.
5.1. Introducción.
5.2. Regresión de Huber.
5.3. Regresión múltiple robusta de Huber.
5.4. MM-estimadores.
5.5. Regresión múltiple M-estimadores.
5.6. Interpretación de resultados, predicciones y toma de decisiones.
5.7. Conclusión.
- Correlación simple y múltiple robustas.
6.1. Introducción.
6.2.- Correlación robusta para dos variables.
6.2.1. Correlación de porcentaje ajustado.
6.2.2. Correlación winsorizada.
6.2.3. M-estimadores de Goldberg e Iglewicz.
6.3. Correlación robusta para p variables.
6.3.1. Correlación de porcentaje ajustado entre p variables.
6.3.2. Correlación winsorizada entre p variables.
6.4. Interpretación de resultados, predicciones y toma de decisiones.
6.5. Conclusión.
- Modelos lineales generalizados univariantes.
7.1. Desarrollo.
7.2. Conclusión.
- Modelos lineales mixtos generalizados. Diseño por bloques aleatorios.
8.1. Introducción.
8.2. Realización del modelo lineal.
8.3. Comprobación de efectos fijos.
8.4. Comprobación de efectos aleatorios.
8.5. Creación del modelo.
8.6. Comprobación de supuestos del modelo.
8.7. Transformaciones.
8.8. Interpretación de resultados y toma de decisiones.
8.9.- Conclusión.
- Árboles de regresión y clasificación CARTS.
9.1. Introducción.
9.2. Árboles de regresión.
9.3. Prunned o podado del Árbol.
9.4. Interpretación de resultados y toma de decisiones.
9.5. Árboles de clasificación.
9.6. Interpretación de resultados y toma de decisiones.
9.7. Conclusión.
- Modelos aditivos generalizados GAM.
10.1. Introducción.
10.2. Modelos GAM para validación de modelos CARTs.
10.3. Interpretación de resultados y toma de decisiones.
10.4. Conclusión.
- Análisis de supervivencia.
11.1. Introducción.
11.2. Análisis de supervivencia sin covariables.
11.3. Estimador de Kaplan Meier.
11.4. Comparación de curvas de supervivencia.
11.5. Análisis de supervivencia con covariables.
11.6. Uno y k grupos.
- Modelos SARIMA de series temporales.
12.1. Introducción.
12.2. Objetivos y usos en las diferentes ciencias.
12.3. Paquetes a instalar en R.
12.4. Bibliotecas a abrir en R.
12.5. Cómo introducir los datos en R.
12.6. Resolución, interpretación de resultados, predicciones y toma de decisiones.
12.6.1. Filtrado lineal.
12.6.2. Modelos SARIMA
12.6.2.1. Identificación del modelo.
12.6.2.2. Estimación de los parámetros.
12.6.2.3. Diagnosis.
12.6.2.4. Predicción.
12.6.2.5. Test de serie estacionaria.
12.6.2. Cointegración de Series.
12.7. Conclusión.
- Parámetros gráficos.
13.1. Gráfico plot. Función legend.
13.2. Recta de regresión.
13.3. Histograma.
13.4. Gráfico de cajas.
13.5. Gráficos de barras con barras de error.
13.6. Gráficos para regresión y correlación con ggplot2.
MÓDULO IV.
Técnicas de análisis multivariante.
- Análisis de correspondencias.
1.1. Introducción.
1.2. Análisis de correspondencias bidimensional.
1.3. Análisis de correspondencias múltiple.
1.4. Interpretación de resultados y toma de decisiones.
1.5. Conclusión.
- Análisis factorial. Validación de instrumentos tipo likert
2.1. Introducción.
2.2. Confección de un instrumento cuantitativo.
2.3. Proceso de validación de un instrumento.
2.4. Validación interna. Alpha de Cronbach.
2.5. Validación externa. Análisis factorial exploratorio y confirmatorio.
2.6. Interpretación de resultados y toma de decisiones.
- Análisis de componentes principales. Reducción de dimensionalidad.
3.1. Introducción.
3.2. Formulación.
3.3. Análisis de componentes principales. Proporción de varianza y gráfico de sedimentación.
3.4. Representaciones gráficas
3.5. Interpretación de resultados y toma de decisiones.
- Análisis discriminante.
4.1. Introducción.
4.2. Formulación.
4.3. Análisis discriminante lineal. Clasificación conocida.
4.4. Cross-validation.
4.5. Método de los k vecinos más próximos (knn).
4.6. Método de los k vecinos más próximos (knn) con cross-validation.
4.7. Análisis discriminante. K grupos y clasificación desconocida.
4.8. Interpretación de resultados y toma de decisiones.
4.9. Conclusión.
- Escalado multidimensional.
5.1. Introducción.
5.2. Formulación.
5.3. Escalado multidimensional métrico.
5.4. Escalado multidimensional no métrico.
5.5. Interpretación de resultados y toma de decisiones.
5.6. Trabajo de matrices.
5.7. Conclusión.
- Análisis clusters.
6.1. Introducción.
6.2. Formulación.
6.3. Elección del número de clusters. Matriz negativa de distancias de cuadrados.
6.4. Análisis clusters. Método jerárquico y no jerárquico.
6.5. Método de Ward.
6.6. Interpretación de resultados y toma de decisiones.
6.7. Conclusión.
MÓDULO V
Big Data y ETL. Cubos OLAP y Tidyverse.
- Trabajo de bases de datos.
1.1. Importado de bases de datos.
1.2. Creación de bases de datos con == y &.
1.3. Guardado de bases de datos creadas.
1.4. Estudio de variables cuantitativas y cualitativas.
- Big data, ETL y cubos OLAP.
2.1. OLAP (On-Line Analytical Processing – Procesamiento analítico en línea)
2.1.1. Los Cubos OLAP
2.1.2. Gestores de bases de datos con OLAP
2.1.3. Hechos y dimensiones
2.1.4. Operaciones OLAP
2.1.4.1. Rebanada
2.1.4.2. Dados
2.1.4.3. Enrollar
2.1.4.4. Profundizar
2.1.4.5. Pivote
- Tidyverse.
3.1. Uso del pipe %>%
3.2. Selección de columnas.
3.3. Exclusión de columnas.
3.4. Filtrado.
4. Loops.
4.1. Flujos de control y secuencias.
4.1.1. if/else.
4.1.2. ifelse.
4.1.3. for.
4.1.4. while.
4.1.5. repeat.
4.2. Funciones loop.
4.2.1. lapply.
4.2.2. sapply.
4.2.3. split.
4.2.4. tapply.
4.2.5. apply.
4.2.6. mapply.
Docente titular
Mtro. Tomás Alberto Salmerón Enciso
Maestro en Técnicas Actuales de Estadística Aplicada, con una Especialización en Técnicas Robustas y Avanzadas de Estadística Aplicada y Licenciado en Psicopedagogía por la Universidad Nacional de Educación a Distancia (UNED – Madrid, España –). Trabajó para el Dpto. de Protección de Cultivos del Instituto de Formación Agraria y Pesquera de Andalucía (IFAPA – Gobierno de Andalucía, España) desarrollando la tarea de asesor en estadística e investigación. Realizó estudios en colaboración con el Comisionado de Energía de la Unión Europea y sus políticas Medioambientales en el año 2014. Especialista en software R, ha realizado publicaciones y desarrollado varios libros de estadística avanzada con software R y temarios para universidades como el Máster de Estadística Aplicada con Software R de la Universidad Rey Juan Carlos de Madrid (España). Actualmente, radica en México, donde imparte formación de posgrado en estadística avanzada con R para universidades, es asistente de investigación y estadística para proyectos CONACYT, consultor externo para la UNFPA en México y expone en congresos nacionales e internacionales.
Dr. José Alberto Hernández Aguilar
Doctor en Ingeniería y Ciencias Aplicadas por el Centro de Investigación en Ingeniería y Ciencias Aplicadas de la Universidad Autónoma del Estado de Morelos. Master in Business Administration con Mención Honorífica Por la Universidad de Las Américas Campus Ciudad de México, e Ingeniero en Computación por parte de la UNAM. Su experiencia profesional se ha orientado al desarrollo de sistemas de información orientados a la toma de decisiones, análisis de información mediante minería de datos y a la implementación de algoritmos de optimización en Unidades Gráficas de Procesamiento GPUs. Sus líneas de investigación son: “Sistemas de Información para la toma de Decisiones” y “Optimización, procesamiento en paralelo y minería de datos”. Es miembro fundador del Cuerpo Académico de Investigación de Operaciones e Informática de la FCAeI-UAEM -actualmente en consolidación- y responsable durante el periodo 2018-2020, profesor de la carrera de Licenciatura en Informática y miembro del núcleo académico básico del Programa de Maestría en Optimización y Cómputo Aplicado de la UAEM el cual ingresó al Padrón Nacional de Posgrados de Calidad (PNPC) en Abril del 2017. Fue Candidato al SNI del 2010 al 2012. Del 15 Enero de 2014 al 5 de Mayo estuvo a cargo de la coordinación de Investigación y Posgrado de la FCAeI-UAEM. Desde Agosto del 2010 a la fecha se desenvuelve como Profesor Investigador de tiempo completo en la FCAeI-UAEM. El 31 de Mayo del 2016 obtuvo su definitividad como profesor investigador de tiempo completo Titular A en la FCAEI-UAEM. En 2017 realizo un año sabático posdoctoral en el Instituto Nacional de Energías Eléctricas Limpias (INEEL), en la gerencia de Tecnologías de la Información realizando un proyecto que mejorará la seguridad informática de la red del Instituto. Vinculación: al interior de la UAEM con el área de Ciencias e Ingeniería (CIICAP) y el Instituto de Ciencias, y al exterior con la Universidad Politécnica del Estado de Morelos, la Universidad Autónoma de Querétaro, la Universidad Autónoma de Aguascalientes, la Universidad Autónoma de Ciudad Juárez, La Universidad Juárez Autónoma de Tabasco, la Universidad DaVinci y la Universidad Tecnológica de Honduras. De Junio de 2016 a la fecha, junto con su cuerpo académico publicó cuatro artículos de investigación y dos de divulgación, tituló a un alumno de licenciatura en informática de la UAEM, a dos alumnos de maestría en administración de organizaciones, a un alumno de Maestría en Ciencias Computacionales y Tecnologías de la Información, y a 2 alumnos de Doctorado en Sistemas Computacionales, dirigió un proyecto de transferencia de tecnología para la empresa GONET, generó dos base de datos y el libro de Aplicaciones Modernas de Optimización: La experiencia entre cuerpos académicos.
Mtro. Jorge Alberto Nájera Salmerón
Jorge Nájera es licenciado en Economía por la Universidad Autónoma Metropolitana, Maestro en Administración y Negocios por la Universidad Tres Culturas, y Especialista en Economía Monetaria y Financiera por la UNAM. Ha trabajado como Consultor Independiente en Ciencia de Datos y Análisis Cuantitativo Big Data. Es experto en el manejo de Pronósticos Estratégicos y el análisis del negocio con métodos Econométricos, y es fanático del análisis de Mercados Financieros utilizando las técnicas de la Minería de Datos, con conocimientos en administración de bases de datos de tipo Multinivel, y usuario de SQL, SPSS, Eviews, STATA, Alteryx, Datarobot, Tableau, DataStudio, R y Python. Certificado en Ciencia de Datos en R por la Universidad de Harvard, y el nivel Core Designer en Alteryx. Actualmente, se desempeña como científico de datos para la empresa Bancoppel, y es docente de capacitación continua en el Colegio Científico de Datos (COCID) en Morelos. Es autor de los libros «Pronósticos Estratégicos de Series de Tiempo: Metodología Práctica para Economistas, Administradores y Científicos de Datos» y «Sistema Integral de Business Intelligence con RStudio: Cuadros de Mando Integral y algoritmos de Aprendizaje Automatizado para el monitoreo de negocios inteligentes». Colabora como columnista de opinión en SDP Noticias, y en Rankia México.