DIPLOMADO DISEÑO DE INVESTIGACIÓN Y ANÁLISIS DE DATOS CON SOFTWARE R
REGISTRO OFICIAL SEP-SEEM 17DAP57319
Modalidad presencial
APRENDE TODAS LA TÉCNICAS ROBUSTAS Y AVANZADAS PARA REALIZAR TUS PUBLICACIONES CON R DESDE CERO
Información general
17DAP57319 Secretaría de Educación del Estado de Morelos (SEEM)
Días y horario a determinar.
En las clases presenciales el profesor especialista realizará todas las técnicas del temario de forma práctica para que el estudiante pueda realizarlas al mismo tiempo.
El tiempo de trabajo semanal es de:
- Sesión online: 2 horas.
- Uso de plataforma: 6 horas.
- Actividades de evaluación continua: 2 horas.
A parte de las clases presenciales tendrá disponibilidad 24/7 de acceso a plataforma educativa de Colegio Universitario Científico de Datos donde encontrará todo el material de estudio, junto con las clases grabadas, actividades de evaluación, vídeos de apoyo y multitud de material complementario.
- Conocimientos básicos del uso de la computadora
- Sistema operativo Windows (Preferentemente)
Una vez que hayamos recibido su solicitud de inscripción le mandaremos los costos deacuerdo al calendario de costos, los datos bancarios, y le estaremos solicitando la siguiente documentación para abrir su expediente:
- Copia de credencial de elector o identificación oficial
- CURP actualizada
- Copia de cédula profesional de licenciatura, Maestría o Doctorado o Copia de Titulo en su caso (Mínimo Nivel Licenciatura)
*Nota: Una vez comience el diplomado también deberá enviar 3 fotografías tamaño diploma, con las especificaciones que se le indicarán por la Administración de Colegio Científico de Datos.
A determinar.
Inscripción: fecha a determinar (previsible junio 2025)
Una vez que hayamos recibido su registro le mandaremos los costos para el pago de inscripción y mensualidades de acuerdo al calendario, los datos bancarios, y le estaremos solicitando la siguiente documentación para abrir su expediente:
- Copia de credencial de elector o identificación oficial
- CURP actualizada
- Copia de cédula profesional de licenciatura, Maestría o Doctorado o Copia de Titulo en su caso (Mínimo Nivel Licenciatura)
*Nota 1: Una vez comience el diplomado también deberá entregar 1 fotografía tamaño diploma con adherible, con las especificaciones que se le indicarán por la Administración de Colegio Universitario Científico de Datos.
*Nota 2: En caso de no enviar alguna documentación de la solicitada o foto en las fechas que se le indiquen, no será posible tramitar su diploma.
*Nota 3: El rellenado del formulario de registro no da derecho a lugar en el diplomado. Para quedar formalmente inscrito se requiere el pago de inscripción (o pago en una sola exhibición con inscripción condonada).
- Licenciados,
- Maestros,
- Doctores e Investigadores de las Ciencias Experimentales,
- Psicológicas,
- Biológicas,
- Médicas,
- y todo aquel interesado, (independiente del campo científico), en conocer el Diseño de Investigación así como la Ciencia de Datos y la interpretación de resultados, y el trabajo de bases de datos con estrategias ETL y cubos OLAP.
Convertirse en un científico de datos profesional con la herramienta del lenguaje R, aprendiendo su potencialidad para el procesamiento de datos, interpretando de forma correcta los resultados obtenidos y así innovar en sus proyectos de investigación.
Porque es una oportunidad única para desarrollar competencias altamente valoradas en el ámbito académico, científico y profesional, partiendo desde cero y llegando a un nivel de análisis avanzado. Este diplomado cuenta con registro oficial de la Secretaría de Educación Pública del Estado de Morelos (17DAP57319), y al finalizar obtendrás un diploma con valor curricular de 200 horas y/o 12.5 créditos. Además es el diplomado más completo que encontrarás para convertirte en un analista de datos e investigador profesional o para completar tus habilidades de investigación.
Inicia desde lo esencial: No necesitas experiencia previa en programación. El diplomado comienza desde cero en R, uno de los lenguajes más potentes y solicitados en el análisis estadístico y científico de datos.
Solo necesitas nociones básicas de estadística aplicada: Si ya has trabajado con conceptos como media, desviación estándar o pruebas de hipótesis, estás listo para comenzar.
Domina el diseño de investigación: Aprenderás a estructurar una investigación científica sólida, desde la conceptualización inicial y el cálculo del tamaño de muestra, hasta los distintos tipos de diseños de investigación y más.
Aprende y aplica las técnicas estadísticas más utilizadas: Incluye métodos paramétricos y no paramétricos, análisis predictivo y análisis multivariado, para dar soporte robusto y confiable a tus investigaciones.
Manejo de datos reales con técnicas robustas: Aprenderás a identificar y manejar datos atípicos y situaciones donde los supuestos clásicos no se cumplen, aplicando técnicas estadísticas robustas.
Inicia en el machine learning aplicado a la investigación: Conocerás técnicas para modelos predictivos y de clasificación, en contextos reales, como los árboles de regresión y clasificación con modelos aditivos generalizados.
Trabajo con bases de datos y estrategias ETL: Aprende a integrar, transformar y analizar grandes volúmenes de datos (big data) mediante técnicas ETL y cubos OLAP.
Ambiente de trabajo profesional: Trabajarás en entornos modernos como Tidyverse y simulación Bootstrap, esenciales para el análisis exploratorio, visualización y modelado estadístico en R.
Este diplomado está diseñado para docentes, estudiantes de posgrado, investigadores y profesionales de cualquier área que deseen dominar el proceso de investigación científica con herramientas modernas y actualizadas.
La evaluación del diplomado será mediante proyecto final:
Aquellos/as que tengan datos o un proyecto de investigación trabajarán por proyecto donde realizarán su investigación con las técnicas de investigación y estadísticas aprendidas. Cada módulo concluido deberá ir trabajando su investigación o proyecto. En caso de no tener un proyecto de investigación, le será asignado junto con una base de datos para realizarlo.
Si desea inscribirse puede hacerlo a través de nuestro formulario de registro
Diseño de Investigación y Análisis de Datos con software R Modalidad Presencial
Temario
Diseño de Investigación
Fundamentos y bases empíricas.
1.1. Evolución del método estadístico.
1.2. Ciencia en la sociedad.
1.3. Método científico.
1.4. Conocimiento.
1.5. Medición de datos.
1.6. Experimentación.
1.7. Clasificación.
1.8. Inicio de una investigación.
Elección del tema, objetivos e hipótesis.
2.1. Tema de investigación.
2.2. Objetivo de la investigación.
2.3. Hipótesis de la investigación.
2.4. Metas.
Muestreos, tipos, datos y controles.
3.1. Datos.
3.2. Muestreo.
3.3. Tipos de muestreos.
3.4. Con azarización.
3.5. Sin azarización.
3.6. Cálculo de tamaño muestral.
3.7. Grupo control y grupo/s experimental/es.
3.8. Principios éticos en la investigación.
Tipos de diseños de investigación.
4.1. Diseño de una investigación.
4.2. Tipo de diseño. Motivos de elección.
4.3. Propiedades de una investigación.
4.4. Clasificación de los diseños de investigación estadística.
4.5. Según la intención de los objetivos que originan la investigación.
4.6. Según la direccionalidad de la investigación.
4.7. Según el número de mediciones.
4.8. Según el grado de control.
4.9. Diseños observacionales.
4.9.1 Ensayos de prevalencia.
4.9.2. Estudios de casos y controles.
4.9.3. Estudios de cohortes.
4.10. Diseños Cuasiexperimentales.
4.10.1. Diseños intersujetos.
4.10.2. Diseños intrasujetos.
4.10.3. Pre-post test de grupo único.
4.10.4. Pre-post test con dos grupos.
4.11. Diseños experimentales.
4.11.1. Diseños de laboratorio.
4.11.2. Ensayos clínicos controlados.
4.11.3. Estudios de campo.
Comunicación de resultados.
5.1. Autoevaluación del trabajo.
5.2. Presentación oral de las investigaciones.
5.2.1. Métodos audiovisuales.
5.2.2. Exposición verbal.
5.2.3. Presentación en cartel.
5.3. Manuscrito. Publicación.
5.3.1. Título.
5.3.2. Autores.
5.3.3. Redacción del texto.
5.3.4. Resumen.
5.3.5. Introducción.
5.3.6. Material y métodos.
5.3.7. Discusión.
5.3.8. Agradecimientos.
5.3.9. Referencias.
5.4. Elección de la revista.
Técnicas estadísticas cuantitativas.
6.1. Estadística descriptiva.
6.2. Estadística predictiva.
6.3. Estadística multivariada.
6.4. Machine learning.
6.5. Técnicas robustas.
Técnicas clásicas.
1. R.
1.1. Instalación.
1.2. Primeros pasos.
1.3. Tipos de introducción de datos.
1.4. Importado y exportado de bases de datos.
1.5. Cambio de directorio.
1.6. Guardado de scripts.
2. Estadística descriptiva numérica y gráfica.
2.1. Medidas de posición y dispersión.
2.1.1. Media.
2.1.2. Mediana.
2.1.3. Cuasivarianza.
2.1.4. Cuasidesviación típica.
2.1.5. Cuantiles.
2.1.6. Resumen.
2.1.7. describeBy.
2.1.8. Descriptiva robusta. Huber. Alpha winsorizadas. Alpha recortadas.
2.1.9. Test de Grubbs para detección de outliers.
2.2. La distribución normal.
2.3. Funciones útiles para investigación. Tratamiento de datos faltantes.
2.4. Gráficos de barras.
2.5. Gráficos de sectores.
2.6. Histograma.
2.7. Nubes de puntos.
2.8. Gráficos de cajas.
2.9. Gráficos para tablas de contingencia.
2.10.- Conclusión.
3. Pruebas no paramétricas.
3.1. Test de Wilcoxon.
3.2. Test de Wilcoxon – Mann-Whitney.
3.3. Test de Kolmogorov – Smirnov.
3.4. Test de Shapiro-Wilks.
3.5. Test de Kruskal – Wallis.
3.6. Test de Chi cuadrado.
4. T de Student.
4.1. Distribución t-Student.
4.2. Función t.test.
4.3. Función var.test.
4.4. Resolución. Supuestos.
4.5. Media de una población normal.
4.6. Media de una población no necesariamente normal. Muestras grandes.
4.7. Cociente de dos poblaciones independientes.
5. Análisis de varianza. Diseño completamente aleatorizado.
5.1. Un factor. HSD Tukey.
5.2. Generalizaciones robusta del test de Welch y del test de Box para un factor. Comparaciones robustas lincon.
5.3. Dos factores. HSD Tukey.
5.4. Generalización robusta del test de Welch para dos factores. Comparaciones robustas lincon.
6. Análisis de varianza. Medidas repetidas.
6.1. Análisis de Varianza. Medidas Repetidas.
7. Análisis de varianza multivariante (MANOVA).
7.1. Proceso de realización de MANOVA.
8. Regresión y correlación lineal simples.
8.1. Regresión lineal simple.
8.1.1. Introducción.
8.1.2. Modelo.
8.1.3. Contraste.
8.1.4. Tabla de análisis de varianza.
8.1.5. Resolución e interpretación de resultados.
8.1.6. Predicciones.
8.2. Correlación simple.
8.2.1. Introducción.
8.2.2. Coeficiente de correlación de Pearson. Conocimiento de otros métodos Kendall y Spearman.
8.2.3.- Resolución de correlación.
9. Regresión múltiple.
9.1. Modelo.
9.2. Contraste de la regresión lineal múltiple.
9.3. Tabla de análisis de la varianza para la regresión lineal múltiple.
9.4. Estimación de la varianza común.
9.5. Contraste de hipótesis sobre los coeficientes de regresión.
9.6. Regresión múltiple con R.
9.7. Selección secuencial de variables por pasos. Criterio de Akaike (AIC)
10. Correlación múltiple.
10.1.- Introducción.
10.2.- Resolución.
10.3.- Representaciones gráficas.
Técnicas avanzadas.
Técnicas actuales en regresión. Tratamiento de datos anómalos.
1.1. Introducción.
1.2. Bibliotecas.
1.3. Formulación.
1.4. Regresión lineal por mínimos cuadrados.
1.5. Técnicas actuales en Regresión (tratamiento de datos anómalos).
1.5.1. Recta de Huber.
1.5.2. LTS-Least Trimmed Squares.
1.5.3. LMS-Least Median of Squares.
1.5.4. Recta M-estimador (MM).
Regresión poisson.
2.1. Introducción.
2.2. Resolución del modelo.
2.3. Interpretación y predicciones.
Modelos de regresión logística. Logit y probit.
3.1. Introducción.
3.2. Modelos logit y probit.
3.3. Resolución del modelo.
3.4. Interpretación y predicciones.
3.5. Conclusión.
Regresión suavizada.
4.1. Introducción.
4.2. Formulación.
4.3. Resolución y toma de decisiones.
4.4. Conclusión.
Regresión múltiple robusta.
5.1. Introducción.
5.2. Regresión de Huber.
5.3. Regresión múltiple robusta de Huber.
5.4. MM-estimadores.
5.5. Regresión múltiple M-estimadores.
5.6. Interpretación de resultados, predicciones y toma de decisiones.
5.7. Conclusión.
Correlación simple y múltiple robustas.
6.1. Introducción.
6.2.- Correlación robusta para dos variables.
6.2.1. Correlación de porcentaje ajustado.
6.2.2. Correlación winsorizada.
6.2.3. M-estimadores de Goldberg e Iglewicz.
6.3. Correlación robusta para p variables.
6.3.1. Correlación de porcentaje ajustado entre p variables.
6.3.2. Correlación winsorizada entre p variables.
6.4. Interpretación de resultados, predicciones y toma de decisiones.
6.5. Conclusión.
Modelos lineales generalizados univariantes.
7.1. Desarrollo.
7.2. Conclusión.
Modelos lineales mixtos generalizados. Diseño por bloques aleatorios.
8.1. Introducción.
8.2. Realización del modelo lineal.
8.3. Comprobación de efectos fijos.
8.4. Comprobación de efectos aleatorios.
8.5. Creación del modelo.
8.6. Comprobación de supuestos del modelo.
8.7. Transformaciones.
8.8. Interpretación de resultados y toma de decisiones.
8.9.- Conclusión.
Árboles de regresión y clasificación CARTS.
9.1. Introducción.
9.2. Árboles de regresión.
9.3. Prunned o podado del Árbol.
9.4. Interpretación de resultados y toma de decisiones.
9.5. Árboles de clasificación.
9.6. Interpretación de resultados y toma de decisiones.
9.7. Conclusión.
Modelos aditivos generalizados GAM.
10.1. Introducción.
10.2. Modelos GAM para validación de modelos CARTs.
10.3. Interpretación de resultados y toma de decisiones.
10.4. Conclusión.
Análisis de supervivencia.
11.1. Introducción.
11.2. Análisis de supervivencia sin covariables.
11.3. Estimador de Kaplan Meier.
11.4. Comparación de curvas de supervivencia.
11.5. Análisis de supervivencia con covariables.
11.6. Uno y k grupos.
Modelos SARIMA de series temporales.
12.1. Introducción.
12.2. Objetivos y usos en las diferentes ciencias.
12.3. Paquetes a instalar en R.
12.4. Bibliotecas a abrir en R.
12.5. Cómo introducir los datos en R.
12.6. Resolución, interpretación de resultados, predicciones y toma de decisiones.
12.6.1. Filtrado lineal.
12.6.2. Modelos SARIMA
12.6.2.1. Identificación del modelo.
12.6.2.2. Estimación de los parámetros.
12.6.2.3. Diagnosis.
12.6.2.4. Predicción.
12.6.2.5. Test de serie estacionaria.
12.6.2. Cointegración de Series.
12.7. Conclusión.
Parámetros gráficos.
13.1. Gráfico plot. Función legend.
13.2. Recta de regresión.
13.3. Histograma.
13.4. Gráfico de cajas.
13.5. Gráficos de barras con barras de error.
13.6. Gráficos para regresión y correlación con ggplot2.
Técnicas de análisis multivariante.
Análisis de correspondencias.
1.1. Introducción.
1.2. Análisis de correspondencias bidimensional.
1.3. Análisis de correspondencias múltiple.
1.4. Interpretación de resultados y toma de decisiones.
1.5. Conclusión.
Análisis factorial. Validación de instrumentos tipo likert
2.1. Introducción.
2.2. Confección de un instrumento cuantitativo.
2.3. Proceso de validación de un instrumento.
2.4. Validación interna. Alpha de Cronbach.
2.5. Validación externa. Análisis factorial exploratorio y confirmatorio.
2.6. Interpretación de resultados y toma de decisiones.
Análisis de componentes principales. Reducción de dimensionalidad.
3.1. Introducción.
3.2. Formulación.
3.3. Análisis de componentes principales. Proporción de varianza y gráfico de sedimentación.
3.4. Representaciones gráficas
3.5. Interpretación de resultados y toma de decisiones.
Análisis discriminante.
4.1. Introducción.
4.2. Formulación.
4.3. Análisis discriminante lineal. Clasificación conocida.
4.4. Cross-validation.
4.5. Método de los k vecinos más próximos (knn).
4.6. Método de los k vecinos más próximos (knn) con cross-validation.
4.7. Análisis discriminante. K grupos y clasificación desconocida.
4.8. Interpretación de resultados y toma de decisiones.
4.9. Conclusión.
Escalado multidimensional.
5.1. Introducción.
5.2. Formulación.
5.3. Escalado multidimensional métrico.
5.4. Escalado multidimensional no métrico.
5.5. Interpretación de resultados y toma de decisiones.
5.6. Trabajo de matrices.
5.7. Conclusión.
Análisis clusters.
6.1. Introducción.
6.2. Formulación.
6.3. Elección del número de clusters. Matriz negativa de distancias de cuadrados.
6.4. Análisis clusters. Método jerárquico y no jerárquico.
6.5. Método de Ward.
6.6. Interpretación de resultados y toma de decisiones.
6.7. Conclusión.
Big Data y ETL. Cubos OLAP y Tidyverse.
Trabajo de bases de datos.
1.1. Importado de bases de datos.
1.2. Creación de bases de datos con == y &.
1.3. Guardado de bases de datos creadas.
1.4. Estudio de variables cuantitativas y cualitativas.
Big data, ETL y cubos OLAP.
2.1. OLAP (On-Line Analytical Processing – Procesamiento analítico en línea)
2.1.1. Los Cubos OLAP
2.1.2. Gestores de bases de datos con OLAP
2.1.3. Hechos y dimensiones
2.1.4. Operaciones OLAP
2.1.4.1. Rebanada
2.1.4.2. Dados
2.1.4.3. Enrollar
2.1.4.4. Profundizar
2.1.4.5. Pivote
Tidyverse.
3.1. Uso del pipe %>%
3.2. Selección de columnas.
3.3. Exclusión de columnas.
3.4. Filtrado.
Simulación bootstrap.
4.1. Técnicas clásicas y robustas.
4.2. Creación de bases de datos a partir de datos simulados.
Visualización de datos avanzada.

Descuento especiales
Si ya cuenta con su membresía COCID, uno de los beneficios que tendrá, es que toda la formación que se imparte tendrá un 20% de descuento.
Si desea adquirir la membresía o conocer más sobre los beneficios que obtendrá, puede dar click sobre la imagen.
COSTOS
Por deteminar.
BBVA
PROMOTORA DE FORMACIÓN ASML, S.C.
Cuenta: 0113456544
Clabe interbancaria: 012542001134565445
