Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live - Online

Contacta sin compromiso con Tecnológico de Monterrey - LIVE

Para enviar la solicitud debes aceptar la política de privacidad

Galería de imágenes

Análisis de educaedu

Inés Gonzalez

Inés Gonzalez

Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live

  • Modalidad de impartición
    La impartición del programa del Centro Tecnológico de Monterrey es Online.
  • Número de horas
    El tiempo de duración del programa del Centro Tecnológico de Monterrey es de 120 horas.
  • Titulación oficial
    Tras cumplir con el tiempo estipulado de estudio, el alumno obtiene el Diplomado en Data Science & AI: Del Concepto a desarrollo de aplicaciones por el Centro Tecnológico de Monterrey.
  • Valoración del programa
    Con el Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones del Centro Tecnológico de Monterrey adquirirás las herramientas tecnológicas y matemáticas para desarrollar modelos de ciencia de datos acorde a actividades del perfil data science jr.
  • Dirigido a
    El programa está dirigido a profesionales en cargos de analista, gerente o científico de datos.
  • Empleabilidad
    Al concluir el recorrido de estudio se poseerán las capacidades para el ejercicio profesional como Data Science jr.

Comentarios sobre Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live - Online

  • Contenido
    Diplomado en Data Science and AI: Del Concepto a Desarrollo de Aplicaciones - Live del centro Tecnológico de Monterrey.

    Modalidad: Online
    Precio: $50900

    Descripción.

    ¿Tomas decisiones importantes en tu trabajo por instinto o experiencia? ¡Fortalece aún más tu toma de decisiones con el uso del data science!

    Vivirás sesiones síncronas y sesiones asíncronas, para interactuar en tiempo real con los instructores, así como para poder estudiar a tu propio ritmo.

    Realizarás actividades prácticas vinculadas a los temas presentados en cada módulo y resolverás problemas enfocados a tu entorno laboral.

    Al terminar tu diplomado, obtendrás una insignia digital blue con tecnología blockchain para fortalecer tu currículum digital y demostrar tus habilidades de una manera rápida y segura en plataformas digitales.


    ¿CÓMO VIVIRÁS TU APRENDIZAJE?.

    - Enfoque a la aplicabilidad en tu entorno laboral
    - Acompañamiento de tu instructor
    - Gran parte del programa se imparte en sesiones sincrónicas
    - Grupos pequeños para maximizar interacción con expertos
    - Plataforma de aprendizaje virtual.

    A quién va dirigido.

    Es ideal para profesionistas encargados de generar análisis descriptivos, inferenciales, predictivos y prescriptivos; dashboards para la toma de decisiones; desarrollar una aplicación de datos y emprendimiento.

    Objetivos.

    Con este diplomado en modalidad live aprenderás a aplicar las herramientas tecnológicas y matemáticas para desarrollar modelos de ciencia de datos para el perfil data science jr, requeridos en organización / innovación /emprendimiento para la toma decisiones basadas en datos.


    Temario.

    01. FUNDAMENTOS DE PYTHON I 10 HORAS.

    Diseñarás programas en lenguaje de programación Python sobre el ambiente de programación notebook, para que se cumpla con los requerimientos de la aplicación de Ciencia de Datos

    1. Introducción
    2. Estándares en Python
    3. Estructuras de datos: lista, diccionarios, tuple, strings;
    4. Estatutos condicionales
    5. Control de flujo
    6. Definición de funciones
    7. Manejo de archivos csv: incluir identificar archivos vacíos, crear una lista de archivos a procesar
    8. Ambiente de programación notebook (Jupiter y/o “Google Colab)


    02. PLATAFORMAS DE APLICACIÓN SOBRE PYTHON.

    1. Introducción (plataformas / frameworks)
    2. Manipulación de datos en Panda
    3. Manipulación de datos en Numpy
    6. Definición de funciones
    7. Manejo de archivos csv: incluir identificar archivos vacíos, crear una lista de archivos a procesar
    8. Ambiente de programación notebook (Jupiter y/o “Google Colab)
    4. Instalar bibliotecas que no estén la pre-instaladas (plataformas / frameworks)


    03. MANIPULACIÓN DE DATOS EN PYTHON.

    Manipularás una base de datos en la plataforma de Panda de Python que involucre llamadas (queries) a las bases de datos y estatuos para concatenar y unir bases de datos

    1. Introducción
    2. Algebra relacional
    3. Funciones: join, merge, append
    4. Ejemplo


    ÁREA DE CONCENTRACIÓN 2: VISUALIZACIÓN PARA ANÁLISIS DESCRIPTIVO E INFERENCIAL Y DISEÑO DE APLICACIONES DASHBOARD IN WEB.

    04. PLATAFORMAS DE VISUALIZACIÓN.

    Explotarás las ventajas y desventajas que tienen Python, y las plataformas de visualización Matplotlib y Seaborn, para generar gráficas que compartan ejes horizontales (x); el eje vertical (y) puede ser compartido a la misma escala, para que se cumpla con los requerimientos de interfase de la visualización requerida.

    1. Introducción
    2. Validación estadística del modelo
    3. Plataformas de visualización: panda, matplotlib, y seaborn
    4. Gráficas superpuestas compartiendo eje horizontal (x) y vertical (y)
    5. Gráficas superpuestas compartiendo eje horizontal (x) y con ejes verticales diferentes (y1, y2), cada uno con escala diferente
    6. Sub-gráficas (subplots)
    7. Anotaciones de texto en las gráficas
    8. Diferentes tipos de gráficas para exploración de los datos: Boxplot, distribuciones, dispersiones (Scatter Plot), matriz de dispersiones (Scatter Plot Matrix)


    05. INGENIERÍA DE CARACTERÍSTICAS.

    Seleccionarás las características de las bases de datos más importantes por su importancia para la visualización o por su importancia en mejorar la exactitud, precisión de un modelo de datos.

    1. Imputación de valores perdidos
    2. Valores atípicos (handling outliers)
    3. Agrupamiento en contenedores (binning)
    4. Transformación logarítmica
    5. Distribución de valores de una columna en múltiples columnas binarias (one-hot encoding)
    6. Operaciones en grupos (groupby)
    7. Separación de datos (feature split)
    8. Escalamiento (Scaling)
    9. Extracción de fecha (date)
    10.Reducción de dimensiones (FA, PCA, IDA)


    06. APLICACIÓN WEB DE CIENCIA DE DATOS.

    Desarrollarás un dashboard en la plataforma Streamlit para la visualización de datos interactivos requeridos por la organización para presentar KPIs o para toma de decisiones.

    1. Fundamentos de UX/UI
    2. Plataforma Streamlit
    3. Manipulación de datos
    4. Sidebar
    5. Estatutos slider, radio, selectbox
    6. Estatuto caching


    ÁREA DE CONCENTRACIÓN 3: MÁQUINAS INTELIGENTES.


    07. APRENDIZAJE NO-SUPERVISADO.

    Desarrollarás modelos inteligentes no supervisado de datos utilizando scikitlearn de Python, seleccionando el número de agrupaciones adecuadas y analizando la efectividad del modelo utilizando medidas de calidad que cumplan lo mejor posible con los requerimientos de la tarea requerida

    1. Introducción
    2. Medidas de calidad de los algoritmos de clusterización
    3. Número de agrupaciones utilizando la gráfica K-Elbow.
    4. Número de agrupaciones utilizando los valores de los coeficientes de Silhouette (gráfica Silhouette Plot)
    5. Distancia relativa entre agrupaciones; importancia relativa de las agrupaciones
    6. Índice Calinski-Harabasz


    08. APRENDIZAJE SUPERVISADO.

    Desarrollarás modelos inteligentes supervisado de datos utilizando scikit-learn de Python; seleccionar el modelo adecuado y analizar la exactitud, precisión del modelo que cumplan lo mejor posible con los requerimientos de la tarea requerida.

    1. Introducción
    2. Modelación de datos clásica: Árboles, Bosques, Gaussian NaiveBayes, regresión lógica, Support Vector Machine
    3. Evaluación de modelos medida a utilizar: matriz de confusión, exactitud, precisión, F1, curva ROC


    09. VISUALIZACIÓN DE MÁQUINAS INTELIGENTES.

    Utilizarás herramientas visuales de máquinas inteligentes para desarrollar modelos de datos más exactos y/o precisos, que cumplan con los requerimientos de la necesidad del problema a resolver. 

    1. Herramienta Yellow Brick
    2. Hyperparameters optimization
    3. Data wrapper
    4. Export_graphviz from sklearn.tree
    5. Decision boundaries
    6. ANN Visualiser
    7. Variational autoencoders (VAE)


    10. PLATAFORMAS Y MÁQUINAS INTELIGENTES EN BIG DATA.

    Desarrollarás modelos inteligentes supervisados de grandes volúmenes de datos utilizando PySpark de Python, seleccionarás el modelo adecuado y analizarás la exactitud, precisión del modelo, que cumplan lo mejor posible con los requerimientos de la tarea requerida.

    1. Introducción
    2. Estructura de datos en PySpark
    3. Modelación inteligente de datos en PySpark


    11. ANALÍTICA DE TEXTO.

    Desarrollarás modelos inteligentes supervisado de datos de texto utilizando la plataforma máquinas inteligentes en Python, seleccionarás el modelo adecuado y analizarás la exactitud, precisión del modelo, que cumplan lo mejor posible con los requerimientos de la tarea requerida. 

    1. Introducción herramientas NLTK, Spacy, TextBlob, PyTorch-NLP, Textacy
    2. Introducción: aplicaciones en detección de plagio y detección de autoría
    3. Análisis de frecuencias, personas, eventos
    4. Conceptos de transformadores
    5. Modelo inteligentes estadísticos, lingüísticos y profundos
    6. Visualización de texto
    7. Visualización del Corpus t-SNE: use stochastic neighbor embedding to project documents
    8. Visualizar la dispersión de palabras clave en el Corpus.
    9. Visualiza de documentos similares (UMAP)


    12. ANALÍTICA DE REDES SOCIALES.

    Desarrollarás modelos de redes de datos utilizando la NetworkX en Python; analizarás la robustez de las redes, encontrarás las personas que más se comunican, así como los líderes de las conversaciones en una red social.

    1. Introducción: aplicaciones
    2. Definición de nodos, vértices, y atributos
    3. Tipos de redes: direccional, bidireccional, pesada, bipartita
    4. Representación y manipulación de datos utilizando NetworkX
    5. Métricas: distancia, alcance (reachability) y redundancia para explorar lo robusto de redes a ataques intencionales o al quitar nodos o vértices
    6. Centralidad (grado, “closeness”, and “betweenness”, “page rank”

    Titulación obtenida.

    Diplomado en Data Science & AI: Del Concepto a desarrollo de aplicaciones - Live

    Requisitos.

    No se requiere de documentación específica.

Otra formación relacionada con base de datos

Este sitio utiliza cookies.
Si continua navegando, consideramos que acepta su uso.
Ver más  |