Este curso le brindará experiencia práctica en la optimización, implementación y escalado de una variedad de modelos de aprendizaje automático de producción. Aprenderá a crear modelos escalables, precisos y listos para producción para datos estructurados, datos de imágenes, series de tiempo y texto en lenguaje natural, junto con sistemas de recomendación.
Duración: 40 Horas
1.1. ML EFECTIVO
1.2. ML COMPLETAMENTE ADMINISTRADO
2.1. EXPLORANDO EL CONJUNTO DE DATOS
2.2. BIGQUERY
2.3. NOTEBOOKS DE BIGQUERY Y AI PLATFORM
3.1. CREANDO UN CONJUNTO DE DATOS
4.1. CONSTRUYE EL MODELO
5.1. OPERACIONALIZACIÓN DEL MODELO
5.2. PLATAFORMA DE IA EN LA NUBE
5.3. ENTRENE E IMPLEMENTE CON CLOUD AI PLATFORM
5.4. BIGQUERY ML
5.5. IMPLEMENTACIÓN Y PREDICCIÓN CON CLOUD AI PLATFORM
6.1. LOS COMPONENTES DE UN SISTEMA DE AA
6.2. LOS COMPONENTES DE UN SISTEMA DE AA: ANÁLISIS Y VALIDACIÓN DE DATOS
6.3. LOS COMPONENTES DE UN SISTEMA ML: TRANSFORMACIÓN DE DATOS + ENTRENADOR
6.4. LOS COMPONENTES DE UN SISTEMA DE AA: SINTONIZADOR + EVALUACIÓN Y VALIDACIÓN DEL MODELO
6.5. LOS COMPONENTES DE UN SISTEMA DE AA: SERVICIO
6.6. LOS COMPONENTES DE UN SISTEMA DE AA: ORQUESTACIÓN + FLUJO DE TRABAJO
6.7. LOS COMPONENTES DE UN SISTEMA DE ML: FRONTEND INTEGRADO + ALMACENAMIENTO
6.8. DECISIONES DE DISEÑO DE FORMACIÓN
6.9. AL SERVICIO DE LAS DECISIONES DE DISEÑO
6.10. DISEÑANDO DESDE CERO
7.1. DATOS EN LAS INSTALACIONES
7.2. GRANDES CONJUNTOS DE DATOS
7.3. DATOS SOBRE OTRAS NUBES
7.4. BASES DE DATOS EXISTENTES
8.1. ADAPTACIÓN A LOS DATOS
8.2. CAMBIO DE DISTRIBUCIONES
8.3. DECISIONES CORRECTAS E INCORRECTAS
8.4. FALLO DE SISTEMA
8.5. MITIGAR EL SESGO DE FORMACIÓN-SERVICIO A TRAVÉS DEL DISEÑO
8.6. DEPURAR UN MODELO DE PRODUCCIÓN
9.1. FORMACIÓN
9.2. PREDICCIONES
9.3. ¿POR QUÉ FORMACIÓN DISTRIBUIDA?
9.4. ARQUITECTURAS DE FORMACIÓN DISTRIBUIDAS
9.5. TUBERÍAS DE ENTRADA MÁS RÁPIDAS
9.6. OPERACIONES NATIVAS DE TENSORFLOW
9.7. REGISTROS DE TENSORFLOW
9.8. TUBERÍAS PARALELAS
9.9. PARALELISMO DE DATOS CON ALL REDUCE
9.10. ENFOQUE DEL SERVIDOR DE PARÁMETROS
9.11. INFERENCIA
10.1. APRENDIZAJE AUTOMÁTICO EN LA NUBE HÍBRIDA
10.2. KUBEFLOW
10.3. MODELOS INTEGRADOS
10.4. TENSORFLOW LITE
10.5. OPTIMIZACIÓN PARA DISPOSITIVOS MÓVILES
11.1. IMÁGENES COMO DATOS VISUALES
11.2. DATOS ESTRUCTURADOS VS NO ESTRUCTURADOS
12.1. MODELOS LINEALES
12.2. REVISIÓN DE MODELOS DNN
12.3. REVISIÓN: ¿QUÉ ES LA DESERCIÓN ESCOLAR?
13.1. COMPRENSIÓN DE LAS CONVOLUCIONES
13.2. PARÁMETROS DEL MODELO CNN
13.3. TRABAJAR CON CAPAS DE AGRUPACIÓN
13.4. IMPLEMENTANDO CNN CON TENSORFLOW
14.1. EL PROBLEMA DE LA ESCASEZ DE DATOS
14.2. AUMENTO DE DATOS
14.3. TRANSFERIR APRENDIZAJE
14.4. SIN DATOS, NO HAY PROBLEMA
15.1. NORMALIZACIÓN POR LOTES
15.2. REDES RESIDUALES
15.3. ACELERADORES (CPU VS GPU, TPU)
15.4. ESTIMADOR DE TPU
15.5. BÚSQUEDA DE ARQUITECTURA NEURONAL
16.1. MODELOS ML PREDISEÑADOS
16.2. API DE CLOUD VISION
16.3. AUTOML VISION
16.4. ARQUITECTURA AUTOML
17.1. SECUENCIA DE DATOS Y MODELOS
17.2. DE SECUENCIAS A ENTRADAS
17.3. MODELADO DE SECUENCIAS CON MODELOS LINEALES
17.4. MODELADO DE SECUENCIAS CON DNN
17.5. MODELADO DE SECUENCIAS CON CNN
17.6. EL PROBLEMA DE LA LONGITUD VARIABLE 4M
18.1. PRESENTACIÓN DE REDES NEURONALES RECURRENTES
18.2. CÓMO LAS ENFERMERAS REGISTRADAS REPRESENTAN EL PASADO
18.3. LOS LÍMITES DE LO QUE PUEDEN REPRESENTAR LOS RNN
18.4. EL PROBLEMA DEL GRADIENTE QUE DESAPARECE
19.1. LSTM Y GRU
19.2. RNN EN TENSORFLOW
19.3. RNN PROFUNDOS
19.4. MEJORANDO NUESTRA FUNCIÓN DE PÉRDIDA
19.5. TRABAJAR CON DATOS REALES
20.1. TRABAJAR CON TEXTO
20.2. CLASIFICACIÓN DE TEXTO
20.3. SELECCIONAR UN MODELO
20.4. PYTHON FRENTE A TENSORFLOW NATIVO
21.1. MÉTODOS HISTÓRICOS PARA HACER INCRUSTACIONES DE PALABRAS
21.2. MÉTODOS MODERNOS PARA HACER INCRUSTACIONES DE PALABRAS
21.3. PRESENTAMOS TENSORFLOW HUB
21.4. USANDO TENSORFLOW HUB DENTRO DE UN ESTIMADOR
22.1. PRESENTAMOS LAS REDES CODIFICADOR-DECODIFICADOR
22.2. REDES DE ATENCIÓN
22.3. ENTRENAMIENTO DE MODELOS DE CODIFICADOR-DECODIFICADOR CON TENSORFLOW
22.4. PRESENTAMOS TENSOR2TENSOR
22.5. TRADUCCIÓN DE AUTOML
22.6. DIALOGFLOW
23.1. TIPOS DE SISTEMAS DE RECOMENDACIÓN
23.2. BASADO EN CONTENIDO O COLABORATIVO
23.3. ERRORES DEL SISTEMA DE RECOMENDACIONES
24.1. SISTEMAS DE RECOMENDACIÓN BASADOS EN CONTENIDO
24.2. MEDIDAS DE SIMILITUD
24.3. CREACIÓN DE UN VECTOR DE USUARIO
24.4. HACER RECOMENDACIONES UTILIZANDO UN VECTOR DE USUARIO
24.5. HACER RECOMENDACIONES PARA MUCHOS USUARIOS
24.6. USO DE REDES NEURONALES PARA SISTEMAS DE RECOMENDACIÓN BASADOS EN CONTENIDO
25.1. TIPOS DE DATOS DE COMENTARIOS DEL USUARIO
25.2. INCORPORACIÓN DE USUARIOS Y ELEMENTOS
25.3. ENFOQUES DE FACTORIZACIÓN
25.4. EL ALGORITMO ALS
25.5. PREPARACIÓN DE DATOS DE ENTRADA PARA ALS
25.6. CREACIÓN DE TENSORES DISPERSOS PARA UNA ENTRADA WALS EFICIENTE
25.7. CREACIÓN DE INSTANCIAS DE UN ESTIMADOR WALS: DE LA ENTRADA AL ESTIMADOR
25.8. CREACIÓN DE INSTANCIAS DE UN ESTIMADOR WAL: DECODIFICACIÓN DE TFRECORDS
25.9. CREACIÓN DE INSTANCIAS DE UN ESTIMADOR WALS: RECUPERACIÓN DE CLAVES
25.10. CREACIÓN DE INSTANCIAS DE UN ESTIMADOR WALS: ENTRENAMIENTO Y PREDICCIÓN
25.11. PROBLEMAS CON EL FILTRADO COLABORATIVO
25.12. ARRANQUES EN FRÍO
26.1. SISTEMA DE RECOMENDACIÓN HÍBRIDO
26.2. SISTEMAS DE RECOMENDACIÓN SENSIBLES AL CONTEXTO
26.3. ALGORITMOS SENSIBLES AL CONTEXTO
26.4. POSTFILTRADO CONTEXTUAL
26.5. MODELADO MEDIANTE ALGORITMOS SENSIBLES AL CONTEXTO
27.1. DESCRIPCIÓN GENERAL DE LA ARQUITECTURA
27.2. DESCRIPCIÓN GENERAL DE CLOUD COMPOSER
27.3. CLOUD COMPOSER: DAG
27.4. CLOUD COMPOSER: OPERADORES PARA ML9
27.5. CLOUD COMPOSER: PROGRAMACIÓN
27.6. CLOUD COMPOSER: ACTIVACIÓN DE FLUJOS DE TRABAJO CON CLOUD FUNCTIONS
27.7. CLOUD COMPOSER: SUPERVISIÓN Y REGISTRO
La inversión incluye: Material de estudio, certificados e impuestos de ley.