Logotipo de Cámara de Comercio Alemana para España.

Proyecto BIGDATA + | Empresas formadoras

Este ciclo formativo de especialización ofrece a las empresas la oportunidad de seleccionar a candidatos con titulación de grado superior en informática que se incorporan durante un año como aprendiz o becario en el departamento de Big Data. Esta fase de adaptación y aprendizaje se compagina con los estudios en el centro docente donde adquieren las competencias necesarias para obtener el título del sistema educativo alemán “Técnico en Análisis de datos y procesos”.

Big Data
Freepik

Condiciones de participación como empresa formadora

  • Tener ganas de enseñar y formar a una nueva generación de informáticos.
  • Nombrar a un/a tutor/una tutora y perseguir juntos los objetivos de aprendizaje en este curso de especialización​.

Contratación y programa

Convenio

  • Firma de convenios Cámara-Empresa-Centro FP- Alumno
  • Empresa: alta en la Seguridad Social
  • Centro FP: seguro escolar
  • Beca mínima: 360 € / mes

Costes para la empresa

  • 8.300 € / alumno / año​
  • 5% descuento 2º alumno
  • 10% descuento 3º y sucesivos alumnos

Incluye:*​

  • Profesores y tutores del Centro​
  • Coordinación del proceso de selección de candidatos​
  • Coste de las instalaciones​
  • Material formativo​
  • Licencia exámenes​
  • Certificado​

​*(no incluye la beca/remuneración)​

Programa BIGDATA + | Modulos

Módulo 1: Análisis de datos | Ecosistema Python
 

Los alumnos adquieren experiencia práctica con el ciclo de vida del Machine Learning, desde el preprocesamiento de los datos hasta la elección, configuración y evaluación de distintos modelos de Machine Learning y Deep Learning, incluyendo la visualización de los resultados. Se familiarizan con las bibliotecas pandas, numpy, scikit-learn, TensorFlow (Keras), statsmodels, matplotlib y seaborn.
 

I. Iniciación en análisis de datos con Python

  • Caso de uso: Exploración y Análisis descriptivo de datasets.

II. Modelos de regresión en Machine Learning con Python

  • Casos de uso: Linear Regression, Decision Tree Regression, Random Forest Regression, Neural Network Regression y Deep Learning.

III. Modelos de clasificación en Machine Learning con Python

  • Casos de uso: Logistic Regression, Decision Tree, Random Forest, Naïve Bayes Classifier, K-Nearest Neighbors, Support Vector Machine, Neural Networks y Deep Learning (MLP y DNN), Convolutional Neural Networks.

IV. Modelos de clustering en Machine Learning con Python

  • Casos de uso: Feature Engineering, K-Means, Mean Shift, Mini Batch K-Means, Density-Based Clustering (DBSCAN, OPTICS), Distribution-Based Clustering (GMM), Hierarchical Clustering, Agglomerative Clustering.

V. Análisis de series temporales con Python

  • Casos de uso: Time Series Forecasting con AR, ARIMA, SARIMA y Exponential Smoothing, Recursive Forecasting, Multivariate Forecasting, Ensemble Modeling.

 

Módulo 2: Arquitecturas de Big Data en el ecosistema de AWS

Los alumnos aprenden a gestionar las capas de arquitecturas de Big Data (Data Warehouse, Data Lake, Data Lakehouse y Data Mesh) en la nube y se certifican con los exámenes oficiales de AWS. Aprenden a diseñar y administrar flujos de datos escalables, desde la ingesta hasta el almacenamiento, procesamiento y análisis de datos en entornos distribuidos. Se explorarán herramientas para la transformación y consulta de datos en tiempo real y por lotes, optimizando el rendimiento y reduciendo costos mediante arquitecturas eficientes y seguras.
 

I. Ingesta de datos

  • AWS Glue (ETL para ingesta por lotes)
  • Amazon Kinesis (procesamiento de datos en tiempo real)
  • Amazon Managed Streaming for Apache Kafka (MSK)

II. Almacenamiento de datos

  • AWS S3, AWS S3 Glacier, AWS Lake Formation, AWS Redshift Spectrum (consulta de datos en S3 desde Redshift)
    AWS Glue Data Catalog (gestión de metadatos)

III. Procesamiento de datos

  • AWS Glue (ETL y transformación de datos)
  • Apache Spark, AWS Neptune, Amazon EMR (procesamiento a gran escala basado en Hadoop/Spark)
  • SageMaker (entrenamiento de modelos de Machine Learning)
    Amazon Kinesis Data Analytics (procesamiento de datos en tiempo real)

IV. Consultas, análisis y consumo de datos

  • AWS QuickSight (inteligencia de negocio y visualización)
  • AWS Athena (consultas SQL en S3)
  • AWS Redshift (almacenamiento de datos) 
  • AWS Glue DataBrew (exploración interactiva de datos)

Módulo 3: Análisis y digitalización de procesos

Los alumnos aprenden a modelar procesos empresariales y detectar oportunidades para la digitalización y automatización mediante soluciones de RPA, bibliotecas especializadas de Python y el framework LangChain para crear soluciones con Inteligencia Artificial Generativa.
 

I. Modelado de procesos con software especializado

  • UML, BPMN (Business Process Model and Notation), EPC (Event-Driven Process Chain).

II. Automatización de tareas con RPA y Python

  • UIPath, PyAutoGUI, Selenium, Beautiful Soup, APScheduler.

III.    Optimización de productividad con herramientas de Inteligencia Artificial Generativa

  • Modelos de lenguaje masivo (Large Language Models) de OpenAI, Meta y Google.
  • Prompt engineering, fine-tuning y copilotos.
  • AWS Bedrock.

IV. Creación de aplicaciones de Inteligencia Artificial Generativa con LangChain

  • Chatbots con workflows automatizados.
  • Retrieval-Augmented Generation (RAG).
  • Agentic AI.

Walther von Plettenberg

Director Gerente de la Cámara de Comercio Alemana para España

"El Proyecto BIGDATA + está brindando una perspectiva de futuro a las empresas y los jóvenes de España."

Contacte con nosotros

¿Más preguntas sobre nuestra oferta de formación? ¿Alguna sugerencia? Nuestros expertos estarán encantados de contactar con usted.

Enviar una solicitud

Contacto