Logo der Deutsche Handelskammer für Spanien

Proyecto BIGDATA + | Candidatos

En esta página encuentras todo lo que necesitas para iniciar tu viaje en el mundo del Big Data de la mano de nuestras empresas colaboradoras.

Big Data
Freepik

¿Qué es el curso BigData+?

Este curso de especialización es fruto de una colaboración entre la Cámara de Comercio Alemana y el mundo empresarial que responde a la falta de personal en áreas como el Big Data, la computación en la nube y el análisis de datos.

Empieza en septiembre de cada año, y combina durante un año los estudios en la escuela durante dos días semanales con el aprendizaje práctico en un departamento de datos de una de las empresas que participan en el programa los otros días de la semana.

La formación se realiza en español, pero conduce a un título de FP oficial del sistema educativo alemán (Técnico especialista en Análisis de datos y procesos) ya que sigue el modelo alemán dual de la FP, en el que las empresas con necesidad de personal ofrecen plazas de formación y seleccionan a un candidato, igual como si se tratara a un puesto de trabajo.

En el programa dual BigData+ son las empresas las que asumen el coste de la formación, y otorgan además una beca mensual al alumno, como recompensa por el trabajo cada vez más productivo que realiza en la empresa.

Esquema BigData

¿Qué te ofrece el programa?

  • Formación Profesional Dual de 1 año
  • Refuerzo de trato con clientes
  • Financiación del programa por la empresa
  • Doble titulación | Reconocimiento internacional
  • Trabajar en empresas en España con matriz alemana que busca talento joven
  • Ganar competencias más avanzadas en el entorno profesional de la informática
  • Perspectivas de empleo en empresas multinacionales
  • Ganar experiencia laboral con herramientas más actualizadas en el Big Data

Programa BIGDATA + | Módulos

Módulo 1: Análisis de datos | Ecosistema Python
 

Los alumnos adquieren experiencia práctica con el ciclo de vida del Machine Learning, desde el preprocesamiento de los datos hasta la elección, configuración y evaluación de distintos modelos de Machine Learning y Deep Learning, incluyendo la visualización de los resultados. Se familiarizan con las bibliotecas pandas, numpy, scikit-learn, TensorFlow (Keras), statsmodels, matplotlib y seaborn.
 

I. Iniciación en análisis de datos con Python

  • Caso de uso: Exploración y Análisis descriptivo de datasets.

II. Modelos de regresión en Machine Learning con Python

  • Casos de uso: Linear Regression, Decision Tree Regression, Random Forest Regression, Neural Network Regression y Deep Learning.

III. Modelos de clasificación en Machine Learning con Python

  • Casos de uso: Logistic Regression, Decision Tree, Random Forest, Naïve Bayes Classifier, K-Nearest Neighbors, Support Vector Machine, Neural Networks y Deep Learning (MLP y DNN), Convolutional Neural Networks.

IV. Modelos de clustering en Machine Learning con Python

  • Casos de uso: Feature Engineering, K-Means, Mean Shift, Mini Batch K-Means, Density-Based Clustering (DBSCAN, OPTICS), Distribution-Based Clustering (GMM), Hierarchical Clustering, Agglomerative Clustering.

V. Análisis de series temporales con Python

  • Casos de uso: Time Series Forecasting con AR, ARIMA, SARIMA y Exponential Smoothing, Recursive Forecasting, Multivariate Forecasting, Ensemble Modeling.

 

Módulo 2: Arquitecturas de Big Data en el ecosistema de AWS

Los alumnos aprenden a gestionar las capas de arquitecturas de Big Data (Data Warehouse, Data Lake, Data Lakehouse y Data Mesh) en la nube y se certifican con los exámenes oficiales de AWS. Aprenden a diseñar y administrar flujos de datos escalables, desde la ingesta hasta el almacenamiento, procesamiento y análisis de datos en entornos distribuidos. Se explorarán herramientas para la transformación y consulta de datos en tiempo real y por lotes, optimizando el rendimiento y reduciendo costos mediante arquitecturas eficientes y seguras.
 

I. Ingesta de datos

  • AWS Glue (ETL para ingesta por lotes)
  • Amazon Kinesis (procesamiento de datos en tiempo real)
  • Amazon Managed Streaming for Apache Kafka (MSK)

II. Almacenamiento de datos

  • AWS S3, AWS S3 Glacier, AWS Lake Formation, AWS Redshift Spectrum (consulta de datos en S3 desde Redshift)
    AWS Glue Data Catalog (gestión de metadatos)

III. Procesamiento de datos

  • AWS Glue (ETL y transformación de datos)
  • Apache Spark, AWS Neptune, Amazon EMR (procesamiento a gran escala basado en Hadoop/Spark)
  • SageMaker (entrenamiento de modelos de Machine Learning)
    Amazon Kinesis Data Analytics (procesamiento de datos en tiempo real)

IV. Consultas, análisis y consumo de datos

  • AWS QuickSight (inteligencia de negocio y visualización)
  • AWS Athena (consultas SQL en S3)
  • AWS Redshift (almacenamiento de datos) 
  • AWS Glue DataBrew (exploración interactiva de datos)

Módulo 3: Análisis y digitalización de procesos

Los alumnos aprenden a modelar procesos empresariales y detectar oportunidades para la digitalización y automatización mediante soluciones de RPA, bibliotecas especializadas de Python y el framework LangChain para crear soluciones con Inteligencia Artificial Generativa.
 

I. Modelado de procesos con software especializado

  • UML, BPMN (Business Process Model and Notation), EPC (Event-Driven Process Chain).

II. Automatización de tareas con RPA y Python

  • UIPath, PyAutoGUI, Selenium, Beautiful Soup, APScheduler.

III.    Optimización de productividad con herramientas de Inteligencia Artificial Generativa

  • Modelos de lenguaje masivo (Large Language Models) de OpenAI, Meta y Google.
  • Prompt engineering, fine-tuning y copilotos.
  • AWS Bedrock.

IV. Creación de aplicaciones de Inteligencia Artificial Generativa con LangChain

  • Chatbots con workflows automatizados.
  • Retrieval-Augmented Generation (RAG).
  • Agentic AI.

Alternancia

Semanal

  • 2 días por semana (lunes y martes) en el centro educativo (clase ONLINE)
  • 3 días por semana (de miércoles a viernes): formación en empresa​

 ¿Te interesa?

¡Envíanos tu CV y da el siguiente paso para tu futuro!

La formación empieza en septiembre de cada año. Si estás cursando el segundo año de un ciclo formativo de grado superior en informática, mándanos tu CV hasta finales de diciembre, y podrás participar en la selección que tiene lugar en enero y realizar la FCT ya en una de nuestras empresas colaboradoras.

¿Todavía no estás seguro si el análisis de datos y el Big Data es lo tuyo?

Si quieres saber si este sector de Big Data te atrae realmente puedes realizar libremente el Módulo 0, un curso de iniciación online (5-10 horas), que consta de dos partes:

  • en la primera presentamos ejemplos del uso del Big Data en las empresas que participan en el proyecto,
  • y la segunda parte es un reto de programación, en el que debes solucionar pequeñas tareas de un proyecto de análisis de datos utilizando algunas de las herramientas típicas de un data scientist.

Al finalizar tienes la opción de enviarnos tu candidatura. Las empresas valoran el hecho de que hayas completado esta mini formación.

 

Contacte con nosotros

¿Más preguntas sobre nuestra oferta de formación? ¿Alguna sugerencia? Nuestros expertos estarán encantados de contactar con usted.

Anfrage senden

Contacto