Data Engineer

Grupo Ruiz


Fecha: hace 4 días
ciudad: Leganés, Madrid
Tipo de contrato: Tiempo completo

En Grupo Ruiz, somos líderes en soluciones de movilidad sostenible e innovadora en España. Nos comprometemos a redefinir la movilidad ofreciendo servicios de transporte excepcionales. Buscamos profesionales que compartan nuestra visión y contribuyan a nuestro compromiso con la excelencia y la sostenibilidad.


Descripción del puesto

El puesto de Data Engineer se crea para dar soporte en la implementación y gestión de una infraestructura

de datos basada en Google Cloud Platform (GCP). Este rol será clave para garantizar la escalabilidad,

eficiencia y seguridad de los flujos de datos de la empresa, facilitando el análisis avanzado y la toma de

decisiones estratégicas.

Dado que la empresa está enfocada en construir un entorno completamente "data-driven" utilizando GCP,

se requiere un especialista en esta plataforma que pueda integrar las mejores prácticas y herramientas

que ofrece Google Cloud.


Funciones

Diseñar, construir y mantener pipelines de datos en entornos Google Cloud.

Platform (BigQuery, Dataflow, Cloud Storage).

Administrar y optimizar bases de datos en la nube (BigQuery, Firestore).

Garantizar la calidad, consistencia y seguridad de los datos en GCP.

Implementar soluciones de integración de datos utilizando herramientas como Google Dataflow,

Pub/Sub y Cloud Composer.

Diseñar arquitecturas escalables y eficientes para grandes volúmenes de datos.

Colaborar con equipos de Data Science y Analítica para facilitar el acceso a datos confiables y en

tiempo real.

Monitorizar el rendimiento de los sistemas en GCP y realizar ajustes para mejorar la eficiencia

operativa.

Proporcionar soporte y formación al equipo sobre el uso de herramientas de GCP.


Formación y Conocimientos Específicos

Grado en Ingeniería Informática, Telecomunicaciones, Ciencias de la Computación, o áreas relacionadas.

1- Especialización en Google Cloud:

i) BigQuery: Diseño y optimización de consultas SQL a gran escala.

ii) Dataflow: Procesamiento de datos en streaming y batch.

iii) Cloud Storage: Gestión y optimización de almacenamiento en la nube.

iV) Cloud Composer: Orquestación de flujos de datos complejos.

v) Pub/Sub: Sistemas de mensajería y procesamiento en tiempo real.

2- Lenguajes de programación: Python o Java (indispensable para integraciones y pipelines).

3- Conocimientos en gestión de seguridad y permisos en GCP.

4- Experiencia en herramientas de ETL como Talend o Apache Airflow.

  • 5- Familiaridad con herramientas de DevOps en entornos Google Cloud (Kubernetes Engine, Terraform).

Publicar un currículum