Senior Data Engineering Specialist | Spécialiste senior en Ingénierie de Données
Date: Apr 24, 2026
Location: Montreal, Quebec, CA
Company: WorkJam, Inc.
WorkJam is the world’s leading digital frontline workplace, connecting the entire deskless workforce to work in perfect harmony. WorkJam solves the most common problems faced by global frontline enterprises through scheduling tools, task management, communication, and learning – all within a single app!
We’re proud of our dedicated teams who are making a difference for millions of frontline employees, which led us to be recognized as the 2024 World Future Award winner for Innovation in Workforce Management, among other accolades.
Perks of joining WorkJam:
- Competitive salary and benefits package
- 4 weeks’ vacation plus personal time off
- Contribution to your retirement/pension plan
- A flexible work environment that supports a healthy work/life balance
- Generous employee referral bonus of $4,000
At WorkJam, our core values are lead from the front, make a difference, unify, respect and include. WorkJam is a high growth global organisation with operations in North America, Europe, and Australia with our head office based in Montreal. Learn more at WorkJam.com
Your role as Senior Engineering Specialist :
As a key member of our data engineering team, the ideal candidate will possess a profound knowledge in data processing frameworks and analytics, with extensive experience in Python, Airflow, Apache Beam, DBT, GCP Dataflow, and GCP BigQuery. You will play a crucial role in designing and implementing sophisticated data pipelines, overseeing data architecture, and guiding the team towards achieving optimal data processing and analytics solutions.
What we're looking for:
• Bachelor's or master’s degree in computer science, Engineering, or related field.
• 5+ years of experience in a Data Engineering role with a focus on leadership and project management.
• Excellent project management and organizational skills.
• Robust analytical skills for working with unstructured datasets and complex data systems.
• Exceptional communication skills to clearly convey technical concepts to a broad range of stakeholders.
• Strong leadership presence with a sense of ownership and accountability, able to independently drive projects while contributing to team success.
• Experience in leading and supporting cross-functional teams in a dynamic environment.
• Advanced SQL knowledge and experience with relational databases and familiarity with various databases.
• Demonstrated expertise in building and optimizing large-scale data pipelines, architectures, and datasets.
• Knowledge of message queuing, stream processing, and highly scalable big data storage solutions.
• Experience with big data tools like Hadoop, Spark, Kafka, etc., is highly regarded.
• Proficiency in data pipeline and workflow management tools such as Airflow and Luigi.
• Deep experience with GCP cloud services including Dataflow, BigQuery, and PubSub.
• Familiarity with stream-processing systems like Storm and Spark-Streaming is advantageous.
What you'll be doing :
- Lead the design, construction, testing, and maintenance of highly scalable and robust data pipeline architectures for both batch and real-time data processing.
- Lead the strategic planning of data architectures, pipeline designs, and data modeling to support business initiatives and ensure compliance with data governance and security policies.
- Mentor junior data engineers, fostering a culture of technical excellence, innovation, and continuous improvement.
- Collaborate with data architects, business stakeholders, and IT teams to understand data needs, implement data strategies, and ensure seamless data integration across the organization.
- Spearhead the evaluation, implementation, and management of new technologies and tools to enhance the capabilities of the data infrastructure.
- Architect and maintain sophisticated data pipelines, optimizing data extraction, transformation with DBT, and loading into SQL, Python, and GCP BigQuery environments.
- Optimize data flows and architecture to improve data quality, efficiency, and reliability across complex and diverse data systems.
- Lead the development of complex data processing tasks using Apache Beam and GCP Dataflow for real-time analytics and insights.
- Utilize DBT to manage data transformation workflows, ensuring accuracy and consistency in GCP BigQuery.
- Develop and maintain scalable and automated data pipelines, incorporating advanced data quality checks and monitoring to minimize data discrepancies and errors.
- Drive innovation by exploring new data technologies and software engineering practices to enhance the agility and capability of the data engineering team.
- Act as a thought leader in data engineering, staying ahead of industry trends and integrating new technologies and approaches to evolve our data infrastructure.
This role requires strong English skills to interact with global colleagues outside Quebec. Proficiency in both spoken and written English is essential.
We are proud to offer bilingual job opportunities to all qualified candidates. Our job descriptions are written in both French and English to welcome French- and English-speaking talents. We encourage applications from all qualified individuals and are committed to an inclusive work environment that respects diversity.
(Version française)
WorkJam est le chef de file mondial du travail numérique de première ligne, connectant l'ensemble de la main-d'œuvre sur le terrain pour travailler en parfaite harmonie. WorkJam résout les problèmes les plus courants rencontrés par les entreprises de première ligne globales grâce à des outils de planification, de gestion des tâches, de communication et d'apprentissage - le tout dans une seule application !
Nous sommes fiers de nos équipes dévouées qui font une différence pour des millions d'employés de première ligne, ce qui nous a permis d'être reconnus comme lauréat du prix pour l'innovation dans la gestion de la main-d’œuvre « 2024 World Future Award », parmi d'autres distinctions.
Avantages de rejoindre WorkJam :
• Salaire et avantages sociaux compétitifs
• 4 semaines de vacances plus congés personnels
• Cotisation à votre régime de retraite/pension
• Un environnement de travail flexible pour favoriser un équilibre entre vie professionnelle et vie privée
• Généreuse prime de 4 000 $ pour la recommandation d'employés
Chez WorkJam, nos valeurs fondamentales sont aller de l’avant, faire une différence, l’unification, le respect et l'inclusion. WorkJam est une entreprise internationale à forte croissance avec des opérations en Amérique du Nord, en Europe et en Australie avec notre siège social basé à Montréal. En savoir plus sur www.WorkJam.com
Votre role en tant que Spécialiste en ingénierie de données :
En tant que membre de l'équipe d'intelligence d'affaires, la personne idéale possède une solide expertise en traitement de données et en analytique, et maîtrise Python, Airflow, Apache Beam, DBT, GCP Dataflow et GCP BigQuery. Elle jouera un rôle déterminant dans la conception et la mise en œuvre de pipelines de données sophistiqués, la supervision de l’architecture de données et l’orientation de l’équipe vers des solutions optimales d’analytique.
Ce que nous recherchons :
- Baccalauréat ou maîtrise en informatique, en génie ou dans un domaine connexe.
- 5 ans ou plus d’expérience en ingénierie des données, avec un accent sur le leadership et la gestion de projets.
- Excellentes aptitudes en gestion de projets et en organisation.
- Solides compétences analytiques pour travailler avec des jeux de données non structurées et des systèmes de données complexes.
- Aptitudes exceptionnelles en communication, permettant de vulgariser des concepts techniques auprès de divers intervenants.
- Leadership affirmé, sens des responsabilités et capacité à mener des projets de façon autonome tout en contribuant au succès de l’équipe.
- Expérience dans la direction et le soutien d’équipes interfonctionnelles dans un environnement dynamique.
- Excellente maîtrise de SQL et expérience avec les bases de données relationnelles et variées.
- Expertise démontrée dans la conception et l’optimisation de pipelines de données, d’architectures et de jeux de données à grande échelle.
- Connaissance des systèmes de messagerie, du traitement en continu et des solutions de stockage massif de données.
- Expérience avec les outils big data comme Hadoop, Spark et Kafka (un atout).
- Maîtrise des outils de gestion de pipelines et de flux de travail tels qu’Airflow et Luigi.
- Expérience approfondie des services GCP, notamment Dataflow, BigQuery et PubSub.
- Familiarité avec les systèmes de traitement en continu tels que Storm et Spark-Streaming (un atout).
Ce que vous ferez :
- Diriger la conception, la construction, les tests et la maintenance d’architectures de pipelines de données hautement scalables, adaptées au traitement par lots et en temps réel.
- Piloter la planification stratégique des architectures de données, des designs de pipelines et de la modélisation, en soutien aux initiatives d’affaires et en conformité avec les politiques de gouvernance et de sécurité.
- Mentorer les ingénieur·e·s de données juniors et cultiver une culture d’excellence technique, d’innovation et d’amélioration continue.
- Collaborer avec les architectes de données, les parties prenantes et les équipes TI pour comprendre les besoins en données, mettre en œuvre des stratégies et assurer une intégration fluide des données.
- Prendre en charge l’évaluation, l’implémentation et la gestion de nouvelles technologies pour renforcer l’infrastructure de données.
- Concevoir et maintenir des pipelines de données sophistiqués optimisant l’extraction, la transformation avec DBT et le chargement dans des environnements SQL, Python et GCP BigQuery.
- Optimiser les flux et l’architecture de données afin d’améliorer la qualité, l’efficacité et la fiabilité des données dans des systèmes complexes.
- Piloter le développement de tâches complexes de traitement de données avec Apache Beam et GCP Dataflow pour l’analytique en temps réel.
- Utiliser DBT pour gérer les flux de transformation de données, en garantissant l’exactitude et la cohérence dans GCP BigQuery.
- Développer et maintenir des pipelines automatiques intégrant des contrôles avancés de qualité et des systèmes de surveillance pour minimiser les erreurs et les incohérences.
- Favoriser l’innovation en explorant de nouvelles technologies de données et pratiques de génie logiciel pour accroître l’agilité de l’équipe.
- Être un·e leader d’opinion en ingénierie des données, en restant à la pointe des tendances de l’industrie et en intégrant de nouvelles technologies pour faire évoluer notre infrastructure.
Ce rôle nécessite une maîtrise de l'anglais pour interagir avec des collègues internationaux en dehors du Québec. La maîtrise de l’anglais, tant à l’oral qu’à l’écrit, est essentielle. Nous sommes fiers d’offrir des opportunités d’emploi bilingues à tous les candidats qualifiés. Nos descriptions de poste sont rédigées en français et en anglais pour accueillir les talents francophones et anglophones. Nous encourageons les candidatures de toutes les personnes qualifiées et nous nous engageons à fournir un environnement de travail inclusif qui respecte la diversité.