Trabajo de Larochelle - Spécialiste en ingénierie de données en Quebec en Mexico, Quebec - Canada
search
tune

Filtros

close

Rango de salario (MXN)

Tipo de empleo

Fecha de publicación

Larochelle - Spécialiste en ingénierie de données

  • Sueldo (MXN)

    No especificado

  • Lugar:

    Quebec, Canada

  • Tipo de puesto

    Empleado de tiempo completo

Description de l'emploi

Larochelle Groupe Conseil est présentement à la recherche d’un(e)  Spécialiste en ingénierie de données  pour rejoindre notre communauté d’experts en Analytique de données à Montréal.

Ce qui vous attend :
  • Concevoir, développer, déployer et optimiser des pipelines de données à dynamiques variables (lots, micro-lots, flux continus) pour des besoins variés (analyse, apprentissage machine, processus automatisés), de mécanismes d’échange de données entre domaines, applications et organisations, d’interfaces API RESTful HTTP ainsi que divers dépôts de données;
  • Mettre en place une plateforme de données cloud (ressources de stockage, computationnelles, de sécurité et de monitoring) supportant divers cas d’usage : ingénierie, entreposage, science et partage de données;
  • Découper des solutions et organiser le code source de manière à favoriser l’intégration et le déploiement continus;
  • Dans un esprit de développement orienté tests (TDD), élaborer et exécuter de divers tests (unitaires, intégration, fonctionnels);
  • Participer activement à la correction, revue, amélioration et réusiner le code;
  • Encadrer et éduquer les équipes dédiées à la réalisation.

Compétences recherchées
  • maîtrise des modèles de mouvement et de virtualisation des données, des techniques d’extraction et de chargement incrémentaux (ex. détection des changements, CDC, merge) et des mécanismes d’historisation des données (ex. insertion versionnée, mise à jour, changements nets);
  • maîtrise des divers formats de données (structurés, semi-structurés, non structurés), des familles technologiques de stockage (fichier, SQL, NoSQL), des types de dépôts de données (ex.  staging , lac, voûte, référentiel, entrepôt, cube) et des interfaces pour y accéder sur site et dans le  cloud  (ex. API RESTful HTTP, ODBC, JDBC, OLE DB);
  • expérience concrète avec des technologies de stockage (ex. HDFS, Hive, MySQL, Postgresql, Cassandra, CouchDB, Druid, HBase, Redis, TimescaleDB), de traitement (ex. Airflow, Kafka, Storm) et d’analyse et d’apprentissage machine (ex. Jupyter, Kylin, Spark/Databricks, TensorFlow), avec une distribution Hadoop sur site (ex. Cloudera/Hortonworks) ou dans le  cloud  (ex. Azure HDInsight, AWS EMR, Google Cloud Dataproc), avec des langages et utilitaires tels SQL, HiveQL, C#, Python, R, Java/Scala, Bash, avec un  IDE /éditeur de code (ex. IntelliJ IDEA, Visual Studio Code) et avec des outils de gestion (ex. Jenkins, GitHub, Git);
  • compréhension du cycle de livraison et appréciation de l’intégration et du déploiement continus (CI/CD);
  • leadership, collaboration, curiosité, adaptabilité, créativité, méticulosité.
Atouts
  • connaissance de la plateforme de données Snowflake;
  • emploi d’une technologie de conteneurisation (ex. Docker, Kubernetes);
  • expérience en mode services-conseils;
Scolarité
  • baccalauréat en ingénierie, informatique, mathématiques ou équivalent.

Compétences requises

API RESTful 3 à 5 ans
TDD 1 à 2 ans
SQL 3 à 5 ans
MDX/DAX 3 à 5 ans
Azure HDInsight 1 à 2 ans
AWS EMR 1 à 2 ans
Google Cloud Dataproc 1 à 2 ans
Python 1 à 2 ans
NoSQL 3 à 5 ans
----

Job description

Larochelle Groupe Conseil est présentement à la recherche d’un(e)  Spécialiste en ingénierie de données  pour rejoindre notre communauté d’experts en Analytique de données à Montréal.

Ce qui vous attend :
  • Concevoir, développer, déployer et optimiser des pipelines de données à dynamiques variables (lots, micro-lots, flux continus) pour des besoins variés (analyse, apprentissage machine, processus automatisés), de mécanismes d’échange de données entre domaines, applications et organisations, d’interfaces API RESTful HTTP ainsi que divers dépôts de données;
  • Mettre en place une plateforme de données cloud (ressources de stockage, computationnelles, de sécurité et de monitoring) supportant divers cas d’usage : ingénierie, entreposage, science et partage de données;
  • Découper des solutions et organiser le code source de manière à favoriser l’intégration et le déploiement continus;
  • Dans un esprit de développement orienté tests (TDD), élaborer et exécuter de divers tests (unitaires, intégration, fonctionnels);
  • Participer activement à la correction, revue, amélioration et réusiner le code;
  • Encadrer et éduquer les équipes dédiées à la réalisation.

Compétences recherchées
  • maîtrise des modèles de mouvement et de virtualisation des données, des techniques d’extraction et de chargement incrémentaux (ex. détection des changements, CDC, merge) et des mécanismes d’historisation des données (ex. insertion versionnée, mise à jour, changements nets);
  • maîtrise des divers formats de données (structurés, semi-structurés, non structurés), des familles technologiques de stockage (fichier, SQL, NoSQL), des types de dépôts de données (ex.  staging , lac, voûte, référentiel, entrepôt, cube) et des interfaces pour y accéder sur site et dans le  cloud  (ex. API RESTful HTTP, ODBC, JDBC, OLE DB);
  • expérience concrète avec des technologies de stockage (ex. HDFS, Hive, MySQL, Postgresql, Cassandra, CouchDB, Druid, HBase, Redis, TimescaleDB), de traitement (ex. Airflow, Kafka, Storm) et d’analyse et d’apprentissage machine (ex. Jupyter, Kylin, Spark/Databricks, TensorFlow), avec une distribution Hadoop sur site (ex. Cloudera/Hortonworks) ou dans le  cloud  (ex. Azure HDInsight, AWS EMR, Google Cloud Dataproc), avec des langages et utilitaires tels SQL, HiveQL, C#, Python, R, Java/Scala, Bash, avec un  IDE /éditeur de code (ex. IntelliJ IDEA, Visual Studio Code) et avec des outils de gestion (ex. Jenkins, GitHub, Git);
  • compréhension du cycle de livraison et appréciation de l’intégration et du déploiement continus (CI/CD);
  • leadership, collaboration, curiosité, adaptabilité, créativité, méticulosité.
Atouts
  • connaissance de la plateforme de données Snowflake;
  • emploi d’une technologie de conteneurisation (ex. Docker, Kubernetes);
  • expérience en mode services-conseils;
Scolarité
  • baccalauréat en ingénierie, informatique, mathématiques ou équivalent.

Required skills

API RESTful 3 to 5 years
TDD 1 to 2 years
SQL 3 to 5 years
MDX/DAX 3 to 5 years
Azure HDInsight 1 to 2 years
AWS EMR 1 to 2 years
Google Cloud Dataproc 1 to 2 years
Python 1 to 2 years
NoSQL 3 to 5 years