Hadoop : l'écosystème

Objectifs

  • Disposer d'une vision claire des différents éléments de l'écosystème Hadoop, projet Open Source initié par Google, destiné à faciliter le stockage, l’exploitation et l’analyse de très grands volumes d’information hébergés sur plusieurs machines en réseaux
  • Être à l’aise avec les concepts et termes propres à Hadoop et comprendre les rôles et les interactions des différents composants d’Hadoop au travers d’exemples significatifs
  • Best Seller
  • A distance / Presentiel
  • Code: IBD07
  • 1 Jour (7 Heures)
  • 790 € (HT)
  • A distance / Presentiel
  • Code: IBD07
  • 1 Jour (7 Heures)
  • Formule Intra - En savoir plus
    1 800 € (HT)
    (Prix pour un groupe de 10 personnes max)
  • Cette thématique vous intéresse ? Nos équipes d'experts, de concepteurs pédagogiques et de chefs de projet mettent en place pour vous et avec vous des dispositifs innovants, en présentiel et en digital.

Programme Détaillé

chef de projets, développeur, et toute personne souhaitant comprendre les mécanismes Hadoop et le rôle de chaque composant dans un projet Big Data
Introduction
Rappels sur NoSQL
Le théorème CAP
Historique du projet hadoop
Les fonctionnalités : stockage, outils d'extraction, de conversion, ETL, analyse, ...
Exemples de cas d'utilisation sur des grands projets
Les principaux composants : HDFS pour le stockage et YARN pour les calculs
Les distributions et leurs caractéristiques : HortonWorks, Cloudera, MapR, GreenPlum, Apache, ...
Architecture
Terminologie : NameNode, DataNode, ResourceManager
Rôle et interactions des différents composants
Présentation des outils :
. d'infrastructure (ambari, avro, zookeeper)
. de gestion des données (pig, oozie, falcon, pentaho, sqoop, flume)
. d'interfaçage avec les applications GIS
. de restitution et requêtage : webhdfs, hive, hawq, impala, drill, stinger, tajo, mahout, lucene, elasticSearch, Kibana
Les architectures connexes : spark, cassandra
Exemples interactifs
Démonstrations sur une architecture Hadoop multi-noeuds.
Mise à disposition d'un environnement pour des exemples de calcul
Travaux pratiques : Recherches dans des données complexes non structurées
Applications
Cas d'usages de Hadoop
Infrastructures hyperconvergées avec les appliances Hadoop
Calculs distribués sur des clusters Hadoop
Connaissances générales des systèmes d'information
Consultant-Formateur expert Big Data
Remise d’une documentation pédagogique papier ou numérique pendant le stage
La formation est constituée d’apports théoriques, d’exercices pratiques et de réflexions
Les sessions "A distance" sont réalisées avec l'outil de visioconférence Teams, permettant au formateur d'adapter sa pédagogie.

Nos formateurs DEMOS sont recrutés conformément aux spécifications mentionnées pour chaque formation. Ce sont des professionnels en activité et/ou des experts dans leur domaine. Ils utilisent des méthodes et outils appropriés aux formations qu’ils dispensent et adaptent leur pédagogie au public accueilli.

Avant la formation : IMPLIQUER
Questionnaire pré-formation et/ou recueil des besoins pour préciser les attentes individuelles, à l’entrée en formation.
Pendant la formation : APPLIQUER
Méthodes actives et participatives, apports théoriques (10%), mises en pratique (70%) et échanges (20%)
Elaboration de son plan d’actions personnalisé
Après la formation : ACCOMPAGNER
Les conseillers formation sont à votre disposition si vous avez besoin de précisions.

SUIVI & EVALUATION
Pour assurer un suivi individuel, Demos a mis en place 2 types d’évaluation :
Une évaluation de compétences en ligne en début et en fin de formation qui peut prendre différentes formes selon le contenu de la formation suivie : Tests d’évaluation des acquis, cas pratiques, mises en situation, soutenance devant un jury pour les formations à finalité certifiante.
Une évaluation de la satisfaction de chaque stagiaire est réalisée en ligne. Cette évaluation est complétée par l’appréciation du formateur à l’issue de chaque session.