Manipulation de flux de données avec Apache Kafka

Objectifs

  • comprendre le fonctionnement de Kafka
  • configurer Kafka pour intégrer les données de différents formats et de sources différentes
  • créer des applications qui s’abonnent et publient des données provenant d’un cluster Kafka
  • Formation nouvellement créée ou entièrement remaniée
  • Stage / Presentiel
  • 2 190 € (HT)
  • 3 Jours (21 Heures)
  • Repas Offert
  • Code: USL300

Programme Détaillé

Architectes, développeurs, équipes DevOps
Introduction à Kafka
Les besoins des nouvelles architectures et nouveaux écosystèmes : cloud, microservices, Big Data…
La nécessité de communiquer entre applications
L'avènement des traitements temps-réel
Les avantages de Kafka
Installer et configurer Kafka
Installation de l’écosystème Kafka
Configuration des composants du système : Zookeeper, brokers, topics, consumers, producers
Prise en main
Gestion du cluster
Administration des logs
Monitoring du système
Gestion des alertes
Développement pour Kafka
Développer un producer en Java pour émettre des messages vers un topic kafka
Développer un consumer en Java pour s’abonner à un topic kafka
Utiliser des APIs REST pour produire ou consommer des données.

Kafka Streams
Présentation du concept de streaming et pipeline de données
Utilisation de l’API
Kafka Connect
Intégration de systèmes existants avec Kafka
Gestion des transformations avec les connecteurs
Présentation de ksqlDB
Présentation de l'interface SQL-like pour le stream processing
Requêtes ksqlDB et opérations en ligne de commande
Traitement des données issues d’un stream
Notions d'architectures applicatives, connaissances en Java ou autre langage, connaissance de Linux/Unix
Consultant expert Kafka