Sommaire

Pendant ces trois jours de formation, vous apprendrez comment construire une application qui peut publier et s’abonner à des données provenant d’un cluster Kafka.



Les motivations d'Apache Kafka


  • La complexité des systèmes
  • L'avènement des traitements temps-réel
  • Kafka : « Stream Data Platfom »

Concepts et fondamentaux de Kafka


  • Vue d'ensemble de Kafka
  • Les Producers
  • Les Brokers
  • Les Consumers
  • L'utilisation de Zookeeper

Architecture Kafka


  • Les fichiers de logs de Kafka
  • Réplications et cohérence des données
  • Kafka’s Write Path
  • Kafka’s Read Path
  • Les partitions et les groupes de consommation pour la scalabilité

Développer avec Kafka


  • Accéder à Kafka programmatiquement
  • Développer un Producer en Java
  • Utilisation des API REST pour produire des données.
  • Développer un Consumer en Java
  • Utilisation des API REST pour consommer des données.

Développements avancés avec Kafka


  • Créer un consommateur mutli-threadé.
  • Gestion des Offsets.
  • Coordination des consommateurs (Rebalancing)
  • Commiter manuellement les offsets. Partitionnement des données.
  • Garantir la non-perte des messages.

Gestion des schémas dans Kafka


  • Introduction à Avro
  • Les schémas Avro
  • Utilisation du SchemaRegistry

Kafka Connect : Intégrer des systèmes avec Kafka


  • Les motivations pour Kafka Connect
  • Les concepts
  • Les modes de déploiements (standalone/distributed)
  • Configuration en mode distribué
  • Gestion des Offsets
  • Configuration d'un connecteur
  • Comparaison entre Kafka Connect et d'autres solutions.

Principes de bases sur l'installation et l'administration de Kafka


  • Installation d'un cluster Kafka
  • Considérations matérielles
  • Administration d'un cluster Kafka

Kafka Streams


  • Les motivations pour Kafka Streams
  • Les fondamentaux de Kafka Streams
  • Exploration d'une application Kafka Streams