Eine verteilte Streaming-Plattform

Was ist Apache Kafka®?

Apache Kafka ist eine verteilte Streaming-Plattform, die mehrere Billionen Ereignisse pro Tag verarbeiten kann. Kafka wurde ursprünglich als Nachrichten-Queue konzipiert und basiert auf einer Abstraktion eines verteilten Commit-Logs. Seit seiner Erstellung und Open-Source-Erklärung durch LinkedIn im Jahr 2011 hat sich Kafka rasch von der Nachrichten-Queue zur vollständigen Streaming-Plattform weiterentwickelt.

Als Streaming-Plattform bietet Apache Kafka fehlertolerante Publish-and-Subscribe-Pipelines mit geringer Latenz sowie hohem Throughput und ist in der Lage, Ereignis-Streams zu verarbeiten. Kafka kann innerhalb von Millisekunden zuverlässig reagieren, um kundenorientierte Anwendungen sowie damit verbundene Downstream-Systeme mit Echtzeitdaten zu unterstützen.

Confluent Open Source
Die führende Version von Apache Kafka
Dokumente für einen tieferen Einstieg
Open-Source-Dokumente von Confluent zu Kafka
Was ist Apache Kafka<sup>®</sup>?

Einsatzmöglichkeiten von Apache Kafka

Einsatzmöglichkeiten von Apache Kafka

Tausende von Unternehmen basieren auf Apache Kafka

Nutzervideos ansehen

Was leistet Apache Kafka?

Übertragen und Abrufen

Übertragen und Abrufen

Alles beginnt mit dem einfachen, unveränderlichen Commit-Log. Das können Sie abonnieren und Daten auf beliebig vielen Systemen oder Echtzeit-Anwendungen veröffentlichen. Im Gegensatz zu Nachrichten-Queues ist Kafka ein in hohem Maße skalierbares und fehlertolerantes verteiltes System. So kann es für Anwendungen wie die Verwaltung von Fahrgast- und Fahrerzuordnung bei Uber, Echtzeit-Analytics und vorausschauende Wartung für Smart Home von British Gas und die Erbringung zahlreicher Echtzeit-Dienste überall auf LinkedIn eingesetzt werden. Durch diese einzigartigen Leistungen eignet es sich ideal für die Skalierung von einer einzigen App bis hin zur unternehmensweiten Verwendung.

Speichern

Speichern

Durch die Abstraktion eines verteilten Commit-Logs, wie es üblicherweise in verteilten Datenbanken zu finden ist, bietet Apache Kafka dauerhafte Speichermöglichkeiten. Kafka kann als zuverlässige Informationsquelle genutzt werden, da hier Daten auf mehrere Nodes verteilt werden können. So kann eine Bereitstellung mit hoher Verfügbarkeit in einem einzigen Rechenzentrum oder über mehrere Verfügbarkeitsbereiche hinweg erzielt werden.

Verarbeitung

Verarbeitung

Eine Streaming-Plattform würde ihrem Namen nicht gerecht, wenn die Daten nicht direkt bei ihrem Eintreffen verarbeitet werden könnten. Die Streams API in Apache Kafka ist eine leistungsstarke, schlanke Bibliothek, die eine On-the-fly-Verarbeitung ermöglicht. Hier können Sie aggregieren, Windowing-Parameter erstellen, Daten innerhalb eines Streams zusammenführen und vieles mehr. Doch das ist noch nicht alles: Sie wurde als Java-Anwendung auf Kafka erstellt, sodass Ihr Workflow unbeeinträchtigt bleibt und Sie sich nicht um zusätzliche Cluster kümmern müssen.

Kafka: The Definitive Guide

Erfahren Sie, wie Sie das volle Potenzial von Apache Kafka ausschöpfen können, der verteilten Publish-Subscribe-Queue für die Handhabung von Echtzeit-Daten-Feeds. Dieses umfangreiche Buch vermittelt Ihnen ein fundiertes Verständnis davon, wie Kafka aufgebaut ist und funktioniert.

Holen Sie sich das Buch
Kafka: The Definitive Guide

Das ideale Streaming-Toolset

Apache Kafka ist bei Entwicklern beliebt, da es sich schnell erlernen lässt und eine leistungsstarke Streaming-Plattform mit 4 APIs bietet: Producer, Consumer, Streams und Connect.

Entwickler gehen häufig zunächst von einem einzigen Anwendungsfall aus. Dabei könnte z. B. Apache Kafka als Zwischenspeicher für Nachrichten zum Schutz einer veraltete Datenbank, die mit den heutigen Workloads nicht Schritt halten kann, eingesetzt werden. Oder aber man könnte eine solche Datenbank über die Connect API mit einer passenden Such-Indizierungs-Engine synchronisieren, damit Daten direkt bei deren Eintreffen mit Streams API verarbeitet und aggregiert sofort wieder an Ihre Anwendung zurückgeschickt werden können.

Kurz gesagt: Apache Kafka und seine APIs machen die Erstellung datengestützter Apps und die Verwaltung komplexer Backend-Systeme ganz einfach. Mit Kafka können Sie ganz beruhigt darauf vertrauen, dass Ihre Daten stets fehlertolerant, wiedergabefähig und in Echtzeit verfügbar sind. Jetzt können Sie über eine einzige Streaming-Plattform Echtzeit-Daten verarbeiten, speichern und mit Ihren Anwendungen und Systemen verknüpfen – und so Ihre Entwicklung beschleunigen.

Das ideale Streaming-Toolset

Erstellen, bereitstellen und verknüpfen – genauso, wie Sie möchten

  • Zertifizierte Clients

    • C/C++
    • Go
    • JMS
    • JAVA
    • Python
    Clients ansehen
  • Moderne Bereitstellungs-Tools

    • Chef
    • DC/OS
    • Docker
    • Kubernetes
  • Zertifizierte Connectors

    • Elasticsearch
    • HDFS
    • JDBC
    • S3
    Connectors ansehen
Confluent Open Source
Der beste Ausgangspunkt für Apache Kafka
Erste Schritte
Apache Kafka Online-Talk-Reihe

We use cookies to understand how you use our site and to improve your experience. Click here to learn more or change your cookie settings. By continuing to browse, you agree to our use of cookies.