Confluent Cloud, Apache Kafka as a Service, now available on Google Cloud Platform and AWS.

Choose Your Plan
Echtzeit-Daten in riesigen Mengen

Echtzeit-Daten in riesigen Mengen

Erfassen und reagieren Sie in Echtzeit auf jeden einzelnen Vorgang in Ihrem Unternehmen. Einem Zentralnervensystem entsprechend, erstellt Confluent eine Apache-Kafka-basierte Streaming-Plattform, um Ihr Unternehmen um eine „Single Source of Truth“ herum zusammenzubringen.

ANGETRIEBEN VON DATEN

Datenzugriff auf den Kopf gestellt

Heutzutage sind Ihre Daten in Systemen eingesperrt, die nicht miteinander kommunizieren. Was Sie benötigen, ist eine „Single Source of Truth“ über Ihr Unternehmen in Echtzeit, welche die Endpunkte Ihrer Organisation erreicht: ein Zentralnervensystem, das es Ihnen ermöglicht, bereits bei Eintritt der Vorgänge zu reagieren und damit unzugängliche Systeme auf den Kopf zu stellen.

Mehr erfahren >
Seien Sie für die Zukunft gerüstet

KOMPROMISSLOS ZUVERLÄSSIG

Seien Sie für die Zukunft gerüstet

Was bringt Schnelligkeit ohne Zuverlässigkeit? Die Confluent-Plattform fügt Ihrer Kafka-Umgebung Verwaltungs-, Datenmanagement- und Betriebstools sowie robuste Tests hinzu. Ihre Kafka-Umgebung kann sogar in der Cloud gehostet werden - von den ursprünglichen Entwicklern von Apache Kafka®.

Mehr erfahren >

NIEDRIGE LATENZ

Unterstützt Billionen von Nachrichten

Ob aus Kosten- oder Leistungsgründen: Eine Architektur, die auf einer höchst skalierbaren, weit verbreiteten Streaming-Plattform wie Confluent basiert, wächst rasch mit Ihrem Unternehmen und den expandierenden Daten-Pipelines, die diese mit sich bringt, wodurch sowohl Leistung als auch Kosteneinsparungen beschleunigt werden.

Mehr erfahren >
Die Streaming-Plattform

SPEICHERN, VERARBEITEN, VERÖFFENTLICHEN UND ABONNIEREN

Die Streaming-Plattform

Eine Streaming-Plattform kombiniert die Stärke der Datendistribution eines Publish-Subscribe-Modells mit einer Speicherebene und einer Verarbeitungsebene. Dadurch wird das Erstellen von Daten-Pipelines und deren Verbindung mit all unseren Systemen erheblich vereinfacht.

Learn more about Confluent Platform >
Your Platform for Real-time Streaming Apps and Pipelines

Für Entwickler entwickelt

Your Platform for Real-time Streaming Apps and Pipelines

Moderne Anwendungen sind auf Echtzeitdaten angewiesen, um Erlebnisse zu personalisieren, betrügerisches Verhalten zu erkennen oder Dashboards zu liefern. Aus Verbrauchersicht ist dies großartig, aus Entwicklersicht revolutionär. Eine Streaming-Plattform bietet eine einzige, massiv skalierbare Lösung zur Entwicklung von Echtzeit-Anwendungen und Lieferung von Daten dort, wo Sie diese benötigen - zuverlässig und in Echtzeit.

Legen Sie los mit Confluent >
                      #It’s easy to get up and running with all things Confluent 
#once you’ve downloaded and setup the Confluent CLI
$confluent start
starting zookeeper
zookeeper is [UP]
starting kafka
kafka is [UP]
starting schema-registry
schema-registry is [UP]





                    

LEISTUNGSSTARK UND EINFACH IN DER NUTZUNG

Eine einzige Lösung für das Streaming

Confluent und Apache Kafka® vereinfachen die Arbeit mit kontinuierlichen Datenströmen. Confluent bietet eine besser verpackte Distribution von Kafka und liefert zudem Open-Source-Entwickler-Tools, damit Sie schnell starten können.

  • Java
  • C+/C++
  • Python
  • Go
  • REST Proxy
Legen Sie los mit Confluent >
                      #You can use Kafka’s Streams API or KSQL to easily process 
#our stream without any additional clusters to do some powerful 
#things - like get a top 5 chart of songs played. We’ll start by 
#joining a stream of songs that are played with an ID(playEvents) 
#and enriching that with songTable to get their name

final KStream songPlays =
  playEvents.leftJoin(songTable,(value1, song) -> song, 
  Serdes.Long(), playEventSerde);

#Next, we create a state store, ‘songPlayCounts’ to track song play counts

final KTable songPlayCounts =
  songPlays.groupBy((songId, song) -> song, keySongSerde, 
  valueSongSerde) .count(SONG_PLAY_COUNT_STORE);

final TopFiveSerde topFiveSerde = new TopFiveSerde();

#Lastly, we’ll compute the top five charts for each genre. 
#The results of this computation will continuously update
# the state which we can then query songPlayCounts.groupBy((song, plays) -> KeyValue.pair(song.getGenre().toLowerCase(), new SongPlayCount(song.getId(), plays)),Serdes.String(), songPlayCountSerde)

WO STREAM AUF TABELLE TRIFFT

Datenstromverarbeitung, einfach gemacht

Ihre Daten befinden sich selten in genau der Form, in der Sie diese haben möchten. Daher aggregieren, filtern und verbinden wir diese mit derart penibler Sorgfalt. In einer Echtzeit-Umgebung werden diese Aktionen kontinuierlich mit einer Streaming-Engine wie KSQL oder Kafkas Streams-API durchgeführt. Die Confluent-Plattform bietet Ihnen eine End-to-End-Lösung, welche die Komplexität minimiert: Sie können Ihre Anwendung erstellen, nach eigenem Geschmack einsetzen und damit beginnen, den Wert Ihrer Daten mit einer Latenz von Millisekunden, starken Garantien und einer erwiesenen Zuverlässigkeit zu erfassen.

  • Java
  • KSQL
Legen Sie mit der Stream-Verarbeitung los >
                      #Kafkas Connect-API vereinfacht das Verwalten von Sources und Sinks -
#dieses elasticsearch-sink zum Beispiel ist einfach vorzubereiten
#freundliche Config-Datei
#Benutzerdefinierter Connector-Instance-Name. Name = elasticsearch-sink Die Klasse, die den Connector implementiert connector.class =
io.confluent.connect.elasticsearch.ElasticsearchSinkConnector #Maximale Anzahl an Aufgaben, die für diese Connector-Instance laufen sollen tasks.max =1 topics = test-elasticsearch-sink key.ignore = true connection.url = http://localhost:9200 type.name = kafka-connect #Sobald wir dann bereit sind, können wir den Elasticsearch-Connector
# in einer Zeile laufen lassen $confluent load elasticsearch

Alles miteinander verbinden

Daten dort, wo Sie sie brauchen

Ob Suchindex, Caching-Layer oder Training eines Algorithmus des maschinellen Lernens: Confluent gestaltet den Aufbau von Daten-Pipelines in Echtzeit einfach, damit Sie Daten dort erhalten, wo Sie diese zuverlässig benötigen. Die Confluent-Plattform beinhaltet vorkonfigurierte, zertifizierte Kafka-Connectors für beliebte Datenspeicher- und -systeme.

  • Amazon S3
  • Elasticsearch
  • HDFS
  • MySQL
  • +Mehr
Legen Sie los mit der Datenintegration >

Watch Our Customers in Action

View All Customer Stories

WIR KÖNNEN ES KAUM ERWARTEN, ZU SEHEN, WAS SIE STREAMEN

We use cookies to understand how you use our site and to improve your experience. Click here to learn more or change your cookie settings. By continuing to browse, you agree to our use of cookies.