Confluent Cloud, Apache Kafka as a Service: Jetzt verfügbar auf Google Cloud Platform und auf AWS.

Tarif auswählen
Echtzeit-Daten in riesigen Mengen

Echtzeit-Daten in riesigen Mengen

Erfassen und reagieren Sie in Echtzeit auf jeden einzelnen Vorgang in Ihrem Unternehmen. Einem Zentralnervensystem entsprechend, erstellt Confluent eine Apache-Kafka-basierte Streaming-Plattform, um Ihr Unternehmen um eine „Single Source of Truth“ herum zusammenzubringen.

ANGETRIEBEN VON DATEN

Datenzugriff auf den Kopf gestellt

Heutzutage sind Ihre Daten in Systemen eingesperrt, die nicht miteinander kommunizieren. Was Sie benötigen, ist eine „Single Source of Truth“ über Ihr Unternehmen in Echtzeit, welche die Endpunkte Ihrer Organisation erreicht: ein Zentralnervensystem, das es Ihnen ermöglicht, bereits bei Eintritt der Vorgänge zu reagieren und damit unzugängliche Systeme auf den Kopf zu stellen.

Mehr erfahren >
Seien Sie für die Zukunft gerüstet

RELENTLESSLY RELIABLE

Seien Sie für die Zukunft gerüstet

Was bringt Schnelligkeit ohne Zuverlässigkeit? Die Confluent-Plattform fügt Ihrer Kafka-Umgebung Verwaltungs-, Datenmanagement- und Betriebstools sowie robuste Tests hinzu. Ihre Kafka-Umgebung kann sogar in der Cloud gehostet werden - von den ursprünglichen Entwicklern von Apache Kafka®.

Mehr erfahren >

NIEDRIGE LATENZ

Unterstützt Billionen von Nachrichten

Ob aus Kosten- oder Leistungsgründen: Eine Architektur, die auf einer höchst skalierbaren, weit verbreiteten Streaming-Plattform wie Confluent basiert, wächst rasch mit Ihrem Unternehmen und den expandierenden Daten-Pipelines, die diese mit sich bringt, wodurch sowohl Leistung als auch Kosteneinsparungen beschleunigt werden.

Mehr erfahren >
Die Streaming-Plattform

SPEICHERN, VERARBEITEN, VERÖFFENTLICHEN UND ABONNIEREN

Die Streaming-Plattform

Eine Streaming-Plattform kombiniert die Stärke der Datendistribution eines Publish-Subscribe-Modells mit einer Speicherebene und einer Verarbeitungsebene. Dadurch wird das Erstellen von Daten-Pipelines und deren Verbindung mit all unseren Systemen erheblich vereinfacht.

Erfahren Sie mehr über Confluent Platform >
Die Plattform für Echtzeit-Streaming-Anwendungen und -Pipelines

Für Entwickler entwickelt

Die Plattform für Echtzeit-Streaming-Anwendungen und -Pipelines

Moderne Anwendungen sind auf Echtzeitdaten angewiesen, um Erlebnisse zu personalisieren, betrügerisches Verhalten zu erkennen oder Dashboards zu liefern. Aus Verbrauchersicht ist dies großartig, aus Entwicklersicht revolutionär. Eine Streaming-Plattform bietet eine einzige, massiv skalierbare Lösung zur Entwicklung von Echtzeit-Anwendungen und Lieferung von Daten dort, wo Sie diese benötigen - zuverlässig und in Echtzeit.

Legen Sie los mit Confluent >
                      #It’s easy to get up and running with all things Confluent 
#once you’ve downloaded and setup the Confluent CLI
$confluent start
starting zookeeper
zookeeper is [UP]
starting kafka
kafka is [UP]
starting schema-registry
schema-registry is [UP]





                    

LEISTUNGSSTARK UND EINFACH IN DER NUTZUNG

Eine einzige Lösung für das Streaming

Confluent und Apache Kafka® vereinfachen die Arbeit mit kontinuierlichen Datenströmen. Confluent bietet eine besser verpackte Distribution von Kafka und liefert zudem Open-Source-Entwickler-Tools, damit Sie schnell starten können.

  • Java
  • C+/C++
  • Python
  • Go
  • REST Proxy
Legen Sie los mit Confluent >
                      #Sie können Kafkas Streams-API oder KSQL nutzen, um 
#unseren Stream einfach und ohne zusätzliche Cluster zu verarbeiten und somit ein paar leistungsstarke 
#Dinge zu tun - wie z. B. die Top-5-Chart-Songs abzuspielen. Wir starten, indem wir
#an einem Stream von Songs teilnehmen, die mit einer ID(playEvents) wiedergegeben werden, 
#und bereichern dies mit songTable (Song-Tabelle), um deren Namen herauszufinden

final KStreamsongPlays =
 playEvents.leftJoin(songTable,(value1,song) -> song, 
Serdes.Long(), playEventSerde);

#Als Nächstes erstellen wir einen Status-Store 'songPlayCounts', um die Song-Wiedergabeanzahl nachzuverfolgen

final KTablesongPlayCounts =
songPlays.groupBy((songId, song) -> song, keySongSerde, 
valueSongSerde) .count(SONG_PLAY_COUNT_STORE);

final TopFiveSerde topFiveSerde = new TopFiveSerde();

 #Zu guter Letzt berechnen wir die Top-Five-Charts für jedes Genre. 
#Die Ergebnisse dieser Berechnung werden kontinuierlich aktualisiert
# der Status, den wir dann abfragen können​ songPlayCounts.groupBy((song, plays) -> KeyValue.pair(song.getGenre().toLowerCase(), new SongPlayCount(song.getId(), plays)),Serdes.String(), songPlayCountSerde)

WO STREAM AUF TABELLE TRIFFT

Datenstromverarbeitung, einfach gemacht

Ihre Daten befinden sich selten in genau der Form, in der Sie diese haben möchten. Daher aggregieren, filtern und verbinden wir diese mit derart penibler Sorgfalt. In einer Echtzeit-Umgebung werden diese Aktionen kontinuierlich mit einer Streaming-Engine wie KSQL oder Kafkas Streams-API durchgeführt. Die Confluent-Plattform bietet Ihnen eine End-to-End-Lösung, welche die Komplexität minimiert: Sie können Ihre Anwendung erstellen, nach eigenem Geschmack einsetzen und damit beginnen, den Wert Ihrer Daten mit einer Latenz von Millisekunden, starken Garantien und einer erwiesenen Zuverlässigkeit zu erfassen.

  • Java
  • KSQL
Legen Sie mit der Stream-Verarbeitung los >
                      #Kafkas Connect-API vereinfacht das Verwalten von Sources und Sinks -
#dieses elasticsearch-sink zum Beispiel ist einfach vorzubereiten
#freundliche Config-Datei
#Benutzerdefinierter Connector-Instance-Name. Name = elasticsearch-sink Die Klasse, die den Connector implementiert connector.class =
io.confluent.connect.elasticsearch.ElasticsearchSinkConnector #Maximale Anzahl an Aufgaben, die für diese Connector-Instance laufen sollen tasks.max =1 topics = test-elasticsearch-sink key.ignore = true connection.url = http://localhost:9200 type.name = kafka-connect #Sobald wir dann bereit sind, können wir den Elasticsearch-Connector
# in einer Zeile laufen lassen $confluent load elasticsearch

Alles miteinander verbinden

Daten dort, wo Sie sie brauchen

Ob Suchindex, Caching-Layer oder Training eines Algorithmus des maschinellen Lernens: Confluent gestaltet den Aufbau von Daten-Pipelines in Echtzeit einfach, damit Sie Daten dort erhalten, wo Sie diese zuverlässig benötigen. Die Confluent-Plattform beinhaltet vorkonfigurierte, zertifizierte Kafka-Connectors für beliebte Datenspeicher- und -systeme.

  • Amazon S3
  • Elasticsearch
  • HDFS
  • MySQL
  • +Mehr
Legen Sie los mit der Datenintegration >

Real-Time in the Real World with Confluent Customers

View All Customer Stories

WIR KÖNNEN ES KAUM ERWARTEN, ZU SEHEN, WAS SIE STREAMEN

Wir verwenden Cookies, damit wir nachvollziehen können, wie Sie unsere Website verwenden, und um Ihr Erlebnis zu optimieren. Klicken Sie hier, wenn Sie mehr erfahren oder Ihre Cookie-Einstellungen ändern möchten. Wenn Sie weiter auf dieser Website surfen, stimmen Sie unserer Nutzung von Cookies zu.