Snowflake lance le connecteur Kafka – Snowflake Blog

Snowflake lance le connecteur Kafka – Snowflake Blog

Pour récolter la valeur des données, vous devez les collecter, les stocker et les analyser. Apache Kafka est le système de choix pour la collecte, la transmission et la livraison fiables des données d’événement. flocon de neige, le plate-forme de données conçu pour le cloud, est le premier système de stockage et d’analyse de ces données.

Dans un pipeline de données moderne, Snowflake et Kafka sont un complément naturel.

En collaboration avec Confluent, nous avons rendu cette association encore plus facile grâce à la disponibilité générale du Connecteur flocon de neige pour Kafkace qui simplifie la configuration d’un cluster Kafka Connect pour fournir des événements JSON et Avro dans une table Snowflake.

Une fois les événements dans Snowflake, vous pouvez utiliser des outils tels que Snowflake’s vues matérialisées et pipeline de données fonctionnalités pour traiter davantage vos données, les intégrer à d’autres données commerciales et les affiner pour les utiliser dans vos analyses.

Commencer

Le connecteur Kafka est disponible sur le Référentiel Maven et peut être installé sur un cluster Kafka Connect. Des instances du connecteur peuvent être créées via une simple configuration JSON ou le Confluent Control Center. Une fois configuré pour un ensemble de rubriques, le connecteur crée et gère des étapes, des canaux et des fichiers en votre nom pour ingérer de manière fiable des messages dans Snowflake.

Il n’y a pas de frais directs pour l’utilisation du connecteur, qui est open source et disponible gratuitement sous licence Apache 2.0. Le connecteur utilise des tables, des étapes, des fichiers et des canaux, qui sont tous facturés aux tarifs normaux.

Pour plus de détails, reportez-vous au Snowflake pour la documentation du connecteur Kafka.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.