Autonomiser les entreprises axées sur les données via une livraison évolutive

Autonomiser les entreprises axées sur les données via une livraison évolutive


L’accessibilité des données a changé la façon dont les entreprises sont gérées. Les données sont devenues essentielles pour les décideurs à tous les niveaux, et l’accès aux données pertinentes est désormais une priorité absolue au sein de nombreuses organisations. Ce changement a créé d’énormes exigences pour ceux qui gèrent les données elles-mêmes. Les infrastructures de données ne peuvent souvent pas répondre aux demandes du grand nombre d’utilisateurs professionnels, et le résultat est souvent une frustration généralisée.

Le concept d’un entrepôt de données d’entreprise offre un cadre pour fournir une vue nettoyée et organisée de toutes les données commerciales critiques au sein d’une organisation. Cependant, ce concept nécessite un mécanisme pour distribuer efficacement les données à une grande variété de publics. Les dirigeants ont le plus souvent besoin d’une version très résumée des données pour une consommation rapide. Les analystes veulent avoir la possibilité de « découper en tranches » les données pour trouver des informations intéressantes. Les responsables ont besoin d’une vue filtrée qui leur permet de suivre les données de leur équipe dans le contexte de l’organisation dans son ensemble. Les stratèges et les économistes ont besoin de données hautement spécialisées dont la génération peut nécessiter des algorithmes et des outils très complexes. Si un système doit fournir les données à tous ces publics, ainsi qu’à de nombreux autres, il doit être capable de s’adapter pour fournir un accès à tous.

Traditionnel Architecture d’entrepôt de données n’a pas été en mesure de répondre adéquatement à cette demande de données. De nombreuses organisations ont été contraintes de passer à des architectures hybrides en réponse. Les outils OLAP et les datamarts sont devenus monnaie courante en tant que mécanismes de distribution de données aux utilisateurs professionnels. Les statisticiens et, plus tard, les scientifiques des données devaient souvent créer et maintenir des systèmes entièrement séparés pour gérer les volumes de données et les charges de travail qui submergeraient l’entrepôt de données. Les données sont copiées à plusieurs reprises dans une variété de systèmes et de formats afin de les rendre accessibles à un public plus large. Un vice-président d’une grande entreprise de vente au détail a ouvertement qualifié son entrepôt de données de pompe à données entièrement consommée par le chargement de données d’un côté et la copie de ces données vers toutes sortes de systèmes de l’autre côté. Cela entraîne également des difficultés à garantir une vision unique des données au sein de l’organisation et à synchroniser toutes les données cloisonnées.
data_to_analystes

Au cours de mes années de travail dans un rôle d’intelligence d’affaires pour un certain nombre des plus grandes organisations au monde, j’ai rencontré tous ces problèmes. Tout en soutenant l’équipe d’achat mobile d’un grand détaillant en ligne, j’avais accès à une grande variété d’outils puissants pour fournir des données à mes collègues qui s’appuyaient sur ces données pour prendre des décisions clés concernant l’entreprise. Cependant, coordonner tous ces systèmes afin qu’ils produisent des résultats cohérents à tous les niveaux était un énorme casse-tête. De plus, de nombreuses ressources étaient partagées avec d’autres équipes internes, ce qui signifiait que nous étions régulièrement en concurrence pour l’accès à un pool limité de ressources. Il y a eu un certain nombre de situations où je n’ai pas pu obtenir les données demandées par mon vice-président en temps opportun parce que d’autres équipes avaient consommé toutes les ressources disponibles dans l’environnement de l’entrepôt.
Les architectes derrière Snowflake n’étaient que trop familiers avec ces problèmes, et ils sont arrivés à la conclusion que la situation exigeait une architecture entièrement nouvelle. L’essor du cloud computing a fourni les matières premières : un vaste stockage évolutif complètement abstrait de l’idée de matériel de serveur ou de baies de stockage et de calcul élastique. Plus important encore, ce stockage est auto-réplicatif, créant ainsi automatiquement des copies supplémentaires des éléments stockés s’ils deviennent « chauds ». Ce nouveau stockage, associé à la possibilité d’exploiter une puissance de calcul presque illimitée, est au cœur de l’architecture de données partagées multicluster qui est au cœur de l’Elastic Data Warehouse de Snowflake.

data_warehouse (2)

Chez Snowflake, les données sont stockées une seule fois, mais peuvent être consultées par autant de moteurs de calcul différents que nécessaire pour fournir des réponses à n’importe quel nombre de requêtes. Les travailleurs des données n’ont plus besoin de se concentrer sur la création de frameworks pour gérer les problèmes de simultanéité. Ils peuvent conserver toutes leurs données dans un seul système et fournir un accès sans avoir à se soucier de l’impact que différents groupes d’utilisateurs pourraient avoir les uns sur les autres. L’accent peut alors être placé là où il appartient, sur la valorisation des données elles-mêmes. Ainsi, vous pouvez charger des données et en même temps faire en sorte que plusieurs groupes, chacun avec leurs propres ressources informatiques, interrogent les données. Plus besoin d’attendre que d’autres groupes libèrent des ressources. Votre entreprise peut désormais fournir des analyses aux différents utilisateurs : cadres, analystes, scientifiques des données et responsables, sans que l’environnement n’entrave les performances.

Comme toujours, gardez un œil sur nos flux Twitter liés à Snowflake (@SnowflakeDB et (@ToddBeauchene) pour des mises à jour continues sur toutes les actions et activités ici à Snowflake Computing.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.