Stratégie commerciale pour la nouvelle frontière des soins de santé

Stratégie commerciale pour la nouvelle frontière des soins de santé


Une séance de questions-réponses avec John Pastor, directeur des technologies commerciales chez Pfizer

Note de l’éditeur : John a récemment fait une présentation lors d’un Snowflake séminaire en ligne. Vous trouverez ci-dessous les points saillants de la conversation (édités ici pour le format blog).

Pfizer est une multinationale pharmaceutique et biotechnologique américaine basée à New York.

Modérateur : Ces dernières années ont été incroyables pour Pfizer. Pourquoi ne pas commencer par nous donner une idée rapide de la situation de Pfizer en ce qui concerne les stratégies de données pour ces temps complexes ? De toute évidence, le vaccin Pfizer a été un succès incroyable.

Pasteur: Merci d’avoir mentionné notre succès. C’était génial. Ce fut une période incroyable de travailler chez Pfizer en sachant à quel point nous avons pris des risques, et il y a beaucoup de fierté dans notre entreprise en ce moment. C’est super d’y avoir joué un tout petit rôle. Nous avions vraiment un état d’esprit très patient avant même la pandémie, donc c’est encore plus solide maintenant. Et notre stratégie de données et les diverses initiatives sur lesquelles mon équipe travaille, comme toujours, soutiennent vraiment la direction de haut niveau de l’entreprise.

Et c’est que Pfizer essaie vraiment d’être un partenaire de confiance et un endroit où aller pour obtenir les meilleures informations. Alors, comment faisons-nous cela ou comment envisageons-nous cela? C’est encore un modèle hybride. Le face à face reste très important et le sera probablement toujours. Mais l’engagement omnicanal et à distance continue de jouer un rôle plus important. Nous voulons être comme Amazon pour l’industrie pharmaceutique, ce qui est difficile dans une industrie réglementée, donc c’est toute une ambition, mais nous y arriverons. Et pour y arriver, nous nous demandons de quoi nos analystes ont besoin et comment utilisons-nous les données et l’analyse pour nous améliorer ? Nos systèmes commerciaux ont toujours eu une intelligence intégrée, du moins depuis cinq ou six ans environ. Nous essayons de les rendre plus intelligents avec les résultats de l’IA et du ML, en tirant vraiment parti de la communauté des analystes.

Q : Quel type d’avantages avez-vous constaté depuis la mise en place de Snowflake ?

Pasteur: Nous fonctionnons de manière plus rentable et avec de meilleures performances. Et nous sommes sortis de l’entreprise de gestion des données, passant moins de temps à les arrondir et plus de temps à les analyser. Un domaine particulièrement intéressant concerne les workflows de données analytiques et le partage de données. Avec nos analystes qui écrivent SQL ou utilisent des applications qui poussent SQL, nous leur demandons de prendre leurs workflows de données et de les exécuter sur Snowflake, afin que nous puissions vraiment tirer parti de la puissance d’analyse et de traitement de Snowflake. Et leurs pipelines fonctionnent plus rapidement et de manière plus cohérente. Ainsi, non seulement nous gagnons du temps, mais si quelque chose a pris 20 minutes pour s’exécuter aujourd’hui, nous pouvons être sûrs qu’il faudra 20 minutes pour s’exécuter demain. Certaines de nos plateformes open source, nous avons vu des tâches qui s’exécutent pendant 12 heures prendre 20 minutes, voire cinq minutes, sur Snowflake ! Un énorme avantage ici, car si un analyste peut exécuter 20 itérations dans le temps qu’il en dépensait auparavant pour 10, il gagne un temps de réflexion important. Et nous commençons à tester Snowpark et nous avons hâte de le faire.

Q : Pouvez-vous nous en dire un peu plus sur Snowpark pour ceux qui ne le savent pas ?

Pasteur: Oui, Snowpark est une capacité qui vous permet d’exécuter différents types de charges de travail de science des données, que ce soit Java ou Python, etc., directement dans Snowflake. Vous n’avez donc pas besoin de convertir nécessairement l’une de vos routines en appels SQL car, encore une fois, cela revient à cette philosophie de base dont nous avons parlé, à savoir que vous ne devriez pas avoir à apporter vos données à un autre utilitaire pour exécuter votre code. vos transformations, mais plutôt être capable d’apporter votre code aux données là où il vit. (Remarque : Snowpark pour Python est actuellement en préversion.)

Q : Pouvez-vous nous parler de votre stratégie commerciale en matière de partage de données ?

Pasteur: Le domaine de la chaîne d’approvisionnement est celui qui offre d’énormes avantages, évidemment d’un bout à l’autre de la chaîne d’approvisionnement. En règle générale, cela se fait gratuitement, donc je ne me demande pas si cela devrait, pourrait être monétisé, bien qu’il y ait ces conversations. Si vous partagez des éléments tels que vos positions d’inventaire, vos retraits d’entrepôt, votre consommation dans une pharmacie, il y a beaucoup d’avantages à partager tout cela avec votre fabricant. Vous obtenez des informations avancées sur les fluctuations de la demande. Maintenant, nous avons tous vécu, en tant que consommateurs en tout cas, pendant un an et demi d’étagères vides, de pénuries, d’inflation et de ne pas toujours pouvoir obtenir ce que nous voulons. Il est donc clair qu’il y a une tonne d’avantages mutuels à collaborer en amont et en aval de la chaîne d’approvisionnement. Et il est clair que plus nous pouvons partager et collaborer sur des données, plus nous deviendrons intelligents pour amener le produit là où il doit être quand les gens en ont besoin.

Q : Pouvez-vous parler des façons dont Pfizer collabore aujourd’hui, que ce soit avec les distributeurs, la communauté des payeurs, les autorités réglementaires, et les façons dont Snowflake contribue à cette collaboration ?

Pasteur: Nous collaborons aujourd’hui ou nous ne pourrions pas gérer notre entreprise. Lorsque nous pensons à la collaboration de données, nous pensons aux autres organisations de soins de santé avec lesquelles nous échangeons des données, telles que les partenaires de données syndiqués, les partenaires co-promoteurs, les agences de réglementation et même certaines des sources de données les plus ouvertes. Il est facile de penser à la vieille école et de dire, hé, nous devons aller chercher ces données et les déplacer dans notre environnement. Mais nous traversons un grand changement d’esprit ici; nous réalisons maintenant que la quantité d’énergie et le coût du déplacement des données (sur site) sont élevés pour une activité à faible valeur ajoutée. Nous sommes impatients de consacrer davantage d’efforts à l’analyse des données là où elles se trouvent. Je n’ai pas besoin de déplacer des téraoctets de données dans mon entrepôt. Je peux l’utiliser là où se trouvent ces données en tirant parti de mon partenaire. Nous obtenons l’accès aux données et configurons ces partages de données entre les domaines chez Pfizer et avec nos partenaires, qu’il s’agisse d’un partenaire syndiqué ou d’un co-promoteur. Nous avons maintenant ces conversations tout le temps.

Q : Quelles sortes de nouvelles données sont réellement mises à disposition par tous ces différents canaux ? Et quelle est la stratégie de gestion de ces données aujourd’hui ?

Pasteur: Nous avons aujourd’hui la capacité de tout collecter. Nous ne devrions pas jeter des données à moins qu’elles ne soient vraiment totalement inutiles. Nous adoptons donc l’approche de type lac de données, l’approche de l’entrepôt de données, où nous les collectons, que nous sachions encore quoi en faire ou non. L’autre élément est que nous nous concentrons vraiment ces deux dernières années sur des approches globales, en particulier autour des données omnicanales. Ainsi, lorsque nous recueillons et publions des données, nous essayons de penser à l’échelle mondiale. Le plus gros projet est notre référentiel mondial d’interactions, qui est un modèle de base qui stocke toutes nos interactions numériques, y compris la base de représentants (commerciaux). Nous constatons donc que nos analystes peuvent utiliser ces données à l’échelle mondiale en utilisant les mêmes flux de travail analytiques, en utilisant les mêmes techniques, et ils ne réinventent pas la roue pour chaque marché dans chaque région. C’est donc un gros coup de pouce pour nous et nous commençons à y voir de la valeur.

Q : Comment gérez-vous la résidence des données et les exigences de localisation des données et équilibrez-vous cela avec le fait que vous avez des consommateurs qui ont besoin d’y accéder de manière pratique, sécurisée et conforme ?

Pasteur: Évidemment, nous savons ce que nous pouvons transmettre des données et les placer à différents endroits. Souvent, c’est juste pour l’emplacement, juste pour rendre les choses un peu plus rapides pour l’analyste de données, en fonction de l’endroit où il travaille et de ce qu’il fait. Notre stratégie de données consiste à examiner à quoi ressemblera notre environnement Snowflake, à quoi ressembleront nos données d’entreprise, et nous abordons tout cela en sachant que nous voulons placer les données à différents endroits et les sécuriser sous un modèle de sécurité large.

Q : Pfizer est une grande organisation, mais avez-vous des conseils pour une organisation clinique plus petite quant à l’endroit où elle devrait commencer à exploiter les données pour trouver des gains rapides afin d’augmenter les champions en interne ?

Pasteur: Tout d’abord, je regarderais ce qu’il y a dans Snowflake Marketplace et lancerais un très petit entrepôt virtuel et le testerais. Et les petites entreprises devraient envisager de s’associer à une grande entreprise. Demandez aux grandes entreprises avec lesquelles vous travaillez quelles sont leurs capacités Snowflake. Vous pourrez peut-être envoyer vos données à Pfizer, peut-être y aura-t-il une opportunité de collaboration.

Commentaire du modérateur :

Je pense que cela vaut la peine d’être développé. Ce que vous évoquez, John, c’est que même si vous n’êtes pas un client de Snowflake, mais que vous vous associez à quelqu’un qui l’est, vous avez la possibilité de créer ce qu’on appelle un compte de lecteur dans le contexte du partage de données. Donc, si vous vouliez vous associer à un client Snowflake existant et que nous voulions partager des données, vous pouvez créer un compte lecteur (sans frais d’installation ou d’utilisation) où vous pouvez isoler les ressources de calcul que vous devez utiliser, même configurer la rétrofacturation. des modèles. De cette façon, vous pouvez tremper lentement votre orteil dans l’eau et avoir un avant-goût de travailler avec Snowflake et de ce que pourrait être la collaboration avec un partenaire.

Pour voir le webinaire, cliquez sur ici.

Webinaire à la demande

Construire une stratégie de données commerciales pour la nouvelle frontière des soins de santé

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.