Accueil l'audio Intégrez l'analytique partout: permettre au scientifique des données citoyennes

Intégrez l'analytique partout: permettre au scientifique des données citoyennes

Anonim

Par Techopedia Staff, 25 août 2016

À retenir : l' animatrice Rebecca Jozwiak discute du phénomène de l'analyse intégrée et des scientifiques des données citoyennes avec le Dr Robin Bloor, Dez Blanchfield et David Sweenor.

Vous devez vous inscrire à cet événement pour voir la vidéo. Inscrivez-vous pour voir la vidéo.

Rebecca Jozwiak: Mesdames et messieurs, bonjour et bienvenue à Hot Technologies. «Embarquez partout: Activer le citoyen Data Scientist» est notre sujet aujourd'hui. Je remplace votre hôte habituel, voici Rebecca Jozwiak remplaçant Eric Kavanagh. Oui, cette année est chaude. En particulier, le terme «data scientist» a suscité beaucoup d'attention, même si nous les appelions des noms ennuyeux comme «statisticien» ou «expert en analyse», abordant à peu près le même type d'activités, mais il a un nouveau nom sexy et c'est recueillant beaucoup d'attention. Ils sont hautement souhaitables à avoir sur le lieu de travail, bénéfiques pour l'organisation, et tout le monde en veut un. Mais ils sont: 1) chers, 2) difficiles à trouver. Vous savez, il y a eu partout des nouvelles sur la pénurie de compétences en data scientist, oui, mais elles offrent toujours une valeur énorme à l'organisation et les gens réclament en quelque sorte comment trouver cette valeur sans avoir à perdre le centime, donc pour parler.

Mais la bonne nouvelle est que nous voyons sortir des outils et des logiciels qui compensent en quelque sorte cette pénurie. Nous avons l'automatisation, l'apprentissage automatique, l'analytique intégrée, c'est ce que nous allons apprendre aujourd'hui, et c'est en quelque sorte ce qui a donné naissance à ce nouveau terme, «le citoyen des données scientifiques», et qu'est-ce que cela signifie? Non, ce n'est pas votre scientifique des données qualifié, ce pourrait être votre utilisateur professionnel, votre expert en BI, quelqu'un de l'informatique, quelqu'un qui a les antécédents mais peut-être pas nécessairement l'expertise. Mais ce qu'il fait, ces outils et ces logiciels, c'est qu'il permet à plus de gens d'accéder à ces solutions intelligentes même s'ils ne connaissent pas le codage approfondi. Mais cela aide simplement à améliorer les performances globales lorsque vous donnez à chacun un peu plus accès à cette pensée analytique. Vous n'avez pas nécessairement besoin de la formation pour avoir le type de curiosité qui peut conduire à de bonnes perspectives pour votre entreprise.

Nous discutons avec nous aujourd'hui de notre propre Robin Bloor, analyste en chef du Bloor Group, l'un des scientifiques des données insaisissables lui-même, Dez Blanchfield appelant, puis David Sweenor de Dell Statistica nous fera une présentation aujourd'hui. Et avec ça, je vais céder la parole à Robin Bloor.

Robin Boor: D'accord, merci pour cette introduction. J'ai en quelque sorte pensé à cela dans un contexte historique. Ce que nous regardons en fait ici est l'une des conceptions de Léonard de Vinci pour une sorte de planeur qu'un homme pourrait mettre sur son dos. Je n'ai aucune idée si cela fonctionnerait réellement. Je ne voudrais pas m'y mettre, je dois dire. Cependant, da Vinci, chaque fois que je pense à da Vinci, je le considère comme l'une des personnes les plus curieuses et les plus analytiques qui ait jamais existé. Et il est assez clair si vous regardez simplement ce planeur qu'il est conçu sur la base d'une aile d'oiseau et qu'il a d'une manière ou d'une autre étudié les vols d'oiseaux afin de le construire.

Si nous prenons la perspective historique - j'ai en fait cherché cela -, l'analyse est peut-être la plus ancienne application des mathématiques. Il existe des recensements qui remontent au moins à l'époque babylonienne. Nous le savons, car il existe essentiellement des comprimés cunéiformes qui contiennent des données de ce genre. On ne sait pas s'il y a eu quelque chose qui est retourné plus tôt. Mais la chose évidente est que vous avez une civilisation avec une grande population, cela nécessite en fait une planification et cela vaut la peine de savoir ce que vous prévoyez et quelles sont les exigences de ces personnes.

Et c'est un peu là où cela a commencé et c'est aussi là que l'informatique a commencé parce que les premiers ordinateurs, les premiers ordinateurs mécaniques, étaient en fait, je pense que le premier était le recensement créé par Hollerith, qui est devenu IBM, je crois. Tout cela a progressé. Il y a eu une sorte d'intermède entre peut-être les années 1970 et aujourd'hui, où il y a un grand nombre d'autres applications et analyses, vous pourriez dire, ont pris un siège arrière. Oui, il y avait des analyses en cours - cela se produisait dans de grandes organisations, en particulier les banques et les compagnies d'assurance, et en fait General Electric et les télécommunications et des choses comme ça - mais ce n'était généralement pas utilisé dans toutes les affaires et maintenant ça commence à être utilisé partout affaires. Et ça a vraiment changé le jeu. La première chose que j'ai pensé attirer l'attention est la pyramide de données, que j'aime particulièrement. C'est, je veux dire, j'ai dessiné l'un de ces 20 ans - il y a au moins 20 ans - pour essayer de comprendre, vraiment, à l'époque, j'essayais de comprendre la BI et certaines des premières fouilles de données qui étaient en cours. Ce que j'ai défini ici, c'est l'idée de données et les exemples sont des signaux, des mesures, des enregistrements, des événements, des transactions, des calculs, des agrégations, des points d'information individuels. Vous pouvez les considérer comme des molécules d'informations, mais ce sont des points individuels. Il devient information dès qu'il est mis en contexte. Les données liées, les données structurées, les bases de données, la visualisation des données, les traceurs, les intrigants et les ontologies - elles sont toutes considérées dans mon esprit comme des informations parce que ce que vous avez fait est d'agréger beaucoup de variété ensemble et de créer quelque chose de bien plus qu'un point de données, quelque chose qui a une forme, une forme mathématique.

Au-dessus, nous avons des connaissances. Nous pouvons, en examinant les informations, nous pouvons apprendre qu'il existe différents modèles et nous pouvons tirer parti de ces modèles en formulant des règles, des politiques, des directives, des procédures, puis cela prend la forme de connaissances. Et à peu près tous les programmes informatiques, quoi qu'ils fassent, sont une sorte de connaissance, car ils travaillent contre les données et leur appliquent des règles. Nous avons ces trois couches et il y a un raffinement croissant qui se produit entre les couches. Et sur le côté gauche de ce diagramme, vous voyez de nouvelles données entrer, donc beaucoup de ces choses sont statiques. Les données s'accumulent, les informations s'accumulent et les connaissances sont potentiellement en croissance. Au sommet, nous avons la «compréhension» et je maintiens, bien qu'il s'agisse d'un argument philosophique, que la compréhension ne réside que dans les êtres humains. Si je me trompe, nous serons tous remplacés par des ordinateurs à un moment donné. Mais plutôt que d'avoir le débat, je passe à la diapositive suivante.

Quand j'ai regardé ça, la chose intéressante, c'est quelque chose de récent, la chose intéressante était d'essayer de comprendre ce qu'était réellement l'analyse. Et finalement, en dessinant divers diagrammes et en me retrouvant avec un qui ressemblait à ceci, je suis arrivé à la conclusion, en fait, le développement analytique est vraiment juste un développement logiciel avec une quantité énorme de formules mathématiques. L'exploration analytique est un peu différente du développement de logiciels dans le sens où vous prendriez en fait de très nombreux modèles différents et les étudieriez afin de générer de nouvelles connaissances sur les données. Mais une fois que vous l'avez généré, il est mis en œuvre soit dans ce que je considère comme une aide à la décision passive, qui est une information qui vient d'être transmise à un utilisateur; aide à la décision interactive, qui est des choses comme OLAP, où l'utilisateur reçoit un ensemble structuré de données qu'il peut étudier et déduire pour lui-même en utilisant les différents outils disponibles. Beaucoup de visualisation est comme ça. Et puis nous avons l'automatisation si vous pouvez simplement transformer certaines informations analytiques que vous avez rassemblées en un ensemble de règles qui peuvent être mises en œuvre, vous n'avez pas nécessairement besoin d'un être humain pour être impliqué. C'est le genre de façon dont je l'ai regardé quand j'ai fait tout ça. Et diverses choses ont commencé à me venir à l'esprit. Une fois un domaine d'activité, dirons-nous, une fois qu'un domaine de données est réellement exploité, minutieusement exploité, exploré à fond dans toutes les directions possibles, il finit par devenir cristallisé BI. Les connaissances qui sont inventées commencent à devenir des connaissances qui informent divers utilisateurs de diverses manières et augmentent leur capacité, espérons-le, à réellement faire le travail qu'ils font.

L'une des choses que j'ai remarquées et que je regarde l'analyse prédictive depuis environ cinq ans, mais l'analyse prédictive est en train de devenir BI, dans le sens où elle se transforme simplement en informations utiles pour nourrir les gens et comme je l'ai déjà souligné, il y a des rapports BI automatisés, BI exploratifs, BI, des gradations très différentes et des analyses prédictives vont en fait dans les trois directions. Et le processus analytique, comme je l'ai souligné, n'est pas si différent du développement de logiciels, juste fait par différentes personnes avec des compétences légèrement différentes. Je suppose que je dois souligner que les compétences nécessaires pour faire un très bon scientifique des données prennent des années à acquérir. Ils ne sont pas faciles à acquérir et peu de gens peuvent le faire, mais c'est parce que cela implique de comprendre les mathématiques à un niveau très sophistiqué afin de savoir ce qui est valide et ce qui ne l'est pas. Développements analytiques, découverte de nouvelles connaissances, implantation d'analyses, il s'agit de rendre les connaissances opérationnelles. C'est le genre de toile de fond que je vois pour l'ensemble de l'analyse. C'est un domaine immense et il y a beaucoup, beaucoup de dimensions, mais je pense que la généralisation s'applique à tout.

Ensuite, il y a la perturbation des activités, comme je l'ai mentionné, il y a un certain nombre d'organisations, les sociétés pharmaceutiques en sont une autre, qui ont dans leur ADN des analyses. Mais il existe de nombreuses organisations qui ne l'ont vraiment pas dans leur ADN, et maintenant elles en ont la capacité, maintenant le logiciel et le matériel sont beaucoup moins chers qu'auparavant, maintenant ils ont la capacité de l'exploiter. Je dirais plusieurs choses. La première chose est que l'analyse est, dans de nombreux cas, de la R&D. Vous pouvez simplement appliquer des analyses à un domaine spécifique de l'organisation et il peut sembler banal que vous analysiez d'une manière ou d'une autre les commandes des clients sous différentes perspectives, en les associant à d'autres données. Mais l'analytique crée en fait la possibilité de regarder l'organisation dans son ensemble et d'analyser à peu près n'importe quelle activité particulière qui se déroule au sein de l'organisation et des chaînes d'activités. Mais une fois que vous aurez réellement pénétré dans ce domaine, je dirais que c'est de la recherche et du développement. Et il y a une question qui m'a été posée plusieurs fois, qui est: «Combien une entreprise devrait-elle dépenser pour l'analytique?» Et je pense que la meilleure façon de penser à fournir une réponse à cela est de penser l'analytique comme de la R&D, et demandez simplement: «Eh bien, combien dépenseriez-vous en R&D dans le domaine de l'efficacité de l'entreprise?»

Et les entreprises qui ne sont pas avec l'analytique, il y a beaucoup de choses qu'elles ne savent pas. Tout d'abord, ils ne savent pas comment le faire. Normalement, s'ils adoptent d'une manière ou d'une autre des analyses au sein de l'organisation - ils n'ont pratiquement pas d'autre choix que de consulter un consultant qui peut les aider à le faire, car cela serait impossible ou vraiment très difficile pour la plupart les entreprises à embaucher un scientifique des données, à en trouver un, à en payer un et à leur faire confiance pour faire ce que vous voulez qu’elles fassent. Très difficile. La plupart des entreprises ne savent pas comment embaucher ou éduquer du personnel pour effectuer ce travail, et la raison en est simplement que cela ne fait pas encore partie de leur ADN, donc cela ne fait pas partie de leurs processus commerciaux naturels. Cela alimente le point suivant. Ils ne savent pas comment en faire un processus opérationnel. Soit dit en passant, la meilleure façon de le faire est de copier ce que les sociétés pharmaceutiques et les compagnies d'assurance regardent, et certaines entreprises du centre de soins de santé regardent simplement comment elles utilisent les analyses et les copient. Parce que c'est un processus métier. Je ne sais pas comment le contrôler ou le vérifier. C'est vraiment, surtout maintenant que beaucoup de sociétés de logiciels ont créé des produits qui automatisent énormément d'analyses. Le point concernant l'audit est important, lorsque vous avez un consultant ou quelqu'un sur place auquel vous pouvez faire confiance pour comprendre les résultats de tout calcul analytique, c'est une sorte de choix que vous devez faire, mais si vous mettez des outils analytiques vraiment puissants dans entre les mains de personnes qui ne comprennent pas correctement l'analyse, elles sont susceptibles de tirer des conclusions qui pourraient ne pas être correctes. Et comme je l'ai dit, les entreprises ne savent pas comment le budgéter.

Ce sont des saveurs d'analyse, je vais les parcourir. L'analytique statistique et la modélisation statistique diffèrent considérablement de l'analyse prédictive, dont la plupart, soit dit en passant, est ajustée à la courbe. L'apprentissage automatique est différent de ces choses, l'analyse des chemins et les séries temporelles, qui sont essentiellement effectuées sur les flux d'état, sont à nouveau différentes. L'analyse graphique est à nouveau différente, et l'analyse de texte et l'analyse sémantique sont à nouveau différentes. Cela montre simplement que c'est une chose très multi-genre. Ce n'est pas le cas, vous ne commencez pas à faire des analyses, vous commencez à examiner les problèmes que vous rencontrez et à rechercher les différents outils et les différentes saveurs d'analytique qui leur conviendront. Et enfin, le net net. En raison de l'évolution du matériel et des logiciels, à mon avis, l'analyse en est à ses balbutiements. Il reste encore beaucoup à faire et nous verrons cela se dérouler dans les années à venir. Je pense que je peux passer le ballon à Dez maintenant.

Dez Blanchfield: Ouais, parle d'un acte difficile à suivre, Robin. Je vais aborder brièvement ce sujet sous l'un de mes angles préférés, qui est l'angle de l'humain. Il y a tellement de changements dans notre vie quotidienne. L'une des plus grandes perturbations dans notre vie quotidienne, à mon avis actuellement, est simplement le travail quotidien. Se présenter au travail et essayer de faire le travail pour lequel vous êtes embauché, et l'attente croissante que vous allez passer d'une personne ordinaire à un super-héros et la quantité d'informations qui circulent dans les organisations et émettent très, très rapidement, c'est un défi important et de plus en plus, nous devons fournir de meilleurs outils aux gens pour essayer de faire face à la circulation des connaissances et des informations et j'ai donc pensé que j'essaierais d'y arriver sous un angle amusant . Mais, je suis toujours frappé par la façon dont nous avons cet esprit élevé ou ces flash mobs et ainsi de suite, qui nous conduisent en quelque sorte vers ce dont nous parlons en tant qu'analytiques, mais ce dont nous parlons, c'est de mettre des informations à la disposition des gens, et leur permettant d'interagir avec lui et de le faire de manière à ce que ce soit naturel et que cela semble normal.

Et en fait, cela me rappelle une vidéo YouTube d'un jeune enfant, petit bébé, assis sur le sol et il est assis là à jouer avec un iPad et il s'agitait et pincait et pressait et déplaçait les images et jouait avec l'écran, les données là-bas. Et puis le parent emporte l'iPad et met un magazine, un magazine imprimé sur les genoux de l'enfant. Et cet enfant n'a probablement pas plus de deux ans. L'enfant commence à essayer de glisser avec l'écran du magazine, à pincer et à presser et le magazine ne répond pas. L'enfant lève son doigt et le regarde et pense, "Hmm, je ne pense pas que mon doigt fonctionne", et il se pique dans le bras et pense: "Ah non, mon doigt fonctionne, je peux sentir mon bras et que semble bon, "et il remue le doigt, et le doigt se tortille et répond. Oui. Ensuite, il essaie à nouveau d'interagir avec le magazine, et bas et voici, il ne pince pas, ne serre pas et ne fait pas défiler. Ensuite, ils emportent le magazine et remettent l'iPad sur ses genoux, et tout à coup la chose fonctionne. Et voici donc un bébé qui est venu et a été formé pour utiliser un outil d'analyse ou un outil de diffusion en direct pour le divertissement et il ne peut pas déterminer comment un magazine devrait fonctionner et comment retourner les pages.

Et c'est un concept intéressant en soi. Mais quand je pense à la circulation des connaissances dans les organisations, à la façon dont les données circulent et à la façon dont les gens se comportent, je pense souvent à ce concept de ce que les gens ont appris à être un flash mob, qui est un événement où, et quels médias sociaux font c'est encore plus facile à faire, une idée en tant que telle qui est d'aller à cet endroit à cette heure et date et action, ou vidéo et apprendre ces danses, ou porter ce chapeau coloré et pointer vers le nord à une heure. Et vous diffusez cela à travers votre réseau, et invariablement un tas de gens, des centaines d'entre eux, se retrouvent au même endroit en même temps font la même chose et il y a ce facteur wow, comme, "Sainte vache, c'était vraiment impressionnant! »Mais en réalité c'est une idée très simple, et un concept simple qui vient d'être diffusé à travers nos réseaux et nous obtenons ce résultat qui est une chose visuellement stupéfiante et audible impressionnante. Et quand vous pensez à une organisation, à la façon dont nous voulons que les gens se comportent et à la façon dont nous voulons qu'ils traitent avec les systèmes d'information et les clients, c'est souvent aussi simple, c'est une idée ou un concept ou un trait culturel ou comportemental que nous essayons de transmettre à travers et habiliter avec des outils et des informations.

Et sous-tendant tout cela, c'est ce mantra que j'ai depuis plus de deux décennies et demie: si votre personnel ne trouve pas ce dont il a besoin pour faire son travail, que ce soit des outils ou des informations, il réinventera invariablement la roue. Et c'est donc un défi de plus en plus présent, où nous avons beaucoup de connaissances et beaucoup d'informations et les choses bougent très rapidement, que nous voulons empêcher les gens de réinventer la roue. Et quand nous pensons à notre environnement de travail, revenant à l'angle des gens, qui est l'un de mes favoris, j'ai été étonné quand nous avons été surpris que les cabines n'étaient pas un environnement propice à de bons résultats, ou que nous ayons aligné des choses comme ça horribles images ici, et cela n'a pas beaucoup changé, juste abaissé les murs et les a appelés des espaces de travail ouverts. Mais au milieu avec la boucle jaune autour d'eux, il y a deux personnes qui échangent des connaissances. Et pourtant, si vous regardez le reste de la pièce, ils sont tous assis là, se cognant consciencieusement là-bas, mettant des informations sur un écran. Et le plus souvent, pas vraiment d'échanger des connaissances et des données, et il y a plusieurs raisons à cela. Mais l'interaction au milieu de l'étage à gauche là dans le cercle jaune, il y a deux personnes discutant là-bas, échangeant des connaissances, et essayant probablement de trouver quelque chose, essayant de dire: «Savez-vous où est ce rapport, où je peut trouver ces données, quel outil est-ce que j'utilise pour faire cette chose? »Et cela n'a probablement pas fonctionné alors ils n'ont rien, et ont erré sur le sol, ont enfreint la règle de l'espace de bureau de la cabine et l'ont fait en personne.

Et nous avons eu des environnements similaires au bureau où nous nous moquons en plaisantant, mais la réalité est qu'ils sont assez puissants et efficaces. Et l'un de mes favoris est la plate-forme d'analyse mobile ou fixe appelée le refroidisseur d'eau, où les gens se lèvent et bavardent et échangent des connaissances, comparent les idées et effectuent des analyses tout en se tenant au refroidisseur d'eau, échangeant des idées. Ce sont des concepts très puissants quand on y pense. Et si vous pouvez les traduire dans vos systèmes et outils, vous obtenez un résultat incroyable. Et nous avons le favori de tous les temps, qui est essentiellement le centre de distribution de données le plus puissant du bureau, autrement connu sous le nom de réception. Et si vous ne trouvez pas quelque chose, où allez-vous? Eh bien, vous vous dirigez vers le bureau et vous vous rendez à la réception et vous dites: «Savez-vous où se trouvent x, y, z?» Et j'ose dire à quelqu'un de me dire qu'il ne l'a pas fait au moins une fois dans un nouveau travail ou à un moment où ils ne peuvent tout simplement pas trouver quelque chose. Et vous devez vous demander, pourquoi est-ce le cas? Cela devrait être quelque part sur l'intranet ou un outil ou autre. Cela devrait être facile à trouver.

Et donc en ce qui concerne les données et l'analyse et les outils que nous avons fournis à notre personnel pour faire leur travail et la façon dont les humains interagissent avec les emplois, j'ai le point de vue qu'avant l'émergence récente d'outils d'analyse et de plateformes de Big Data, ou «traitement des données» aussi bien dans la vieille école, les rapports et le partage des connaissances étaient loin d'être dynamiques ou collaboratifs ou ouverts, et quand vous pensez au type de systèmes avec lesquels nous attendons des gens qu'ils fassent leur travail, nous avions du classique, ce que les gens appellent l'héritage maintenant, mais la réalité est que ce n'est que l'héritage qui existe et qui est toujours là aujourd'hui, et donc ce n'est pas vraiment un héritage. Mais les systèmes RH traditionnels et les systèmes ERP - gestion des ressources humaines, planification des ressources d'entreprise, gestion des données d'entreprise et systèmes que nous utilisons pour gérer les informations nécessaires à la gestion d'une entreprise. Il est invariablement cloisonné. Et du haut de gamme, des plates-formes simples comme les intranets départementaux, essayant de communiquer où se trouvent les choses et comment les obtenir et comment interagir avec les connaissances autour du lieu. Nous faisons apparaître cela sur notre intranet. C'est aussi bon que les gens qui font du temps et des efforts pour mettre ça là-haut, sinon ça reste dans la tête. Ou vous avez des données tout au long de la chaîne alimentaire, dans les réseaux de stockage d'entreprise et tout le reste, donc les réseaux de stockage sont remplis de fichiers et de données, mais qui sait où les trouver.

Plus souvent qu'autrement, nous avons construit ces plates-formes de données fermées ou systèmes fermés, et donc les gens sont revenus à des feuilles de calcul et des PowerPoints pour transmettre des informations autour de l'endroit. Mais il y a eu quelque chose d'intéressant qui s'est produit récemment, dans mon esprit, et c'est que les appareils mobiles et Internet en général fonctionnent de telle manière que les choses pourraient réellement être meilleures. Et principalement dans l'espace consommateur. Et c'est une chose intéressante que la vie quotidienne, nous avons commencé à avoir des choses comme les services bancaires par Internet. Nous n'avions pas besoin d'aller physiquement dans une banque pour interagir avec eux, nous pouvions le faire par téléphone. À l'origine, c'était maladroit, mais Internet a fait son apparition et nous avions un site Web. Vous savez, et combien de fois avez-vous visité votre banque récemment? En fait, je ne peux pas, j'ai eu une conversation à ce sujet l'autre jour, et je ne me souviens pas de la dernière fois que je suis allé à ma banque, ce qui m'a choqué, je pensais que je devais pouvoir m'en souvenir, mais c'était si long il y a en fait je ne me souviens pas quand je suis allé là-bas. Et donc nous avons maintenant ces gadgets en main sous la forme de téléphones mobiles et de téléphones, de tablettes et d'ordinateurs portables, nous avons des réseaux et un accès à des outils et des systèmes, et l'espace des consommateurs, nous avons appris que les choses peuvent être meilleures, mais parce que du changement rapide dans l'espace de consommation qui a été un changement plus léthargique et glacial au sein de l'entreprise et des environnements, nous n'avons pas toujours pris ce changement dans la vie professionnelle quotidienne.

Et j'adore me moquer du fait que vous ne pouvez pas diffuser de données en direct sur papier. Dans cette image ici, il y a une personne assise qui regarde certaines analyses qui ont été effectuées, et il y a un beau graphique qui a été produit par quelqu'un qui est probablement payé beaucoup d'argent en tant que statisticien ou actuaire, et ils sont assis là à essayer de faire l'analyse sur une copie papier et la pousser. Mais voici la chose effrayante pour moi: ces gens dans cette salle de réunion, par exemple, et je vais utiliser cela comme exemple, ils interagissent avec des données qui sont maintenant historiques. Et c'est aussi vieux que lorsque cette chose a été produite puis imprimée, alors c'est peut-être un rapport d'une semaine. Maintenant, ils prennent des décisions non pas tant sur les mauvaises données que sur les anciennes données, qui peuvent toujours être de mauvaises données. Ils prennent une décision aujourd'hui sur la base de quelque chose d'historique, ce qui est vraiment un mauvais endroit. Nous avons réussi à remplacer cette copie papier par des tablettes et des téléphones portables parce que nous avons travaillé très rapidement dans l'espace grand public, et maintenant nous l'avons travaillé dans l'espace entreprise, que le temps réel est un aperçu est une valeur en temps réel.

Et nous nous améliorons de mieux en mieux. Et cela m'amène au point que Robin a soulevé plus tôt, à savoir le concept du citoyen responsable des données et le moteur de ce concept. Pour moi, un data scientist citoyen n'est que des gens ordinaires avec les bons outils et des informations sur les goûts d'un iPad. Ils n'ont pas à faire le calcul, ils n'ont pas à connaître les algorithmes, ils n'ont pas à savoir comment appliquer les algorithmes et les données de règles, ils ont juste besoin de savoir comment utiliser l'interface. Et cela me ramène à mon introduction et au concept du tout-petit assis là avec un iPad contre un magazine, contre un iPad. Le tout-petit peut très rapidement et intuitivement apprendre à utiliser l'interface d'un iPad pour plonger dans les informations et interagir avec elles, même s'il s'agit d'un jeu ou d'un média en streaming ou d'une vidéo. Mais il ne pouvait pas obtenir la même réponse ou interaction d'une barre de magazine et simplement clignoter page après page, ce qui n'est pas très engageant, surtout si vous êtes un tout-petit qui a grandi avec des iPads. Invariablement, les êtres humains peuvent regarder et apprendre très rapidement comment conduire des outils et des choses que si nous les fournissons simplement, et si nous leur fournissons une interface comme les appareils mobiles et en particulier les tablettes et les smartphones avec des écrans suffisamment grands, et en particulier si vous pouvez interagir les toucher, avec des mouvements des doigts, tout à coup, vous obtenez ce concept d'un scientifique des données citoyen.

Quelqu'un qui peut appliquer la science des données avec les bons outils, mais sans vraiment savoir comment le faire. Et dans mon esprit, une grande partie de cela, comme je l'ai dit, était motivée par l'influence des consommateurs, qui s'est déplacée et s'est transformée en demande et en entreprise. Quelques exemples vraiment rapides. Nous, beaucoup d'entre nous commencerions à faire des choses avec nos blogs et sites Web, comme mettre de petites annonces ou regarder le suivi et les mouvements, nous avons utilisé des outils comme Google Analytics et nous avons été conscients du fait que dans nos blogs et petits sites Web, nous pourrions y mettre de petits morceaux de code et Google nous donnerait un aperçu en temps réel de qui visite le site Web, quand, où et comment. Et en temps réel, nous pouvions voir des gens visiter le site Web, parcourir les pages, puis disparaître. Et c'était assez étonnant. J'adore toujours faire ça, quand j'essaie d'expliquer des analyses en temps réel aux gens, je me contente de leur montrer un site Web avec Google Analytics branché, et de voir l'interaction en direct avec les gens qui visitent des sites Web et je leur demande: «Imaginez si vous disposiez de ce type d'informations sur votre entreprise en temps réel. »

Prenons un exemple de vente au détail, et peut-être un produit pharmaceutique, je pense que vous l'appelez une pharmacie en Amérique, une pharmacie où vous entrez et achetez tout, des comprimés pour les maux de tête à la crème solaire et aux chapeaux. Essayer de diriger cette organisation sans informations en temps réel est un concept effrayant maintenant que nous savons ce que nous savons. Par exemple, vous pouvez mesurer le trafic piétonnier, vous pouvez placer des appareils dans le magasin avec un visage souriant sur un côté de l'écran parce que vous êtes heureux et un rouge malheureux à l'extrême droite et des nuances différentes au milieu. Et il y a une plate-forme appelée "Happy or Not" ces jours-ci, où vous entrez dans un magasin et vous pouvez frapper un visage heureux ou un visage triste, en fonction de vos commentaires en direct sur le sentiment des clients. Et cela peut être interactif en temps réel. Vous pouvez obtenir des prix en fonction de la demande en direct. S'il y a beaucoup de monde, vous pouvez faire grimper un peu les prix, et vous pouvez faire la disponibilité des stocks et dire aux gens, par exemple - les compagnies aériennes, par exemple, diront aux gens combien de sièges sont disponibles maintenant sur le site Web lorsque vous 'vous réservez un vol, vous ne vous contentez pas de vous connecter au hasard et vous espérez pouvoir vous présenter et obtenir un vol. Les données HR en direct vous permettent de savoir quand les gens démarrent et s'arrêtent. Approvisionnement, si vous êtes dans l'approvisionnement et que vous avez des données en direct, vous pouvez faire des choses comme attendre une heure et vous protéger contre le prix du dollar américain pour acheter votre prochain chargement de stock et faire en sorte qu'un camion de choses arrive.

Quand je montre aux gens Google Analytics et que je relaie ce genre d'anecdote, ce moment eureka, ce moment "a-ha!", Cette ampoule se déclenche dans leur esprit comme, "Hmm, je peux voir beaucoup d'endroits où je pourrais le faire . Si seulement j'avais les outils et si seulement j'avais accès à ces connaissances. »Et nous le voyons maintenant dans les médias sociaux. Quiconque est un utilisateur averti des médias sociaux autre que de simplement montrer des photos de son petit-déjeuner, a tendance à regarder combien de likes ils obtiennent et combien de trafic ils obtiennent et combien d'amis ils obtiennent, et ils le font avec le aime, disons, Twitter comme outil d'analyse. Vous pouvez aller sur Twitter.com pour utiliser l'outil, mais vous tapez dans Google Twitter Analytics dot com, ou cliquez sur le bouton en haut à droite et déroulez le menu et faites-le, vous obtenez ces jolis graphiques en direct qui vous indiquent combien tweets que vous faites vous-même et combien d'interactions avec eux. Et des analyses en temps réel uniquement sur vos réseaux sociaux personnels. Imaginez si nous avions Google Analytics et Facebook et LinkedIn et Twitter, les statistiques eBay vous concernant, mais dans votre environnement de travail.

Maintenant que nous avons le Web en direct et le mobile à portée de main, il devient un concept de puissance. Et cela m'amène à ma conclusion, et c'est que j'ai toujours constaté que les organisations qui tirent parti des outils et de la technologie tôt, gagnent un avantage si important sur leurs concurrents que les concurrents ne rattraperont peut-être jamais. Et nous le voyons maintenant avec le conflit du data scientist. Si nous pouvons emmener des gens avec les compétences, les connaissances pour lesquelles nous les avons embauchés et nous pouvons leur donner les bons outils, en particulier la possibilité de voir les données en temps réel et de découvrir des données et de savoir où elles se trouvent sans avoir à se déplacer dans les cabines et posez des questions à voix haute, vous devez aller vous tenir au refroidisseur d'eau pour faire des analyses comparatives avec les gens ou aller demander à la réception où se trouve l'indice. S'ils peuvent le faire à portée de main et qu'ils peuvent l'emmener à leurs réunions avec eux et s'asseoir dans une salle de réunion en feuilletant les écrans en temps réel plutôt que sur papier, tout d'un coup, nous avons responsabilisé notre personnel qui n'a pas besoin d'être réel scientifiques des données, mais pour utiliser réellement la science des données et générer des résultats étonnants pour les organisations. Et je pense que ce point de basculement que nous avons franchi maintenant est celui où le consommateur est conduit dans l'entreprise, le défi est de savoir comment fournir cette entreprise, et c'est le thème, je suppose, de la discussion d'aujourd'hui. Et avec cela, je vais terminer ma pièce et remettre pour savoir comment nous pourrions résoudre cela. David, à vous.

David Sweenor: Très bien, merci beaucoup les gars et merci Robin. Vous savez, Robin, je suis d'accord avec votre évaluation initiale. Processus analytique, il n'est pas vraiment différent du développement logiciel. Je pense que le défi au sein d'une organisation est vraiment, vous savez, peut-être que les choses ne sont pas aussi bien définies, peut-être qu'il y a une composante exploratoire et une composante créative. Et Dez, vous savez, je suis d'accord avec vous, il y a beaucoup de réinventer la roue, et vous savez, il n'y a pas une organisation dans laquelle je vais aujourd'hui, vous vous demandez, eh bien, pourquoi faites-vous de cette façon? Pourquoi l'entreprise fonctionne-t-elle ainsi? Et il est facile de remettre en question, et souvent, lorsque vous êtes au sein d'une organisation, il est difficile de changer. J'aime l'analogie, la consumérisation des choses. Et donc plus quand je vais à l'aéroport et que je veux changer de siège - je le fais sur mon téléphone portable. Je n'ai pas à aller voir l'agent sur le stand et à le regarder saisir 15 secondes sur un moniteur monochrome pour modifier l'attribution de mon siège. Je préfère simplement le faire sur mon téléphone, et c'est donc un développement intéressant.

Aujourd'hui, nous allons parler un peu de l'intelligence collective. Pour ceux qui ne le savent pas, Statistica est une plate-forme d'analyse de pointe, qui existe depuis plus de 30 ans. Si vous regardez l'une des publications du secteur des analystes, elle apparaît toujours comme l'un des progiciels d'analyse avancés les plus intuitifs et les plus faciles à utiliser. Nous avons donc passé ces dernières années à travailler sur un concept appelé intelligence collective, et nous le portons au niveau supérieur. Je voulais commencer cette conversation par: comment le travail se fait-il dans votre organisation?

Et il y a deux images ici. Celui de gauche est une image des années 1960, et je n'ai pas commencé ma carrière dans les années 1960, mais l'image de droite est - c'est une usine de semi-conducteurs où j'ai commencé à travailler. Et j'ai travaillé dans ce bâtiment noir, le toit noir en haut à gauche. Mais ils ont fait des trucs semi-conducteurs. Ceci est une photo récente de Google Images. Mais quand on revient à l'image des années 1960 à gauche, c'est très intéressant. Vous avez ces gens assis en ligne, et ils fabriquent, vous savez, des circuits intégrés et des semi-conducteurs. Mais il y a une normalisation, il y a une façon standard de faire les choses et il y avait un processus bien défini. Vous savez, peut-être que ces gens étant tous assis dans un environnement ouvert, il y a peut-être eu une certaine collaboration. Je pense que nous en avons perdu un peu au sein de la main-d'œuvre du savoir.

Quand je me suis assis dans ce bâtiment en haut à gauche, si je voulais collaborer avec quelqu'un, ce n'était pas ouvert. Il y avait ces bureaux, peut-être qu'une partie de l'équipe était éloignée, ou peut-être devais-je parcourir ce campus; c'était une marche de 25 minutes, et je devais aller parler à quelqu'un dans le bâtiment à l'extrême droite. Je pense que nous avons perdu quelque chose en cours de route. Et donc, vous savez, j'ai eu la même pensée, pourquoi les gens - combien de personnes continuent de réinventer la roue au sein de votre organisation? Je pense, vous savez, que les organisations dans leur ensemble ont fait du bon travail dans les années 1990 et 2000 avec le CRM et l'entreposage de données, et dans une certaine mesure la BI. Pour une raison quelconque, l'analytique a pris un peu de retard. Il y a eu des investissements importants dans l'entreposage de données, la standardisation et la normalisation de vos données, et tout cela, et CRM, mais l'analyse a pris du retard pour une raison quelconque. Et je me demande pourquoi. Peut-être qu'il y a une créativité - peut-être que votre processus n'est pas bien défini, peut-être que vous ne savez pas quelle décision ou quel levier vous essayez de transformer, vous savez, dans votre entreprise pour changer les choses. Aujourd'hui, dans les organisations, il y a beaucoup de gens qui font les choses très manuellement dans des feuilles de calcul.

Et vous savez, j'ai regardé une statistique ce matin, je pense que 80, 90% des feuilles de calcul contiennent des erreurs, et certaines d'entre elles peuvent être très importantes. Comme celui de Whale, où JPMorgan Chase a perdu des milliards et des milliards de dollars en raison d'erreurs de feuille de calcul. J'ai donc la prémisse, je pense, qu'il doit y avoir une meilleure façon de faire avancer les choses. Et comme nous l'avons mentionné, nous avons ces scientifiques des données. Ces gars sont chers et difficiles à trouver. Et parfois, ils sont un peu bizarres. Mais je pense, vous savez, si je devais résumer ce qu'est un data scientist, c'est probablement quelqu'un qui comprend les données. Je pense que c'est quelqu'un qui comprend les mathématiques, quelqu'un qui comprend le problème. Et vraiment, quelqu'un qui peut communiquer les résultats. Et si vous êtes un data scientist, vous avez beaucoup de chance en ce moment, car votre salaire a probablement doublé ces dernières années.

Mais à vrai dire, beaucoup d'organisations, elles n'ont pas ces scientifiques des données, mais votre organisation a des gens intelligents. Vous avez une organisation, vous avez beaucoup de gens intelligents et ils utilisent des feuilles de calcul. Vous savez, les statistiques et les mathématiques ne sont pas leur travail principal, mais ils utilisent les données pour faire avancer l'entreprise. Vraiment, le défi que nous relevons est de savoir comment prendre, si vous avez la chance d'avoir un data scientist ou un statisticien ou deux, comment pouvez-vous les prendre, et comment pouvez-vous améliorer la collaboration entre ces gens et les d'autres personnes au sein de votre organisation? Si nous examinons comment notre organisation est structurée, je vais commencer et je vais aller de droite à gauche. Et je sais que c'est à l'envers, mais nous avons cette ligne d'utilisateurs professionnels.

Il s'agit de la majeure partie de votre population de travailleurs du savoir, et pour ces personnes, vous devez intégrer des analyses dans votre gamme d'applications métier. Peut-être voient-ils une sortie analytique sur un écran de centre d'appels ou quelque chose, et cela leur indique la prochaine meilleure offre à offrir à un client. C'est peut-être un consommateur ou un fournisseur sur un portail Web, et cela leur donne instantanément du crédit, ou des choses comme ça. Mais l'idée est qu'ils consomment des analyses. Si nous allons au milieu, ce sont ces travailleurs du savoir. Ce sont ces gens qui font des choses avec les feuilles de calcul aujourd'hui, mais les feuilles de calcul sont sujettes aux erreurs et à un moment donné, elles manquent d'essence. Ces scientifiques des données citoyennes, comme nous les appelons, vous savez, ce que nous essayons de faire pour eux, c'est vraiment d'augmenter le niveau d'automatisation.

Et vous entendez avec l'analyse que 80 à 90 pour cent du travail est dans la pièce de préparation des données, et ce ne sont pas les mathématiques réelles, mais c'est la préparation des données. Nous essayons d'automatiser cela, que vous le fassiez, et nous avons des assistants et des modèles et des choses réutilisables, et vous n'avez pas vraiment besoin de connaître l'infrastructure sous-jacente de votre environnement. Et puis, si nous regardons à l'extrême gauche, nous avons ces scientifiques des données. Et comme je l'ai mentionné, ils sont rares. Et ce que nous essayons de faire pour les rendre plus productifs, c'est leur permettre de créer des choses que ces scientifiques des données citoyennes peuvent faire. Considérez-le comme un bloc Lego, afin que ces scientifiques des données puissent créer un actif réutilisable qu'un scientifique des données citoyen peut utiliser. Construisez-le une fois, pour ne pas avoir à réinventer la roue.

Et puis, ces gars-là peuvent être inquiets de savoir si nous pouvons faire des choses dans la base de données et tirer parti des investissements technologiques existants que votre entreprise a faits. Vous savez, il n'est pas logique de nos jours de mélanger les données dans le monde entier. Donc, si nous regardons Statistica, comme je l'ai mentionné, c'est une plate-forme qui existe depuis assez longtemps. Et c'est un produit très innovant. Mélange de données, il n'y a pas eu de source de données à laquelle nous ne pouvons pas accéder. Nous avons toutes les fonctionnalités de découverte et de visualisation de données que vous attendez; nous pouvons le faire en temps réel. Et il a probablement - je pense qu'il y a plus de 16 000 fonctions analytiques dans l'outil logiciel, c'est donc plus de mathématiques que je n'aurais jamais pu utiliser ou comprendre, mais il est là si vous en avez besoin.

Nous avons la capacité de combiner à la fois des règles métier et des workflows analytiques pour vraiment prendre une décision commerciale. Vous allez au-delà de juste, voici un algorithme, voici un flux de travail, mais vous avez des règles métier auxquelles vous devez toujours faire face. Nous sommes très sûrs en matière de gouvernance. Nous sommes utilisés par de nombreux clients pharmaceutiques, en ce sens que la FDA nous fait confiance. Vous savez, juste la preuve dans le pudding que nous avons les contrôles et la capacité d'audit pour être acceptés par eux. Et enfin, vous savez, nous sommes ouverts et flexibles et extensibles, vous devez donc créer une plate-forme qui soit, vous voulez que vos scientifiques des données soient productifs, vous voulez que vos scientifiques citoyens des données soient productifs, vous voulez pouvoir pour déployer ces résultats analytiques auprès des employés de votre organisation.

Si nous y jetons un coup d'œil, voici un exemple de certaines des visualisations. Mais pouvoir distribuer votre sortie analytique aux utilisateurs du secteur d'activité, donc le premier exemple à gauche, c'est un diagramme analytique de réseau. Et peut-être que vous êtes un enquêteur en matière de fraude, et vous ne savez pas comment ces connexions sont établies, et cela peut être des personnes, des entités, des contrats, n'importe quoi vraiment. Mais vous pouvez manipuler cela avec votre souris et interagir avec elle pour vraiment comprendre - si vous êtes un enquêteur en fraude, pour comprendre une liste prioritaire des personnes à enquêter, non, parce que vous ne pouvez pas parler à tout le monde, vous avez donc à prioriser.

Si nous regardons l'image sur le côté droit, pour un tableau de bord de maintenance prédictive, c'est un problème vraiment intéressant. Vous êtes peut-être propriétaire d'un aéroport et vous avez ces scanners corporels là-dedans. Ces scanners corporels, si vous allez à un aéroport, il y a des composants qui ont une durée de conservation d'environ neuf mois. Et ces choses sont vraiment, vraiment chères. Si j'ai plusieurs points d'entrée, plusieurs scanners dans mon aéroport, numéro un, je veux m'assurer d'avoir un personnel approprié à chacune des portes, et pour les pièces qui sont dans les scanners, je ne veux pas les commander aussi tôt, et je veux les avoir avant qu'il ne tombe en panne. Nous avons la capacité, peut-être si vous possédez un aéroport, d'être en mesure de prédire quand ces choses se briseront et de prévoir les niveaux de dotation.

Si nous regardons en bas à droite, c'est si vous êtes dans un environnement de fabrication, ce n'est qu'une représentation graphique du flux de fabrication. Et c'est un peu difficile à voir, mais il y a des feux rouges et verts sur ces différents secteurs de processus, et donc si je suis ingénieur, il y a des mathématiques très sophistiquées, mais je peux explorer dans ce secteur de processus particulier et regarder les paramètres et les saisir, ce qui peut être hors de contrôle. Si nous regardons notre scientifique des données citoyens, notre objectif est vraiment de le rendre facile pour le scientifique des données citoyens. Nous avons des assistants et des modèles, et une chose que je pense vraiment intéressante, c'est que nous avons ce nœud de vérification de l'intégrité des données automatisé. Et vraiment ce que cela fait, il a une intelligence intégrée.

J'ai mentionné la préparation des données - cela prend beaucoup de temps, c'est à la fois dans l'agrégation des données et dans leur préparation. Mais supposons que j'ai mes données, je peux les exécuter via ce nœud de vérification de l'intégrité des données, et il vérifie l'invariance, la rareté et les valeurs aberrantes, et toutes ces choses, il remplit les valeurs manquantes et il fait beaucoup de calculs que je ne fais pas ne comprends pas, donc je peux accepter les valeurs par défaut, ou si je suis un peu plus intelligent, je peux les changer. Mais le fait est que nous voulons automatiser ce processus. Cette opération effectue environ 15 contrôles et résultats différents sur un ensemble de données nettoyé. Ce que nous faisons est de faciliter la création de ces flux de travail pour les utilisateurs.

C'est là que nous parlons de collaboration entre les scientifiques des données et les scientifiques des données des citoyens. Si nous regardons ces images à droite, nous voyons ce flux de travail de préparation des données. Et c'est peut-être très sophistiqué, c'est peut-être la sauce secrète de votre entreprise, je ne sais pas, mais nous savons que quelqu'un au sein de votre organisation peut accéder à un ou plusieurs de ces silos de données que nous avons. Nous avons besoin d'un moyen, numéro un, de les saisir et de les assembler, et deuxièmement, il y a peut-être un traitement spécial que nous voulons faire, c'est au-delà de notre bilan de santé des données, et c'est la sauce secrète de votre entreprise. Je peux créer ce flux de travail au sein de notre organisation et il s'effondre en tant que nœud. Vous voyez la flèche pointant vers le bas, c'est juste un nœud, et nous pouvons avoir une centaine de ces choses au sein d'une organisation. L'idée est que nous avons des gens qui savent quelque chose sur un certain espace, ils peuvent créer un flux de travail et quelqu'un d'autre peut le réutiliser. Nous essayons de minimiser la réinvention de la roue.

Et nous pouvons faire la même chose avec les workflows de modélisation analytique. Dans ce cas à droite, ce flux de travail, il y a peut-être 15 algorithmes différents, et je veux choisir le meilleur pour la tâche. Et je n'ai pas à comprendre en tant que scientifique des données citoyennes ce qui se passe dans ce désordre de la toile d'araignée là-haut, mais il s'effondre simplement en un nœud, et peut-être que ce nœud dit simplement, "calculez le score de risque de crédit". "" Calculez la chance d'une infection du site opératoire », qu'avez-vous. «Calculez la probabilité que quelque chose soit une transaction frauduleuse.» En tant que scientifique des données citoyen, je peux utiliser ces mathématiques très sophistiquées que quelqu'un d'autre a construites, peut-être l'un de ces scientifiques des données a construit au sein de mon organisation.

Du point de vue de la science des données, vous savez, j'ai parlé à des scientifiques des données qui aiment écrire du code, et j'ai parlé à des scientifiques des données qui détestent écrire du code. Et c'est très bien, nous avons donc une interface utilisateur très visuelle et graphique. Nous pouvons récupérer nos données, nous pouvons faire notre vérification automatisée de l'intégrité des données, et peut-être que je veux écrire du code. J'aime Python, j'aime R, mais l'idée est que ces scientifiques des données sont en nombre insuffisant et qu'ils aiment le code dans un langage particulier. Nous n'avons pas de préférence particulière pour la langue dans laquelle vous voulez coder, donc si vous voulez faire R, faites R; si vous voulez faire Python, faites Python. C'est génial. Si vous souhaitez faire éclater vos analyses sur Azure, faites éclater vos analyses sur le cloud. Et donc l'objectif ici est vraiment d'offrir la flexibilité et les options pour rendre vos scientifiques des données aussi productifs que possible.

Maintenant, les scientifiques des données sont des gens assez intelligents, mais ils ne sont peut-être pas spécialisés dans tout, et il y a peut-être des lacunes dans ce qu'ils peuvent faire. Et si vous regardez dans l'industrie, il existe de nombreux marchés analytiques différents qui existent. Ceci est un exemple de, peut-être que je dois faire la reconnaissance d'image et je n'ai pas cette compétence, eh bien peut-être que je vais à Algorithmia et que je reçois un algorithme de reconnaissance d'image. Peut-être que je vais chez Apervita et que je reçois un algorithme de santé très spécial. Je souhaite peut-être utiliser quelque chose dans la bibliothèque Azure Machine Learning. Peut-être que je veux utiliser quelque chose dans la plate-forme native de Statistica.

Encore une fois, l'idée ici est que nous voulons tirer parti de la communauté mondiale d'analyse. Parce que vous n'allez pas avoir toutes les compétences dans vos quatre murs, alors comment pouvons-nous créer un logiciel - et c'est ce que nous faisons - qui permet à vos scientifiques des données d'utiliser des algorithmes provenant d'une variété de marchés. Nous l'avons fait avec R et Python depuis longtemps, mais cela étend cela à ces marchés d'applications qui existent. Et de la même manière que vous voyez ici en haut, nous utilisons H2O sur Spark, donc il y a beaucoup d'algorithmes analytiques là-bas. Vous n'avez pas à vous concentrer sur leur création à partir de zéro, réutilisons ceux qui vivent dans la communauté open source, et nous voulons que ces personnes soient aussi productives que possible.

La prochaine étape, après que nous ayons nos scientifiques des données citoyens et nos scientifiques des données, est vraiment comment promouvoir et diffuser ces meilleures pratiques? Nous avons une technologie dans notre logiciel qui vous permet de distribuer des analyses n'importe où. Et c'est plus une vue de gestion de modèle, mais je ne suis plus lié par les quatre murs ou une installation spécifique à Tulsa ou à Taiwan ou en Californie, ou ce que vous avez. Il s'agit d'une plate-forme mondiale, et nous avons de très nombreux clients qu'elle est déployée dans son utilisation par plusieurs sites.

Et vraiment, les choses clés sont, si vous faites quelque chose à Taiwan et que vous voulez le reproduire au Brésil, c'est super. Allez-y, récupérez les modèles réutilisables, récupérez les workflows que vous souhaitez. Il s'agit de créer ces normes et la façon habituelle de faire les choses, donc nous ne faisons pas les choses complètement différentes partout. Et l'autre élément clé de cela, c'est vraiment que nous voulons amener les calculs là où les données vivent. Vous n'avez pas à mélanger les données entre, vous savez, la Californie et Tulsa et Taiwan et le Brésil. Nous avons une technologie qui nous permet de prendre les calculs pour les données, et nous allons avoir une autre webémission Hot Technology sur ce sujet.

Mais nous appelons cette architecture, et voici un aperçu, Architecture d'analyse distribuée native. L'idée clé derrière cela est que nous avons une plate-forme, Statistica, et je peux exporter un flux de travail analytique sous forme d'atome. Et je pourrais faire un modèle, ou un workflow entier, donc ça n'a pas d'importance. Mais je peux le créer et l'exporter dans une langue appropriée à la plate-forme cible. Sur le côté gauche de cela, beaucoup de gens le font, mais ils marquent dans le système source. C'est bien, nous pouvons faire du scoring et nous pouvons faire de la construction de modèles dans la base de données, donc c'est intéressant.

Et puis sur le côté droit, nous avons Boomi. Il s'agit d'une technologie complémentaire, nous travaillons avec tous ces éléments. Mais nous pouvons également prendre ces workflows et les transporter essentiellement partout dans le monde. Tout ce qui a une adresse IP. Et je n'ai pas besoin d'installer Statistica sur le cloud public ou privé. Tout ce qui peut exécuter une machine virtuelle Java, nous pouvons exécuter ces workflows analytiques, workflows de préparation des données ou simplement des modèles sur l'une de ces plates-formes cibles. Que ce soit dans mon cloud public ou privé, que ce soit dans mon tracteur, ma voiture, ma maison, mon ampoule, mon internet des objets, nous avons une technologie qui vous permet de transporter ces flux de travail partout dans le monde.

Revoyons. Vous savez, nous avons des utilisateurs professionnels, donc ces gens, nous avons la technologie leur permet de consommer la sortie dans un format avec lequel ils sont à l'aise. Nous avons des scientifiques des données sur les citoyens, et ce que nous essayons de faire, c'est d'améliorer la collaboration, de les intégrer à une équipe, n'est-ce pas? Et donc nous voulons que les gens cessent de réinventer la roue. Et nous avons ces scientifiques des données, il pourrait y avoir un manque de compétences, mais ils peuvent coder dans un langage qu'ils veulent, ils peuvent aller sur les marchés analytiques et utiliser des algorithmes là-bas. Et donc avec ça, comment pourriez-vous ne pas penser que tout est génial avec ça? C'est parfait, c'est ce que nous faisons. Nous construisons des workflows réutilisables, nous donnons des instructions aux gens, nous leur donnons les blocs Lego afin qu'ils puissent construire ces puissants châteaux et tout ce qu'ils veulent faire. Pour résumer, nous avons une plate-forme qui permet aux utilisateurs professionnels, aux scientifiques des données citoyennes, aux programmeurs scientifiques, nous avons - nous pouvons traiter tout type de cas d'utilisation de l'analytique de bord IoT, et nous activons cette notion d'intelligence collective. Sur ce, je pense que nous allons probablement l'ouvrir aux questions.

Robin Bloor: D' accord. Je pense que le premier - je veux dire, pour être honnête, je veux dire que j'ai été informé par Dell Statistica auparavant, et pour être honnête, je suis en fait assez surpris des choses que je ne savais pas que vous avez évoquées dans la présentation . Et je dois dire que la seule chose, c'est quelque chose qui a été un bug pour moi dans l'adoption de l'analytique, c'est que, vous savez, obtenir les outils n'est-ce pas, vous savez? Il y a énormément d'outils là-bas, il y a des outils open source, et ainsi de suite, et il y a diverses, ce que j'appellerais, des semi-plates-formes. Mais je pense que la différence que vous avez, j'ai été particulièrement impressionné par une partie du flux de travail.

Mais la différence est que vous semblez fournir de bout en bout. C'est comme l'analytique est un processus métier sophistiqué qui commence par l'acquisition de données, puis passe par toute une série d'étapes, selon la fragilité des données, puis peut se ramifier en toute une série d'attaques mathématiques différentes au Les données. Et puis les résultats émergent d'une manière ou d'une autre et ceux-ci doivent être des actions. Il y a énormément d'analyses que j'ai rencontrées, où beaucoup de travail a été accompli, mais il n'y a pas de mise en action. Et vous semblez avoir énormément de ce qui est requis. Je ne sais pas à quel point c'est complet, mais c'est beaucoup plus complet que ce à quoi je m'attendais. Je suis incroyablement impressionné par cela.

J'aimerais que vous commentiez les feuilles de calcul. Vous avez déjà dit quelque chose, mais l'une des choses que j'ai notées, et que j'ai notées au fil des ans, mais cela devient de plus en plus évident, c'est qu'il y a énormément de feuilles de calcul qui sont des systèmes fantômes et vraiment je pense la feuille de calcul, je veux dire, c'était un merveilleux outil quand il a été introduit et il a été merveilleux depuis de nombreuses façons différentes, mais c'est un outil généralisé, il n'est pas vraiment adapté à l'objectif. Ce n'est certainement pas très bon dans le contexte de la BI et je pense que c'est horrible dans le contexte de l'analyse. Et je me demandais si vous aviez quelque chose à dire à propos, disons, d'exemples où, vous savez, Statistica a été éliminé, l'utilisation excessive de feuilles de calcul, ou tout commentaire que vous aimeriez faire à ce sujet?

David Sweenor: Oui, je pense que, vous savez, vous pouvez rechercher des erreurs de feuille de calcul célèbres. Google ou tout autre moteur de recherche que vous utilisez reviendra avec une litanie de résultats. Je ne pense pas, vous savez, que nous remplacerons jamais les feuilles de calcul. Ce n'est pas notre intention, mais pour beaucoup d'organisations vers lesquelles je me rends, il y a quelques-uns de ces assistants de tableur ou ninjas ou peu importe comment vous les appelez, mais ils ont ces feuilles de calcul très sophistiquées et vous devez penser à ce qui se passe quand ces les gens gagnent au loto et ils ne reviennent pas? Et donc ce que nous essayons de faire est, nous savons que des feuilles de calcul existeront afin que nous puissions les ingérer, mais je pense que ce que nous essayons de faire est de développer une représentation visuelle de votre flux de travail afin qu'il puisse être compris et partagé avec d'autres personnes . Les feuilles de calcul sont assez difficiles, assez difficiles à partager. Et dès que vous me passez votre feuille de calcul, je l'ai modifiée, et maintenant nous ne sommes plus synchronisés et nous obtenons des réponses différentes. Ce que nous essayons de faire, c'est de contourner cela et de rendre les choses un peu plus efficaces. Et les feuilles de calcul sont vraiment terribles pour combiner plusieurs ensembles de données, vous savez? Ils tombent là-bas. Mais nous n'allons pas les remplacer, nous les ingérons et nous avons des gens qui commencent à changer parce que si nous avons un nœud qui dit «calculer le risque», c'est ce que la personne utilisant la feuille de calcul essaie de faire. Donc, ceux-ci ont disparu.

Robin Bloor: Oui, je veux dire, je dirais que, vous savez, d'un point de vue où je regarde les choses, je dirais que les feuilles de calcul sont parfaites pour créer de l'information. Ils sont même parfaits pour créer des îlots de connaissances, mais ils sont vraiment mauvais pour partager des connaissances. Ils n'ont aucun mécanisme pour le faire, et si vous passez une feuille de calcul à quelqu'un, ce n'est pas comme si vous pouviez la lire comme si c'était un article qui expliquait exactement ce qu'ils faisaient. Ce n'est tout simplement pas là. Je pense, vous savez, la chose qui m'a le plus impressionné dans la présentation et les capacités de Statistica, cela semble être incroyablement agnostique. Mais il a ce fil qui le traverse du flux de travail. Ai-je raison de supposer que vous pouvez examiner un flux de travail de bout en bout, vous savez, de l'acquisition des données à l'intégration des résultats dans des applications de BI particulières ou même en exécutant des applications?

David Sweenor: Oui, absolument. Et il a cette capacité de bout en bout et certaines organisations l'utilisent entièrement, et je ne me fais aucune illusion, aucune entreprise n'achète tout aujourd'hui à un seul fournisseur. Nous avons un mélange. Certaines personnes utilisent Statistica pour tout et certaines personnes l'utilisent pour les workflows de modélisation, d'autres l'utilisent pour les workflows de préparation des données. Certaines personnes l'utilisent pour distribuer des centaines de rapports d'ingénierie aux ingénieurs. Et donc nous avons tout entre les deux. Et c'est vraiment de bout en bout et c'est, vous savez, une plate-forme agnostique, en ce sens que s'il y a des algorithmes que vous souhaitez utiliser dans R ou Python, Azure, Apervita, peu importe, vous savez, utilisez-les. C'est génial, soyez productif, utilisez ce que vous savez, utilisez ce que vous êtes à l'aise et nous avons des mécanismes pour nous assurer qu'ils sont contrôlés et vérifiables et tout ce genre de choses.

Robin Bloor: J'aime particulièrement cet aspect. Je veux dire, je ne sais pas si vous pouvez parler au-delà de ce que vous avez dit à la richesse de ce qui existe. Je veux dire, j'ai regardé cela mais je ne l'ai pas regardé de manière exhaustive et il y a certainement une grande quantité de bibliothèques Python dans nos bibliothèques, mais y a-t-il quelque chose que vous pouvez ajouter à cette image? Parce que je pense que c'est une chose très intéressante, vous savez, l'idée que vous auriez des composants dignes de confiance, parce que vous connaissiez différentes personnes qui les avaient créés et différentes personnes qui les utilisaient que vous pouviez télécharger. Vous savez, pouvez-vous enrichir ce que vous avez déjà dit à ce sujet?

David Sweenor: Oui, je pense que certains des marchés d'applications, vous savez, les marchés d'algorithmes qui existent. Par exemple, vous savez, le Dr John Cromwell de l'Université de l'Iowa, il a développé un modèle qui prédira, qui sera utilisé en temps réel pendant que nous sommes opérés, vous donnera un score si vous souhaitez obtenir un infection du site opératoire. Et si ce score est suffisamment élevé, ils prendront une intervention directement dans la salle d'opération. C'est très intéressant. Alors peut-être qu'il y a un autre hôpital qui n'est pas aussi grand. Eh bien, Apervita est un marché d'applications de santé pour l'analyse. Vous pouvez soit en trouver un dans un grand nombre de ces marchés d'applications, vous pouvez en trouver un et les réutiliser, et la transaction est entre vous et celui qui en est propriétaire, mais vous pouvez soit en trouver un ou vous pouvez dire: «Voici ce dont j'ai besoin. »Je pense que cela exploite cette communauté mondiale parce que tout le monde est un spécialiste de nos jours, et vous ne pouvez pas tout savoir. Je pense que R et Python sont une chose mais cette idée de: «Je veux faire cette fonction, mettre une spécification là-bas sur l'un de ces marchés d'applications et demander à quelqu'un de la développer pour vous.» Et ils peuvent monétiser cela, je pense c'est très intéressant et très différent du modèle purement open source.

Robin Bloor: Très bien. Quoi qu'il en soit, je passe le ballon à Dez. Voulez-vous plonger, Dez?

Dez Blanchfield: Absolument et j'aimerais rester sur la feuille de calcul juste un instant parce que je pense qu'il a saisi l'essentiel de ce dont nous parlons ici. Et vous avez fait un commentaire, Robin, concernant la transition des anciennes feuilles de calcul sous leur forme physique à leur forme électronique. Nous avons eu une chose intéressante où, vous savez, lorsque les feuilles de calcul étaient à l'origine une chose, elles n'étaient que des feuilles de papier avec des lignes et des colonnes et vous écriviez manuellement les choses, puis vous les parcouriez et les calculiez, soit en faisant sur le dessus de votre tête ou avec un autre appareil. Mais nous avons encore la possibilité d'avoir des erreurs avec des erreurs d'écriture ou de la dyslexie, et maintenant nous l'avons remplacé par des fautes de frappe. Le risque est qu'avec des feuilles de calcul, le profil de risque soit plus rapide et plus grand, mais je pense que des outils comme Statistica inversent la pyramide des risques.

Je dessine souvent cette image sur un tableau blanc représentant une figure humaine en haut, en tant que personne, puis une collection d'entre eux en bas, disons, imaginez-en dix au bas de ce tableau blanc, et je dessine un pyramide où le point de la pyramide est à la personne seule et le pied de la pyramide la collection de personnes. Et je l'utilise pour visualiser l'idée que si une personne en haut fait une feuille de calcul fait une erreur et la partage avec dix personnes, et maintenant nous avons dix copies de l'erreur. Soyez très prudent avec vos macros et soyez très prudent avec votre Visual Basic si vous allez passer à cela. Parce que lorsque nous construisons des outils électroniques comme des feuilles de calcul, c'est très puissant, mais c'est aussi puissant dans le bon et dans le mauvais sens.

Je pense que des outils comme Statistica permettent d'inverser ce profil de risque et c'est que vous pouvez maintenant arriver au point où vous avez beaucoup d'outils qui sont disponibles pour la personne individuelle et au fur et à mesure qu'ils sortent de beaucoup d'outils en haut de la pyramide, puis tout en bas, où le point de la pyramide maintenant inversé est l'outil réel, si nous avons une équipe de personnes qui construisent ces outils et ces algorithmes. Et le data scientist n'a pas besoin d'être un spécialiste de l'analyse de régression sur leurs données. Ils pourraient peut-être utiliser l'outil, mais vous pourriez avoir cinq ou six statisticiens et un actuaire et un data scientist et des mathématiciens travaillant sur cet outil, ce module, cet algorithme, ce plug-in et ainsi de suite dans le langage de la feuille de calcul, donc imaginez que chaque feuille de calcul publiée que vous pourriez utiliser a été rédigée par des spécialistes qui ont testé les macros, testé Visual Basic, fait en sorte que les algorithmes fonctionnent, donc lorsque vous l'avez obtenu, vous pouvez simplement y insérer des données mais vous ne pouvez pas réellement les casser et donc il a été préférable de contrôler.

Je pense que beaucoup d'outils d'analyse le font. Je suppose que j'en arrive au point suivant: voyez-vous cela sur le terrain maintenant, voyez-vous la transition de feuilles de calcul qui pourraient potentiellement pousser des erreurs et des erreurs et des risques, au point où les outils que vous construisez avec votre plates-formes maintenant, la découverte des données étant précise en temps réel et les personnes qui construisent les modules et les algorithmes suppriment ou réduisent ce profil de risque? Le service client voit-il cela dans un sens réel ou pensez-vous que cela se produit et qu'ils ne le réalisent pas?

David Sweenor: Vous savez, je pense qu'il y a plusieurs façons de répondre à cela. Mais ce que nous voyons est, vous le savez, dans n'importe quelle organisation, et j'ai mentionné que l'analyse, je pense, a peut-être pris du retard du point de vue de l'investissement des entreprises, un peu ce que nous avons fait avec l'entreposage de données et le CRM. Mais ce que nous voyons, il faut donc beaucoup pour changer une organisation, pour surmonter cette inertie organisationnelle. Mais ce que nous voyons, ce sont des gens qui prennent leurs feuilles de calcul, leurs flux de travail, et j'ai mentionné la sécurité et la gouvernance: «Eh bien, j'ai peut-être une feuille de calcul», «Eh bien, je peux verrouiller cela et je peux contrôler la version.» Et nous voyons beaucoup d'organisations, peut-être qu'elles commencent juste par là. Et si cela a changé, il y a un flux de travail et je finis par aller, numéro un, qui l'a changé? Pourquoi ils l'ont changé. Quand ils l'ont changé. Et je peux également configurer un flux de travail de telle sorte que je ne vais pas mettre cette nouvelle feuille de calcul en production à moins qu'elle ne soit validée et vérifiée par un, deux, trois, autant de parties que vous souhaitez définir dans votre flux de travail. Je pense que les gens commencent à le faire et que les organisations commencent à faire de petits pas là-bas, mais je dirais probablement que nous avons un long chemin à parcourir.

Dez Blanchfield: En effet, et je pense qu'étant donné que vous intégrez à la fois les contrôles de sécurité et la gouvernance, la charge de travail peut automatiquement cartographier cela et tout le chemin jusqu'au responsable des risques, ce qui est maintenant une chose. Vous pouvez commencer à contrôler comment ces outils et systèmes sont accessibles et qui fait quoi avec eux, c'est donc très puissant. Je pense que les autres éléments qui entrent en jeu sont que les types d'outils que vous fournissez, pour moi, prêtent plus au comportement humain qu'aux feuilles de calcul traditionnelles dont nous parlons, en ce sens que si j'ai une salle pleine de gens avec le même tableau de bord et l'accès aux mêmes données qu'ils peuvent réellement obtenir une vue différente et, par conséquent, obtenir des informations légèrement différentes à partir des mêmes informations, qui répondent à leurs besoins afin qu'ils puissent collaborer. Nous avons alors une vision et une interaction plus humaines avec l'entreprise et le processus de prise de décision, par opposition à tous aller à la même réunion avec le même PowerPoint, et les mêmes feuilles de calcul imprimées, toutes les mêmes données fixes.

Voyez-vous une transition dans le comportement et la culture dans les organisations qui prennent en quelque sorte vos outils maintenant où ils voient cela se produire, où ce n'est pas comme cinq personnes dans la pièce regardant la même feuille de calcul essayant de la verbaliser et de prendre des notes dessus, mais maintenant, ils interagissent en réalité avec les tableaux de bord et les outils en temps réel, avec la visualisation et l'analyse à portée de main et obtiennent un flux complètement différent sur la conversation et l'interaction, non seulement lors des réunions, mais simplement de la collaboration générale autour de l'organisation? Parce qu'ils peuvent le faire en temps réel, parce qu'ils peuvent poser des questions et obtenir une vraie réponse. Est-ce une tendance que vous voyez actuellement ou cela ne s'est-il pas encore produit?

David Sweenor: Non, je pense que c'est définitivement commencé dans cette voie et je pense que la chose très intéressante est, vous savez, si nous prenons l'exemple d'une usine, par exemple. Peut-être que quelqu'un qui possède un secteur de processus particulier au sein de cette usine, il souhaite regarder et interagir avec ces données d'une certaine manière. Et peut-être moi, en négligeant tous les processus, peut-être celui-ci en bas, peut-être que je veux le regarder à travers tout. Je pense que ce que nous voyons est, premièrement, que les gens commencent à utiliser un ensemble commun de visualisations ou de visualisations standard au sein de leurs organisations, mais il est également adapté au rôle dans lequel ils se trouvent. Si je suis un ingénieur de processus, peut-être c'est un point de vue très différent de celui qui le regarde du point de vue de la chaîne d'approvisionnement, et je pense que c'est génial car il doit être adapté et il doit être examiné à travers l'objectif dont vous avez besoin pour faire votre travail.

Dez Blanchfield: Je suppose que le processus de décision se déroule, en termes de temps et de vitesse, pour prendre des décisions intelligentes et précises augmente rapidement aussi, non? Parce que si vous avez des analyses en temps réel, des tableaux de bord en temps réel, si vous avez les outils Statistica à portée de main, vous n'avez pas besoin de courir à travers le sol pour aller demander à quelqu'un quelque chose, vous l'avez en copie papier. Vous pouvez en quelque sorte collaborer, interagir et réellement prendre des décisions à la volée et obtenir ce résultat immédiatement. Ce que je pense que certaines entreprises n'ont vraiment pas encore compris, mais quand elles le feront, ce sera ce moment eureka que, oui, nous pouvons toujours rester dans nos cabines et travailler à la maison, mais nous pouvons interagir et collaborer et ces décisions nous faisons en collaborant se transformer en résultats instantanément. Écoutez, je pense que c'était fantastique d'entendre ce que vous avez à dire jusqu'à présent et j'ai vraiment hâte de voir où ça va. Et je sais que nous avons beaucoup de questions dans les Q&R, donc je vais retourner à Rebecca pour en passer en revue afin que nous puissions y répondre aussi rapidement que possible. Merci beaucoup.

Rebecca Jozwiak: Merci Dez, et oui Dave, nous avons pas mal de questions du public. Et merci aussi à Dez et Robin pour vos idées. Je sais que cette participante a dû déposer juste en haut de l'heure, mais elle demande en quelque sorte, voyez-vous que les départements des systèmes d'information accordent une plus grande priorité aux contrôles de données sophistiqués plutôt que de se sentir à l'aise pour fournir des outils à les travailleurs du savoir? Je veux dire, est-ce - allez-y.

David Sweenor: Oui, je pense que cela dépend de l'organisation. Je pense qu'une banque, une compagnie d'assurance, peut-être ont-elles des priorités et des façons de faire différentes par rapport à une organisation de marketing. Je suppose que je dois dire que cela dépend uniquement de l'industrie et de la fonction que vous envisagez. Différentes industries ont des objectifs et des priorités différents.

Rebecca Jozwiak: D'accord, c'est logique. Et puis un autre participant a voulu savoir, quel est le moteur derrière Statistica? Est-ce C ++ ou vos propres trucs?

David Sweenor: Eh bien, je ne sais pas si je peux être aussi précis avec cela, car cela existe depuis 30 ans et il a été développé avant mon époque, mais il existe une bibliothèque centrale d'algorithmes analytiques qui sont des algorithmes Statistica qui fonctionnent. Et vous avez vu ici que nous pouvons également exécuter R, nous pouvons exécuter Python, nous pouvons éclater vers Azure, nous pouvons exécuter Spark à H2O, donc je suppose que je devrais répondre à cette question en termes de, c'est une variété de moteurs. Et selon l'algorithme que vous choisissez, s'il s'agit d'un Statistica, il fonctionne comme ceci, si vous en choisissez un sur H2O et Spark, il l'utilise, et c'est donc une variété d'entre eux.

Rebecca Jozwiak: Très bien. Un autre type de participant a posé une question pointant spécifiquement sur cette diapositive, voulant savoir, en quelque sorte, comment le scientifique des données sur les citoyens sait quels modèles réutilisables utiliser? Et je suppose que je vais en quelque sorte poser une question plus large. Cela, que voyez-vous lorsque des utilisateurs du secteur d'activité ou des analystes commerciaux entrent et qu'ils souhaitent utiliser ces outils, est-il facile pour eux de choisir et de démarrer?

David Sweenor: Je suppose que je répondrais à cela et si vous pouvez utiliser, si vous êtes familier avec Windows, c'est une plate-forme basée sur Windows, donc j'ai coupé le haut de ces captures d'écran, mais il y a le ruban Windows. Mais comment savent-ils quel flux de travail utiliser? Il ressemble à l'Explorateur Windows, il existe donc une structure arborescente et vous pouvez le configurer et l'installer comme votre organisation le souhaite. Mais il se pourrait que vous ayez simplement ces dossiers et que vous mettiez ces modèles réutilisables dans ces dossiers. Et je pense qu'il y a probablement une nomenclature que votre entreprise pourrait adopter, par exemple voici le «calcul du profil de risque», voici le «obtenir des données de ces sources» et vous les nommez comme vous voulez. C'est juste un dossier gratuit, vous faites simplement glisser les notes directement sur votre toile. Donc, c'est assez facile.

Rebecca Jozwiak: Très bien. Peut-être une démo la prochaine fois. Ensuite, un autre participant évoque, et c'est de cela que vous et Robin et Dez parliez en ce qui concerne les inexactitudes, en particulier sur une feuille de calcul, mais les ordures entrantes / sortantes, et il le voit comme étant encore plus critique quand il s'agit à l'analyse. Genre de mentionner que, vous savez, une mauvaise utilisation des données peut vraiment conduire à des décisions malheureuses. Et il se demande quel est votre point de vue sur le développement d'algorithmes plus sûrs, je suppose que pour le, il utilise le mot «utilisation trop zélée» de l'analyse. Vous savez, quelqu'un entre, il est vraiment excité, il veut faire ces analyses avancées, il veut exécuter ces algorithmes avancés, mais il n'est peut-être pas tout à fait sûr. Alors, que faites-vous pour vous protéger contre cela?

David Sweenor: Oui, donc je suppose que je répondrai à cela du mieux que je peux, mais je pense que tout dépend des gens, des processus et de la technologie. Nous avons une technologie qui permet aux personnes et permet de mettre en œuvre le processus que vous souhaitez mettre en place dans votre organisation. Dans l'exemple de l'envoi d'un coupon à quelqu'un, ce n'est peut-être pas aussi critique, et s'il est numérique, c'est vraiment sans frais, peut-être qu'il y a un niveau de contrôles de sécurité et peut-être que nous ne nous en soucions pas. Si je prédis des infections du site opératoire, je veux peut-être être un peu plus prudent à ce sujet. Ou si je prédis la qualité et l'innocuité des médicaments et des choses comme ça, je veux peut-être être un peu plus prudent à ce sujet. Vous avez raison, garbage in / garbage out, donc ce que nous essayons de faire est de fournir une plate-forme qui vous permet de l'adapter au processus que votre organisation souhaite adopter.

Rebecca Jozwiak: Très bien. J'ai encore quelques questions, mais je sais que nous avons dépassé un peu l'heure et je veux juste dire à nos témoins que c'était génial. Et nous tenons à remercier beaucoup Dave Sweenor de Dell Statistica. Bien sûr, Dr Robin Bloor et Dez Blanchfield, merci d'être les analystes aujourd'hui. Nous allons avoir une autre webémission le mois prochain avec Dell Statistica. Je sais que Dave a fait allusion au sujet. Il s'agira d'analyses de pointe, un autre sujet fascinant, et je sais que certains cas d'utilisation très convaincants vont être discutés lors de cette webémission. Si vous avez aimé ce que vous avez vu aujourd'hui, revenez le mois prochain. Et avec ça, les amis, je vous dis adieu. Merci beaucoup. Bye Bye.

Intégrez l'analytique partout: permettre au scientifique des données citoyennes