Accueil l'audio Edge Analytics: enfin l'économie de l'IoT

Edge Analytics: enfin l'économie de l'IoT

Anonim

Par Techopedia Staff, 22 septembre 2016

À retenir : l' animatrice Rebecca Jozwiak discute des analyses de pointe avec le Dr Robin Bloor, Dez Blanchfield et Shawn Rogers de Dell Statistica.

Vous n'êtes actuellement pas connecté. Veuillez vous connecter ou vous inscrire pour voir la vidéo.

Rebecca Jozwiak: Mesdames et messieurs, bonjour et bienvenue à Hot Technologies de 2016. Aujourd'hui, nous avons «Edge Analytics: enfin l'économie de l'IoT». Je m'appelle Rebecca Jozwiak. Je serai votre modérateur pour la webdiffusion d'aujourd'hui. Nous tweetons avec un hashtag # HOTTECH16 si vous souhaitez rejoindre la conversation Twitter.

Ainsi, l'IoT, certainement un sujet brûlant cette année et l'internet des objets, c'est vraiment les données de la machine, les données des capteurs, les données des journaux, les données des appareils. Rien de tout cela n'est nouveau, nous avons ce type de données depuis toujours, mais c'est que nous n'avons pas vraiment pu les utiliser et maintenant nous voyons juste une tonne de nouvelles façons d'utiliser ces données. En particulier dans l'industrie médicale, les marchés financiers, avec le pétrole et le gaz, les matières premières, ce n'est qu'une mine d'informations qui étaient auparavant inexploitées. Et pas beaucoup de gens ont vraiment bien compris comment bien le faire. Nous parlons de beaucoup de petites données, mais c'est beaucoup de données et, vous savez, il y a des problèmes de réseau impliqués, il y a du matériel impliqué, ou doit être traité, et comment faire sans obstruer votre système? Eh bien, c'est ce que nous allons apprendre aujourd'hui.

Voici notre gamme d'experts. Nous avons le Dr Robin Bloor, notre analyste en chef chez The Bloor Group. Nous avons également Dez Blanchfield, notre data scientist chez The Bloor Group. Et nous sommes heureux d'avoir Shawn Rogers, directeur du marketing mondial et des canaux de Dell Statistica. Et avec ça, je vais passer le ballon à Robin.

Dr Robin Bloor: D'accord, merci pour cela. Je vais appuyer sur un bouton et lancer une diapositive. Je ne sais pas pourquoi j'ai créé cette image apocalyptique pour l'Internet des objets. Peut-être parce que je pense que ça va devenir chaotique à la fin. Je vais continuer tout de suite. C'est la même chose pour le cours dans toute présentation IoT. Vous devez, d'une manière ou d'une autre, dire quelque chose de scandaleux à propos de tout cela. Et en fait, la plupart de cela est probablement vrai. Si vous regardez réellement la façon dont ces courbes se développent progressivement. Vous savez, les ordinateurs personnels, les smartphones et les tablettes vont probablement continuer d'augmenter. Les téléviseurs intelligents augmenteront probablement. Les appareils portables, ils explosent probablement en ce moment, par rapport à ce qu'ils étaient il y a quelques années. Les voitures connectées, il est inévitable que presque toutes les voitures soient connectées de manière très large et transmettent en permanence des données. Et tout le reste. Et ce graphique particulier de BI Intelligence indique que tout le reste l'emportera très, très rapidement sur les choses évidentes.

Alors que dire de l'IoT? La première chose n'est qu'un point architectural. Vous savez, quand vous avez des données et que vous vous traitez, d'une manière ou d'une autre, vous allez devoir mettre les deux ensemble. Et avec les données au volume qu'elles sont maintenant, et rassemblées à divers endroits, les deux ne sont plus naturellement ensemble. Ils étaient autrefois à l'époque du mainframe, je suppose. Vous pouvez donc penser en termes de couche de traitement, de couche transport et de couche données. Et d'une manière ou d'une autre, la couche transport va de nos jours déplacer le traitement ou déplacer les données à travers les réseaux. Voici donc les choix: vous pouvez déplacer les données vers le traitement, vous pouvez déplacer le traitement vers les données, vous pouvez déplacer le traitement et les données vers un point d'exécution pratique, ou vous pouvez partager le traitement et partager les données. Et en ce qui concerne l'internet des objets, les données sont à peu près déjà partagées à la naissance et il est probable qu'une grande partie du traitement sera fragmentée afin que les applications à exécuter puissent avoir lieu.

J'ai donc peint un tableau. La chose intéressante pour moi à propos de l'IoT, je parle d'un domaine d'agrégation dans ce diagramme, et je souligne qu'il existe des sous-domaines. Vous pouvez donc imaginer que le domaine IoT 1 ici est une voiture d'une certaine sorte, et que le domaine 2 et le domaine 3 et le domaine 4, sont des voitures d'une certaine sorte, et vous agrégerez des données localement, vous exécuterez des applications locales sur ces données, et vous mettrez diverses choses en action. Mais pour avoir des analyses sur toutes les voitures, vous devrez transférer des données au centre, pas nécessairement toutes les données, mais vous devrez agréger au centre. Et si vous y pensez, vous voudrez peut-être avoir de très nombreux domaines d'agrégation différents pour le même ensemble d'objets IoT. Et les domaines eux-mêmes pourraient s'agréger davantage. Vous pourriez donc avoir cette hiérarchie répétitive. Et fondamentalement, ce que nous avons là-bas est un réseau incroyablement complexe. Beaucoup plus complexe que tout ce que nous devions avoir auparavant.

J'ai une note en bas ici. Tous les nœuds de réseau, y compris les nœuds terminaux, peuvent être des créateurs de données, des magasins de données et des points de traitement. Et cela vous donne une possibilité de distribution, ce que nous n'avons jamais vu auparavant. Dez va en parler un peu plus, je vais donc passer à ce point particulier. Une fois que nous sommes sur Internet des objets et que toutes les données sont réellement devenues des événements, le point sur cette diapositive est simplement d'indiquer que nous allons devoir normaliser les événements. Nous allons devoir, à tout le moins, avoir cela. Nous allons avoir l'heure à laquelle l'événement s'est produit, l'emplacement géographique où il s'est produit, l'emplacement virtuel ou logique du processus qui l'a créé, le périphérique source qui l'a créé, l'ID du périphérique afin que vous sachiez exactement quel périphérique source l'a créé, la propriété des données et des acteurs, ces personnes qui ont le droit d'utiliser les données d'une manière ou d'une autre, il va devoir emporter ses autorisations avec lui, ce qui signifie vraiment, il va falloir transporter la sécurité avec lui, et puis il y a les données elles-mêmes. Et quand vous regardez cela, vous vous rendez compte que, vous savez, même si vous avez un capteur qui ne fait rien de plus que de signaler la température de quelque chose à chaque seconde, il y a en fait beaucoup de données juste pour identifier exactement où les données origine et ce qu'il est réellement. Soit dit en passant, cette liste n'est pas exhaustive.

Donc, en ce qui concerne le futur paysage informatique, la façon dont je le vois est la suivante: que ce n'est pas seulement l'Internet des objets, il y a aussi le fait que nous serons dans un monde d'activité événementielle, et donc nous devra avoir des architectures événementielles, et ces architectures devront s'étendre sur de grands réseaux. Et l'autre chose est tout en temps réel, ce n'est pas nécessairement le cas pour nous d'être en temps réel, mais il y a quelque chose que j'appelle le temps d'affaires, c'est-à-dire le délai dans lequel les données doivent réellement être servies et prêtes à traiter. Ce n'est peut-être pas, vous savez, une milliseconde après sa création. Mais il y a toujours un tel moment pour chaque élément de données et une fois que vous avez une architecture événementielle, il devient plus judicieux de penser en termes d'approche en temps réel de la façon dont le monde fonctionne.

Donc, en résumé, parce que ce dont nous parlons vraiment, c'est de l'analyse sur l'IoT. Malgré tout cela, il est toujours temps de comprendre, et ce n'est pas seulement le temps de comprendre, la compréhension doit être suivie d'actions. Donc, le temps de la perspicacité et le temps de l'action est ce que je résumerais. Cela dit, je vais passer le ballon à Dez.

Dez Blanchfield: Merci, Robin. Perspicace comme toujours. J'aime le fait que c'est un acte difficile à suivre à chaque fois, mais je ferai de mon mieux.

Une des choses que je vois, et je m'en réjouis souvent, pour être honnête, et pas sous une forme inclinée et négative, mais il y a beaucoup d'inquiétude et de panique à propos de l'internet des objets qui envahissent le monde. et nous mettre à mort et vous commencerez à perdre vos données, donc je veux revenir un peu sur certaines des choses que nous avons faites auparavant au cours des deux ou trois dernières décennies qui étaient un fac-similé proche d'Internet des choses, mais peut-être pas tout à fait à la même échelle. Et juste pour nous montrer que nous avons été ici et avons résolu certains des problèmes, pas à ce niveau d'échelle et pas à cette vitesse. Parce que cela signifie que nous pouvons réellement résoudre le problème et que nous savons quelles sont certaines des réponses; nous devons simplement nous arrêter et réappliquer certains des apprentissages que nous avions auparavant. Et je sais que c'est toute la conversation que nous sommes sur le point d'avoir et j'ai toute une gamme de choses amusantes à discuter dans la section Q&R.

Mais quand on pense à l'internet des objets dans le cercle, il y a actuellement beaucoup de centralisation au niveau de la conception qui a été écrite au tout début. Les appareils Fitbit, par exemple, ont tous tendance à aller à un endroit central et il est probable qu'ils soient hébergés sur une plateforme cloud quelque part et toutes les données de tous ces appareils sont identiques, disons simplement, l'extrémité avant d'une pile, y compris le Web et application et services basés sur les données. Mais au fil du temps, cette échelle nécessitera une réingénierie pour faire face à la quantité de données qui leur parvient et ils le réorganiseront donc il y a plusieurs frontaux et plusieurs copies de la pile dans plusieurs emplacements et régions. Et nous voyons cela et il y a un certain nombre d'exemples que je vais vous donner dont nous pouvons discuter.

Le point clé de cela est que, même si nous avons vu certaines de ces solutions que je suis sur le point de couvrir, l'ampleur et le volume des données et le trafic réseau que l'internet des objets va générer nécessitent un changement urgent du central aux architectures distribuées à mon avis, et nous le savons, mais nous n'avons pas nécessairement compris quelle est la solution. Lorsque nous pensons au concept de l'Internet des objets, c'est un modèle de réseau à grande échelle. Ce sont des tas de choses qui font maintenant du bruit. Des choses qui ne faisaient du bruit que récemment. Et en fait, je pense que c'était hier, je parlais en plaisantant de la pile, mais je suis allé acheter un nouveau grille-pain et il est venu avec une option qui pourrait me dire diverses choses, y compris quand il fallait le nettoyer. Et un nouveau micro-ondes avec une fonctionnalité très similaire et pourrait même envoyer une application sur mon téléphone pour dire que la chose que je réchauffais était maintenant terminée. Et je suis très d'avis que s'il y a deux ou trois choses que je ne veux pas me parler, c'est mon réfrigérateur, mon micro-ondes et mon grille-pain. Je suis assez à l'aise avec eux étant des appareils stupides. Mais j'ai récemment eu une nouvelle voiture, une petite Audi, et elle me parle et j'en suis très content, car les choses dont elle parle sont intéressantes. Comme mettre à jour les cartes en temps réel pour me dire où il y a un meilleur itinéraire pour aller d'un point A à un point B car il détecte du trafic via divers mécanismes avec les données qu'il envoie.

J'ai cette diapositive. Nous avons déjà vu que les modèles de réseau à volume élevé nécessitent un passage de la capture et de la distribution centralisées aux modèles de traitement et d'analyse des données. Nous avons vu les choses bouger des trois petits diagrammes graphiques là sur le bord droit où nous avons, celui à gauche sur les trois, il y a un modèle centralisé avec tous les petits appareils arrivent à l'emplacement central et collecter des données et l'échelle n'est pas si grande, ils y vont très bien. Au milieu, nous avons un modèle et un concentrateur un peu plus décentralisés, ce dont je pense que nous aurons besoin avec l'internet des objets dans la prochaine génération. Et puis sur le côté droit, nous avons ce réseau entièrement distribué et maillé qui est où l'internet des objets et la machine à machine va aller à très court terme à l'avenir, mais nous ne sommes pas tout à fait là pour diverses raisons. Et principalement parce que nous utilisons des plates-formes Internet pour la plupart des communications jusqu'à présent et que nous n'avons pas réellement construit un deuxième réseau pour transporter beaucoup de ces données.

Il existe déjà des seconds réseaux comme le réseau Batelco. Beaucoup de gens ne pensent pas au fait que les réseaux de télécommunications ne sont pas Internet. Internet est une chose très distincte à bien des égards. Ils acheminent les données des smartphones sur les réseaux téléphoniques, puis sur les réseaux téléphoniques et sur Internet en général, où ils les superposent en fait sur deux réseaux. Mais il est tout à fait possible et probable que l'Internet des objets aura besoin d'un autre réseau. Nous parlons de l'Internet industriel en tant que sujet en général, que nous n'entrerons pas dans les détails maintenant, mais essentiellement nous parlons d'un autre réseau qui est spécifiquement conçu pour les types de transport de données ou d'Internet des objets et de machine à machine. la communication.

Mais certains des exemples que je voulais partager où nous avons vu que les réseaux à haut volume et les données distribuées fonctionnent très bien sont des choses comme Internet. Internet a été spécialement conçu et architecturé dès le premier jour pour être capable de survivre à une guerre nucléaire. Si des parties des États-Unis sont détruites, Internet a été conçu pour que les données puissent circuler sur Internet sans perte de paquets pour des raisons que nous sommes toujours connectés. Et cela existe encore aujourd'hui à l'échelle mondiale. Internet a de multiples capacités autour de la redondance et du routage des paquets. Et en fait, Internet est contrôlé par une chose appelée BGP, Border Gateway Protocol, et le Border Gateway Protocol, BGP, est spécifiquement conçu pour faire face à un routeur ou un commutateur ou un serveur en panne. Lorsque vous envoyez ou recevez un e-mail, si vous envoyez trois e-mails de suite, rien ne garantit que chacun de ces e-mails suivra le même itinéraire vers la même destination finale. Ils peuvent se déplacer dans différentes parties d'Internet pour diverses raisons. Il pourrait y avoir une panne, il pourrait y avoir des fenêtres de maintenance où les choses sont hors ligne pour être mises à niveau, il pourrait y avoir juste une congestion dans le réseau, et nous voyons cela avec des choses comme les réseaux de circulation avec les voitures et les transports publics et les navires et les avions. Nous transmettons du contenu à nos appareils comme nos ordinateurs portables, nos tablettes et nos ordinateurs par le biais de navigateurs et ainsi de suite chaque jour via des réseaux de diffusion de contenu. Les réseaux de distribution de contenu consistent à prendre des copies du contenu de votre plate-forme de serveur principale, comme le serveur Web, à déplacer des copies de celui-ci et du cache en petites quantités vers le bord du réseau et à ne vous le livrer que depuis la partie la plus proche du bord.

Anti-spam et cybersécurité - si un événement de spam se produit au Canada et que Microsoft le détecte et constate qu'il y a beaucoup de copies du même e-mail envoyées à un groupe de personnes aléatoires, des sommes de contrôle sont prises à ce sujet, une signature pour ce message est créé et mis en réseau et distribué immédiatement. Et pour que les e-mails n'entrent jamais dans ma boîte de réception, ou si c'est le cas, ils sont immédiatement marqués comme spam car ils ont été détectés ailleurs à la périphérie du réseau. Et donc d'autres parties du bord du réseau sont informées de cette signature de message de spam et elle est placée dans l'index d'une base de données et si ces messages commencent à apparaître de l'autre côté de la planète, nous les détectons et nous savons qu'ils sont du spam. Et il en va de même pour la cybersécurité. Un piratage qui a lieu d'un côté de la planète est détecté et enregistré et cartographié et tout à coup sur l'autre partie du réseau, nous pouvons le combattre et déposer les règles et les politiques et changer pour voir si nous pouvons le bloquer. En particulier avec le nouvel impact de choses comme le déni de service ou le déni de service distribué où des milliers de machines sont utilisées pour attaquer un site Web central.

Bitcoin et la blockchain, sont par défaut, dans sa nature est un grand livre distribué, la blockchain, et fait face à toutes les pannes ou ruptures dans le réseau. Détection et prévention de la fraude, services publics d'électricité et d'eau - nous voyons, vous connaissez le réseau électrique, si une partie du réseau obtient un terrain arboré et enlève un poteau et un fil, ma maison est toujours alimentée en électricité. Je ne le sais même pas, souvent je ne le vois même pas dans les nouvelles. Et nous sommes tous habitués aux réseaux de transport où, à l'origine, il y avait un modèle centralisé, «Toutes les routes conduisaient à Rome», comme on dit, et finalement nous avons dû passer au modèle décentralisé avec des moyeux et des rayons, puis nous sommes allés à un réseau maillé où vous pouvez vous rendre d'un côté à l'autre de la ville à travers divers itinéraires maillés et différentes intersections. Et donc ce que nous voyons ici, c'est que ce modèle centralisé de ce que nous faisons maintenant avec l'internet des objets va devoir aller jusqu'au bout du réseau. Et cela s'applique plus que jamais à l'analytique, c'est-à-dire que nous devons pousser l'analytique vers le réseau. Et pour ce faire, cela nécessite une approche complètement nouvelle dans la façon dont nous accédons et traitons ces données et les flux de données, à mon avis. Nous parlons maintenant d'un scénario où je pense que nous voyons des informations limitées poussées au bord du réseau sur les appareils connectés à Internet, mais nous allons bientôt voir ces appareils augmenter en intelligence et augmenter le niveau d'analyse qu'ils veulent faire. Et à la suite de cela, nous allons devoir pousser ces intelligences de plus en plus à travers le réseau.

Par exemple, les applications intelligentes et les médias sociaux - si nous pensons aux médias sociaux et à certaines des applications intelligentes, ils sont toujours très centraux. Vous savez, il n'y a que deux ou trois centres de données pour Facebook. Google est devenu beaucoup plus décentralisé, mais il existe toujours un nombre limité de centres de données dans le monde. Ensuite, lorsque nous pensons à la personnalisation du contenu, vous devez réfléchir à un niveau très local. Cela se fait en grande partie dans votre navigateur ou sur une couche de réseau de diffusion de contenu local. Et nous pensons aux trackers de santé et de remise en forme - une grande partie des données qui sont collectées sont analysées localement et donc les nouvelles versions des appareils Garmin et Fitbit que vous mettez sur votre poignet, deviennent de plus en plus intelligentes dans l'appareil . Désormais, ils ne renvoient pas toutes les données sur votre fréquence cardiaque à un serveur centralisé pour essayer de faire l'analyse; ils intègrent cette intelligence directement dans l'appareil. La navigation dans la voiture, autrefois, la voiture recevait constamment des mises à jour et des cartes à partir d'un emplacement central, maintenant les intelligences sont dans la voiture et la voiture prend des décisions toute seule et, finalement, les voitures seront maillées. Les voitures se parleront via des réseaux sans fil d'une certaine forme, qui peuvent être sur un réseau sans fil 3G ou 4G dans la prochaine génération, mais finalement ce sera appareil à appareil. Et la seule façon de gérer le volume est de rendre les appareils plus intelligents.

Nous avons déjà des systèmes d'alerte d'urgence qui collecteront des informations localement et les enverront de manière centrale ou dans un réseau maillé et prendront des décisions sur ce qui se passe localement. Par exemple, au Japon, il existe des applications que les gens exécutent sur leur smartphone avec des accéléromètres dans le smartphone. Les accéléromètres du smartphone détectent les vibrations et les mouvements et peuvent déterminer la différence entre un mouvement quotidien normal et les tremblements et les chocs d'un tremblement de terre. Et ce téléphone commencera à vous alerter immédiatement, localement. L'application réelle sait qu'elle détecte les tremblements de terre. Mais il partage également ces données via un réseau dans un modèle de hub et de rayons distribué afin que les personnes proches de vous soient averties immédiatement ou dès que possible lorsque les données transitent par le réseau. Et puis finalement quand il arrive à un emplacement central ou une copie distribuée de l'emplacement central, il repousse les personnes qui ne sont pas dans la zone immédiate, n'ont pas détecté le mouvement de la planète, mais doivent en être avertis car peut-être qu'un tsunami arrive.

Et l'infrastructure de la ville intelligente - le concept d'infrastructure intelligente, nous intégrons déjà l'intellect dans les bâtiments intelligents et l'infrastructure intelligente. En fait, hier, j'ai garé ma voiture en ville dans un nouveau quartier où une partie de la ville est en cours de rénovation et de reconstruction. Et ils ont refait toutes les rues, et il y a des capteurs dans les rues, et le parcmètre réel sait que quand je suis entré avec une voiture, il sait que quand je vais me rafraîchir pour la limite de deux heures qui la voiture n'a pas bougé, et elle ne m'a pas permis de recharger et de rester encore deux heures. J'ai dû monter dans la voiture, sortir de l'espace puis reculer pour la piéger pour me permettre d'y rester encore deux heures. Mais ce qui est intéressant, c'est que finalement nous allons au point où non seulement il détecte la voiture entrant dans la zone en tant que capteur localisé, mais des choses comme les caractéristiques optiques où la reconnaissance sera appliquée avec des caméras regardant ma plaque d'immatriculation, et il saura que je viens de retirer et de reculer et de le piéger, et cela ne me laissera pas renouveler et je continuerai. Ensuite, il distribuera ces données et veillera à ce que je ne puisse pas faire cela ailleurs et tromper le réseau de manière continue également. Parce qu'il doit, par nature, devenir plus intelligent, sinon nous continuerons tous à le duper.

Il y a un exemple de cela dans lequel j'ai personnellement vécu dans la technologie du pare-feu, à la fin des années 80 et au début des années 90, un produit appelé Check Point FireWall-1. Une technologie de pare-feu très simple que nous avons utilisée pour créer des règles et créer des politiques et des règles autour de certaines choses pour dire que les types de trafic via certains ports et adresses IP et réseaux pour se rendre les uns aux autres, le trafic Web d'un endroit à un autre, allant du navigateur et du client à notre serveur. Nous avons résolu ce problème en retirant la logique des pare-feu eux-mêmes et en la déplaçant dans l'ASIC, le circuit intégré spécifique à l'application. Il contrôlait les ports des commutateurs Ethernet. Nous avons constaté que les ordinateurs serveurs, les ordinateurs que nous utilisions réellement comme serveurs pour prendre des décisions en tant que pare-feu, n'étaient pas assez puissants pour gérer le volume de trafic qui les traverse pour chaque petite inspection de paquets. Nous avons résolu le problème en déplaçant la logique requise pour effectuer l'inspection des paquets et les détections Internet dans les commutateurs réseau qui étaient distribués et capables de gérer le volume de données passant par le niveau du réseau. Nous ne nous en préoccupions pas au niveau centralisé avec les pare-feu, nous l'avons déplacé vers les commutateurs.

Et nous avons donc demandé aux fabricants de créer la capacité pour nous de pousser les chemins, les règles et les politiques dans le commutateur Ethernet de sorte qu'au niveau du port Ethernet réel, et peut-être que beaucoup de gens dans le pool ne le connaissent pas parce que nous sommes tous vivant dans un monde sans fil maintenant, mais il était une fois que tout devait se brancher via Ethernet. Maintenant, au niveau du port Ethernet, nous inspections les paquets pour voir s'ils étaient même autorisés à se déplacer dans le commutateur et dans le réseau. C'est en partie ce que nous résolvons actuellement autour de ce défi de capturer des données dans le réseau, en particulier à partir des appareils IRT, et de les inspecter et de faire des analyses dessus et probablement des analyses dessus en temps réel pour prendre des décisions à ce sujet. Et en partie pour obtenir des informations sur la veille économique et des informations sur la façon dont les humains prennent de meilleures décisions et d'autres analyses et performances pour le niveau de machine à machine où les appareils parlent aux appareils et prennent des décisions.

Et cela va être une tendance que nous devons chercher à résoudre dans un avenir immédiat parce que si nous ne le faisons pas, nous allons juste nous retrouver avec ce déluge de bruit. Et nous avons vu dans le monde du Big Data, nous avons vu des choses comme les lacs de données se transformer en marécages de données que nous venons de finir avec un déluge de bruit pour lequel nous n'avons pas compris comment résoudre les analyses de traitement dans un environnement centralisé mode. Si nous ne résolvons pas ce problème, à mon avis, avec l'IoT immédiatement et obtenons une solution de plateforme très rapidement, nous allons nous retrouver dans un très, très mauvais endroit.

Et avec cela à l'esprit, je vais terminer avec mon point de vue qui est que je crois que l'un des plus grands changements qui ont lieu dans le big data et l'espace analytique est actuellement motivé par le besoin immédiat de réagir à l'impact d'Internet des choses sur les analyses à haut volume et en temps réel, en ce que nous devons déplacer les analyses vers le réseau, puis finalement à la périphérie du réseau juste pour faire face à son volume, juste pour le traiter. Et puis finalement, nous l'espérons, nous mettons l'intelligence dans le réseau et la périphérie du réseau dans un modèle concentrateur et à rayons que nous pouvons réellement gérer et obtenir des informations en temps réel et en tirer profit. Et avec cela, je vais passer à notre invité et voir où cette conversation nous mène.

Shawn Rogers: Merci beaucoup. Voici Shawn Rogers de Dell Statistica, et pour commencer, je suis totalement d'accord avec tous les principaux sujets qui ont été abordés ici. Et Rebecca, vous avez commencé avec une idée, vous savez, que ces données ne sont pas nouvelles, et il est remarquable pour moi combien de temps et d'énergie sont consacrés à discuter des données, des données, des données de l'IoT. Et c'est certainement pertinent, vous savez, Robin a fait valoir un bon argument, même si vous faites quelque chose de très simple et que vous vous connectez à un thermostat une fois par seconde, vous savez, vous le faites 24 heures par jour et vous avez réellement, vous savez, quelques défis de données intéressants. Mais, vous savez, en fin de compte - et je pense que beaucoup de gens de l'industrie parlent des données de cette façon - que ce n'est pas vraiment si intéressant et, pour Rebecca, cela existe depuis longtemps, mais nous n'avons pas pu, par le passé, en faire grand usage. Et je pense que l'industrie de l'analyse avancée et l'industrie de la BI en général commencent à vraiment tourner la tête vers l'IoT. Et Dez, jusqu'à votre dernier point, cela fait partie ou est l'un des points difficiles du paysage du Big Data, je pense que c'est très vrai. Je pense que tout le monde est très enthousiasmé par ce que nous pouvons faire avec ce type de données, mais en même temps, si nous ne pouvons pas trouver comment appliquer les informations, agir et, vous savez, obtenir des analyses où se trouvent les données, je pense nous allons avoir des défis que les gens ne voient pas vraiment venir à leur rencontre.

Cela dit, dans l'espace d'analyse avancée, nous sommes de grands fans de ce que nous pensons pouvoir arriver avec les données IoT, surtout si nous y appliquons des analyses. Et il y a beaucoup d'informations sur cette diapositive et je vais laisser tout le monde chasser et picorer, mais si vous regardez différents secteurs comme la vente au détail à l'extrême droite, voyez leur opportunité se présenter autour de la possibilité d'être plus innovant ou d'en avoir les économies de coûts ou l'optimisation ou l'amélioration des processus sont très importants et ils voient beaucoup de cas d'utilisation pour cela. Si vous regardez, vous savez, de gauche à droite sur la diapositive, vous verrez comment chacune de ces industries individuelles revendique de nouvelles capacités et de nouvelles opportunités de différenciation lorsqu'elle applique des analyses à l'IoT. Et je pense qu'en fin de compte, si vous voulez vous engager dans cette voie, vous devez non seulement vous soucier des données, comme nous en avons discuté, et de l'architecture, mais vous devez également appliquez-y l'analytique et où l'analytique doit avoir lieu.

Pour beaucoup d'entre nous lors de l'appel d'aujourd'hui, vous savez, Robin et moi nous connaissons depuis très longtemps et avons eu d'innombrables conversations sur les architectures traditionnelles dans le passé, celles autour de bases de données centralisées ou d'entrepôts de données d'entreprise, etc., et comme nous '' Nous avons constaté au cours de la dernière décennie environ que nous avons réussi à étirer les limites de ces infrastructures. Et ils ne sont pas aussi constants ou aussi forts que nous le souhaiterions aujourd'hui pour prendre en charge toutes les excellentes analyses que nous appliquons aux informations et, bien sûr, les informations cassent également l'architecture, vous savez, la vitesse des données, le volume des données, etc., étendent définitivement les limites de certaines de nos approches et stratégies plus traditionnelles à ce type de travail. Et donc je pense que cela commence à appeler à la nécessité pour les entreprises d'adopter un point de vue plus agile et peut-être plus flexible à ce sujet et c'est la partie, je suppose, j'aimerais parler un peu du côté de l'IoT.

Avant de le faire, je vais prendre un instant pour laisser tout le monde à l'appel, vous donner un peu de contexte sur ce qu'est Statistica et ce que nous faisons. Comme vous pouvez le voir sur le titre de cette diapositive, Statistica est une analyse prédictive, des données volumineuses et une visualisation pour la plate-forme IoT. Le produit lui-même a un peu plus de 30 ans et nous rivalisons avec les autres leaders du marché que vous connaissez probablement en ce qui concerne la possibilité d'appliquer des analyses prédictives, des analyses avancées aux données. Nous avons vu une opportunité d'élargir notre portée là où nous mettions nos analyses et avons commencé à travailler sur certaines technologies il y a quelque temps qui nous ont plutôt bien positionnés pour tirer parti de ce dont Dez et Robin ont parlé aujourd'hui, qui est cette nouvelle approche et où vous allez placer les analyses et comment vous allez les fusionner avec les données. De ce côté viennent d'autres choses que vous devez pouvoir aborder avec la plate-forme, et comme je l'ai mentionné, Statistica est sur le marché depuis longtemps. Nous sommes très bons dans le domaine de la fusion des données et je pense que vous savez, nous n'avons pas trop parlé de l'accès aux données aujourd'hui, mais être en mesure de toucher ces différents réseaux et de mettre la main sur les bonnes données au le bon moment devient de plus en plus intéressant et important pour les utilisateurs finaux.

Enfin, je commenterai un élément de plus ici, car Dez a fait un bon point sur les réseaux eux-mêmes, ayant un certain niveau de contrôle et de sécurité sur les modèles analytiques dans votre environnement et sur la façon dont ils s'attachent aux données qui deviennent très importantes. Lorsque je suis entré dans cette industrie il y a quelques années - près de 20 je pense à ce stade - lorsque nous avons parlé d'analytique avancée, c'était de manière très organisée. Seules quelques personnes de l'organisation y ont mis la main, l'ont déployée et ont donné aux gens la réponse requise ou fourni des informations si nécessaire. Cela change vraiment et ce que nous voyons, c'est que beaucoup de gens travaillaient avec un ou plusieurs moyens diversifiés et plus flexibles d'atteindre les données, d'appliquer la sécurité et la gouvernance aux données, puis de pouvoir y collaborer. Ce sont quelques-unes des choses importantes que Dell Statistica examine.

Mais je veux plonger dans le sujet qui se rapproche un peu du titre d'aujourd'hui, à savoir comment traiter les données provenant de l'Internet des objets et ce que vous voudrez peut-être rechercher lorsque vous envisagez différentes solutions. La diapositive que j'ai devant vous en ce moment est une sorte de vue traditionnelle et Dez et Robin ont en quelque sorte abordé cette idée de parler à un capteur, que ce soit une automobile, un grille-pain ou une éolienne, ou quoi d'autre, puis déplacer ces données de la source de données vers votre réseau vers une configuration centralisée, comme Dez l'a mentionné. Et il se connecte assez bien et de nombreuses entreprises se lancent dans l'espace IoT à l'origine avec ce modèle.

L'autre chose qui est venue, si vous regardez vers le bas de la diapositive, est cette idée de prendre d'autres sources de données traditionnelles, d'augmenter vos données IoT, puis ce type de noyau, que votre noyau soit un centre de données ou pourrait être dans le cloud, cela n'a pas vraiment d'importance, vous prendriez un produit comme Statistica, puis lui appliqueriez des analyses à ce moment-là, puis fourniriez ces informations aux consommateurs à droite. Et je pense que ce sont des enjeux de table à ce stade. C'est quelque chose que vous devez être en mesure de faire et vous devez avoir une architecture suffisamment ouverte pour une plate-forme d'analyse avancée et parler à tous ces types de sources de données diverses, tous ces capteurs et toutes ces différentes destinations où vous avez les données. Et je pense que c'est quelque chose que vous devez être capable de faire et je pense que vous constaterez qu'il est vrai que beaucoup de leaders sur le marché sont capables de faire ce genre de choses. Chez Statistica, nous en parlons en quelque sorte en tant qu'analytique de base. Allez chercher les données, ramenez les données au cœur, traitez-les, ajoutez plus de données si nécessaire ou si elles sont avantageuses, et faites vos analyses, puis partagez ces informations pour l'action ou pour un aperçu.

Et donc je pense que ceux-ci sont certainement du point de vue de la fonction, nous serions probablement tous d'accord pour dire que, vous savez, c'est la simple nécessité et que tout le monde doit le faire. Là où cela commence à devenir intéressant, c'est là où vous avez d'énormes quantités de données, vous savez, provenant de diverses sources de données, comme les capteurs IoT, comme je l'ai mentionné, que ce soit une voiture ou une caméra de sécurité ou un processus de fabrication, il commence à devenir un avantage à pouvoir faire l'analyse où les données sont réellement produites. Et l'avantage pour la plupart des gens, je pense, lorsque nous commençons à déplacer l'analyse du cœur vers le bord, c'est cette capacité de diffuser certains des problèmes de données qui se produisent, et Dez et Robin commenteront probablement cela à la fin aujourd'hui, mais je pense que vous devez être en mesure de surveiller et de prendre des mesures sur les données en périphérie afin qu'il ne soit pas toujours nécessaire de déplacer toutes ces données sur votre réseau. Robin en a parlé dans ses photos d'architecture qu'il a dessinées, où vous avez toutes ces différentes sources, mais il y a généralement un point d'agrégation. Le point d'agrégation que nous voyons assez souvent se situe soit au niveau du capteur, mais encore plus souvent au niveau de la passerelle. Et ces passerelles existent comme une sorte d'intermédiaire dans le flux de données provenant des sources de données avant de revenir au cœur.

L'une des opportunités dont Dell Statistica a profité est que notre capacité d'exporter un modèle à partir de notre plate-forme d'analyse avancée centralisée pour pouvoir prendre un modèle puis l'exécuter en périphérie sur une plate-forme différente, comme une passerelle ou à l'intérieur d'une base de données, ou qu'avez-vous. Et je pense que la flexibilité que cela nous donne est ce qui est vraiment le point intéressant de la conversation d'aujourd'hui, est-ce que vous avez cela dans votre infrastructure aujourd'hui? Êtes-vous capable de déplacer une analyse vers le lieu où se trouvent les données plutôt que de toujours déplacer les données vers le lieu de votre analyse? Et c'est quelque chose sur lequel Statistica se concentre depuis un certain temps, et en regardant de plus près les diapositives, vous verrez qu'il y a une autre technologie de notre société sœur, Dell Boomi. Dell Boomi est une plate-forme d'intégration de données et d'intégration d'applications dans le cloud et nous utilisons réellement Dell Boomi comme périphérique de gestion de trafic pour déplacer nos modèles de Dell Statistica, via Boomi et hors des périphériques périphériques. Et nous pensons que c'est une approche agile que les entreprises vont exiger, autant qu'elles aiment la version que je vous ai montrée il y a une minute, qui est le genre d'idée de base de déplacer les données des capteurs jusqu'à la centre, en même temps, les entreprises voudront pouvoir le faire de la manière que je décris ici. Et les avantages pour cela sont liés à certains des points soulevés par Robin et Dez, à savoir, pouvez-vous prendre une décision et agir à la vitesse de votre entreprise? Pouvez-vous déplacer des analyses d'un endroit à un autre et être en mesure d'économiser du temps, de l'argent, de l'énergie et de la complexité de déplacer constamment ces données de pointe vers le cœur.

Maintenant, je suis le premier à dire que certaines des données de périphérie auront toujours un mérite suffisamment élevé là où il serait logique de stocker ces données et de les conserver et de les ramener sur votre réseau, mais quelles analyses de périphérie vous permettront de est la capacité de prendre des décisions à la vitesse à laquelle les données arrivent réellement, non? Que vous êtes en mesure d'appliquer la perspicacité et l'action à une vitesse où la valeur la plus élevée est. Et je pense que c'est quelque chose que nous allons tous rechercher quand il s'agit d'utiliser des analyses avancées et des données IoT, c'est l'occasion de se déplacer à la vitesse de l'entreprise ou à la vitesse demandée par le client. Je pense que notre position est que je pense que vous devez être capable de faire les deux. Et je pense que très bientôt et très rapidement, alors que de plus en plus d'entreprises examinent des ensembles de données plus diversifiés, en particulier ceux du côté IoT, elles vont commencer à regarder l'espace des fournisseurs et à demander ce que Statistica est capable de faire. Ce qui consiste à déployer un modèle au cœur, comme nous le faisons traditionnellement depuis de nombreuses années, ou à le déployer sur des plateformes qui ne sont peut-être peut-être pas traditionnelles, comme une passerelle IoT, et être en mesure de noter et d'appliquer des analyses aux données au bord que les données sont produites. Et je pense que c'est là que la partie passionnante de cette conversation entre en jeu. Parce qu'en étant capable d'appliquer une analyse au bord au moment où les données sortent d'un capteur, nous permet d'agir aussi vite que nous le devons, mais nous permet également de décider, ces données doivent-elles remonter immédiatement au cœur? Pouvons-nous le regrouper ici, puis le renvoyer en morceaux et en parties et faire une analyse plus approfondie plus tard? Et c'est ce que font beaucoup de nos principaux clients.

La façon dont Dell Statistica le fait est que nous avons une capacité d'utilisation, alors disons par exemple que vous construisez un réseau neuronal à l'intérieur de Statistica et que vous vouliez placer le réseau neuronal ailleurs dans votre paysage de données. Nous avons la capacité de produire ces modèles et tous les langages que vous avez remarqués dans le coin droit là-bas - Java, PPML, C et SQL et ainsi de suite, nous incluons également Python et nous pouvons également exporter nos scripts - et au fur et à mesure que vous le supprimez de notre plate-forme qui est centralisée, vous pouvez ensuite déployer ce modèle ou cet algorithme où vous en avez besoin. Et comme je l'ai mentionné plus tôt, nous utilisons Dell Boomi pour le mettre et le garer là où nous devons l'exécuter, puis nous pouvons ramener les résultats, ou nous pouvons aider à ramener les données, ou à marquer les données et à prendre des mesures en utilisant notre moteur de règles . Toutes ces choses deviennent en quelque sorte importantes lorsque nous commençons à examiner ce type de données et que nous y réfléchissons à nouveau.

C'est quelque chose que la plupart d'entre vous au téléphone auront besoin de faire car cela deviendra très coûteux et taxera votre réseau, comme l'a mentionné Dez, de déplacer les données de la gauche de ces diagrammes vers la droite de ces diagrammes. temps. Cela ne semble pas beaucoup, mais nous avons vu des clients de fabrication avec dix mille capteurs dans leurs usines. Et si vous avez dix mille capteurs dans votre usine, même si vous ne faites que ceux-ci une seconde sorte de tests ou de signaux, vous parlez de quatre-vingt-quatre mille lignes de données de chacun de ces capteurs par jour. Et donc les données s'accumulent définitivement et Robin l'a en quelque sorte mentionné. Au départ, j'ai mentionné quelques-unes des industries où nous voyons des gens faire des choses assez intéressantes en utilisant nos logiciels et nos données IoT: l'automatisation des bâtiments, l'énergie, les services publics est un espace vraiment important. Nous voyons beaucoup de travail se faire sur l'optimisation du système, même le service client et bien sûr l'ensemble des opérations et de la maintenance, dans les installations énergétiques et dans le bâtiment pour l'automatisation. Et ce sont des cas d'utilisation que nous voyons sont assez puissants.

Nous avons fait des analyses de bord avant, je suppose, le terme a été inventé. Comme je l'ai mentionné, nous avons des racines profondes chez Statistica. La société a été fondée il y a près de 30 ans, nous avons donc des clients qui remontent un certain temps qui intègrent les données IoT à leurs analyses et ce depuis un certain temps. Et Alliant Energy est l'un de nos cas d'utilisation ou clients de référence. Et vous pouvez imaginer le problème qu'une entreprise d'énergie a avec une usine physique. La mise à l'échelle au-delà des murs de briques d'une usine physique est difficile et les sociétés énergétiques comme Alliant recherchent des moyens d'optimiser leur production d'énergie, améliorant fondamentalement leur processus de fabrication et l'optimisant au plus haut niveau. Et ils utilisent Statistica pour gérer les fours de leurs usines. Et pour nous tous qui remontons à nos débuts en classe de sciences, nous savons tous que les fours produisent de la chaleur, la chaleur fait de la vapeur, les turbines tournent, nous obtenons de l'électricité. Le problème pour des entreprises comme Alliant est en fait d'optimiser la façon dont les choses chauffent et brûlent dans ces grands fours à cyclone. Et optimiser le rendement pour éviter les coûts supplémentaires de pollution, de déplacement de carbone, etc. Et vous devez donc être en mesure de surveiller l'intérieur de l'un de ces fours à cyclone avec tous ces appareils, capteurs, puis prendre toutes ces données de capteur et apporter des modifications au processus énergétique sur une base continue. Et c'est exactement ce que Statistica fait pour Alliant depuis environ 2007, avant même que le terme IoT ne soit très populaire.

Pour Rebecca au début, les données ne sont certainement pas nouvelles. La capacité de le traiter et de l'utiliser correctement est vraiment là où les choses passionnantes se produisent. Nous avons parlé un peu des soins de santé lors de la pré-convocation aujourd'hui et nous voyons toutes sortes d'applications pour que les gens fassent des choses comme de meilleurs soins aux patients, l'entretien préventif, la gestion de la chaîne d'approvisionnement et l'efficacité opérationnelle des soins de santé. Et c'est assez continu et il y a beaucoup de cas d'utilisation différents. Nous en sommes très fiers chez Statistica avec notre client Shire Biopharmaceuticals. Et Shire fabrique des médicaments spécialisés pour les maladies vraiment difficiles à traiter. Et quand ils créent un lot de leurs médicaments pour leurs clients, c'est un processus extrêmement coûteux et ce processus extrêmement coûteux prend également du temps. Lorsque vous pensez à un processus de fabrication tel que vous le voyez, les défis consistent à unifier toutes les données, à être suffisamment flexible entre les différentes façons de mettre les données dans le système, à valider les informations et à pouvoir ensuite prédire comment nous aidons ce client. Et les processus qui tiraient la plupart des informations de nos systèmes de fabrication et bien sûr les appareils et capteurs qui pilotent ces systèmes de fabrication. Et c'est un excellent cas d'utilisation pour savoir comment les entreprises évitent les pertes et optimisent leurs processus de fabrication en utilisant une combinaison de données de capteurs, de données IoT et de données régulières de leurs processus.

Vous savez donc, un bon exemple de cas où la fabrication, et en particulier la fabrication de haute technologie, profite à l'industrie des soins de santé dans ce type de travail et de données. Je pense que je n'ai que quelques autres points que j'aimerais faire avant de conclure et de le redonner à Dez et Robin. Mais vous savez, je pense que cette idée de pouvoir pousser votre analyse n'importe où dans votre environnement va devenir extrêmement importante pour la plupart des entreprises. Être attaché au format traditionnel des données ETL-ing à partir de sources vers des emplacements centraux aura toujours une place dans votre stratégie, mais ne devrait pas être votre seule stratégie. Vous devez adopter une approche beaucoup plus flexible des choses aujourd'hui. Afin d'appliquer la sécurité que j'ai mentionnée, évitez de taxer votre réseau, de pouvoir gérer et filtrer les données telles qu'elles proviennent de la périphérie, et déterminer quelles données méritent d'être conservées à long terme, quelles données valent la peine d'être traversées à notre réseau, ou quelles données doivent être analysées au moment de leur création, pour que nous puissions prendre les meilleures décisions possibles. Cette approche analytique partout et n'importe où est quelque chose que nous prenons très à cœur chez Statistica et c'est quelque chose que nous maîtrisons très bien. Et cela remonte à l'une de ces diapositives que j'ai mentionnées plus tôt, la possibilité d'exporter vos modèles dans une variété de langues, afin qu'ils puissent correspondre et s'aligner sur les plates-formes sur lesquelles les données sont créées. Et puis, bien sûr, avoir un dispositif de distribution pour ces modèles, ce qui est également quelque chose que nous apportons à la table et qui nous passionne beaucoup. Je pense que la conversation d'aujourd'hui est la suivante: si nous voulons vraiment prendre au sérieux ces données qui sont dans nos systèmes depuis longtemps et que nous aimerions trouver un avantage concurrentiel et un angle innovant pour les utiliser, vous devez appliquer une technologie qui vous permet de vous éloigner de certains de ces modèles restrictifs que nous avons utilisés dans le passé.

Encore une fois, mon point de vue est que si vous allez faire l'IoT, je pense que vous devez être en mesure de le faire au cœur, et d'apporter les données et de les faire correspondre avec d'autres données et de faire vos analyses. Mais également, tout aussi important ou peut-être encore plus important, vous devez avoir cette flexibilité pour mettre l'analyse avec les données et déplacer l'analytique du côté central de votre architecture vers le bord pour les avantages que j'ai mentionnés avant. Cela dépend un peu de qui nous sommes et de ce que nous faisons sur le marché. Et nous sommes très enthousiastes à propos de l'IoT, nous pensons qu'il arrive définitivement à maturité et il y a de grandes opportunités pour tout le monde ici d'influencer leurs analyses et processus critiques avec ce type de données.

Rebecca Jozwiak: Shawn, merci beaucoup, c'était une présentation vraiment fantastique. Et je sais que Dez meurt probablement de vous poser quelques questions, alors Dez, je vous laisse partir en premier.

Dez Blanchfield: J'ai un million de questions mais je vais me contenir parce que je sais que Robin en aura aussi. L'une des choses que je vois de loin est une question qui se pose et je tiens vraiment à avoir un aperçu de votre expérience dans ce domaine étant donné que vous êtes au cœur des choses. Les organisations sont aux prises avec le défi, et il semble que certaines d'entre elles viennent de lire des extraits de «La quatrième révolution industrielle» de Klaus Schwab, puis ont eu une crise de panique. Et ceux qui ne connaissent pas ce livre, c'est essentiellement un aperçu par un gentleman, par Klaus Schwab, qui je pense est un professeur, qui est le fondateur et président exécutif du Forum économique mondial de mémoire, et le livre est essentiellement sur tout cet Internet omniprésent de l'explosion des choses et une partie de l'impact sur le monde en général. Les organisations à qui je parle ne savent pas si elles devraient aller rénover l'environnement actuel ou investir tout dans la construction d'un nouvel environnement, d'une infrastructure et de plates-formes. Dans Dell Statistica également, voyez-vous des gens moderniser les environnements actuels et déployer votre plate-forme dans l'infrastructure existante, ou les voyez-vous se concentrer sur la construction de toutes les nouvelles infrastructures et se préparer à ce déluge?

Shawn Rogers: Vous savez, nous avons eu l'occasion de servir les deux types de clients et d'être sur le marché aussi longtemps que nous l'avons, vous avez la possibilité de vous élargir. Nous avons des clients qui ont créé de toutes nouvelles usines fab au cours des deux dernières années et les ont équipés de données de capteurs, d'IoT, d'analyses de bout en bout tout au long de ce processus. Mais je dois dire que la plupart de nos clients sont des personnes qui effectuent ce type de travail depuis un certain temps mais ont été forcées d'ignorer ces données. Vous savez, Rebecca a fait le point dès le départ - ce ne sont pas de nouvelles données, ce type d'informations est en quelque sorte disponible dans de nombreux formats différents depuis très longtemps, mais là où le problème avait été de s'y connecter, le déplacer, l'amener quelque part où vous pourriez faire quelque chose d'intelligent avec.

Et donc je dirais que la plupart de nos clients regardent ce qu'ils ont aujourd'hui, et Dez, vous avez déjà fait valoir ce point, que cela fait partie de cette révolution du Big Data et je pense que ce dont il s'agit vraiment, c'est de tout révolution des données, non? Nous n'avons plus à ignorer certaines données du système ou des données de fabrication ou des données d'automatisation du bâtiment, nous avons maintenant les bons jouets et outils pour aller les chercher et ensuite faire des choses intelligentes avec. Et je pense qu'il y a beaucoup de moteurs dans cet espace qui font que cela se produise et certains d'entre eux sont technologiques. Vous savez, les solutions d'infrastructure de Big Data comme Hadoop et d'autres ont rendu un peu moins cher et un peu plus facile pour certains d'entre nous de penser à créer un lac de données de ce type d'informations. Et nous regardons maintenant autour de l'entreprise pour dire: «Hé, nous avons des analyses dans notre processus de fabrication, mais seraient-elles améliorées si nous pouvions ajouter un aperçu de ces processus?» Et c'est, je pense, ce que la plupart des nos clients font. Il ne s'agit pas tant de créer à partir de zéro, mais d'augmenter et d'optimiser les analyses dont ils disposent déjà avec des données nouvelles pour eux.

Dez Blanchfield: Oui, il y a des choses passionnantes à travers certaines des plus grandes industries que nous avons vues, et vous avez mentionné, l'électricité et les services publics. L'aviation vient de traverser ce boom où l'un de mes appareils préférés de tous les temps dont je parle régulièrement, le Boeing 787 Dreamliner, et certainement l'équivalent d'Airbus, l'A330 a emprunté la même voie. Il y avait environ six mille capteurs dans le 787 lors de sa sortie, et je pense qu'ils parlent maintenant de quinze mille capteurs dans sa nouvelle version. Et la chose curieuse de parler à certains des gens qui sont dans ce monde était que l'idée de mettre des capteurs dans les ailes et ainsi de suite, et la chose étonnante à propos du 787 dans une plate-forme de conception est que, vous savez, ils ont tout réinventé dans l'avion. Comme les ailes, par exemple, lorsque l'avion décolle, les ailes fléchissent jusqu'à douze mètres et demi. Mais à l'extrême, les ailes peuvent fléchir à la pointe jusqu'à 25 mètres. Cette chose ressemble à un oiseau qui bat. Mais ce qu'ils n'ont pas eu le temps de résoudre, c'est l'ingénierie de l'analyse de toutes ces données, ils ont donc des capteurs qui font clignoter les LED en vert et rouge en cas de problème, mais ils ne se retrouvent pas réellement avec des informations approfondies sur temps réel. Et ils n'ont pas non plus résolu le problème de la façon de déplacer le volume de données, car dans l'espace aérien intérieur des États-Unis, il y a quotidiennement 87 400 vols. Lorsque chaque avion rattrape ses achats d'un 787 Dreamliner, cela représente 43 pétaoctets par jour de données, car ces avions créent actuellement environ un demi-téraoctet de données chacun. Et lorsque vous multipliez ces 87 400 vols par jour aux États-Unis par cinq ou un demi-téraoctet, vous vous retrouvez avec 43, 5 pétaoctets de données. Nous ne pouvons physiquement pas déplacer cela. Donc, par conception, nous devons pousser les analyses dans l'appareil.

Mais l'une des choses qui est intéressante quand je regarde toute cette architecture - et je suis impatient de voir ce que vous en pensez - est que nous sommes passés à la gestion des données de base, en quelque sorte, les premiers principes de la gestion des données, en tirant tout dans un emplacement central. Nous avons des lacs de données, puis nous créons de petits bassins de données si vous le souhaitez, des extraits de ceux sur lesquels nous effectuons des analyses, mais en distribuant sur le bord, l'une des choses qui revient constamment, en particulier des personnes de la base de données et des gestionnaires de données ou les gens qui s'occupent de la gestion de l'information, que se passe-t-il lorsque j'ai beaucoup de petits lacs de données miniatures distribués? Quel genre de choses ont été appliquées à cette réflexion en ce qui concerne l'analyse de périphérie dans votre solution, en ce que, traditionnellement, tout viendrait de manière centralisée avec le lac de données, maintenant nous nous retrouvons avec ces petites flaques de données partout, et même si nous pouvons effectuer des analyses sur eux localement pour obtenir des informations locales, quels sont les défis auxquels vous avez été confronté et comment vous avez résolu cela, avoir cet ensemble de données distribuées, et en particulier lorsque vous obtenez les microcosmes des lacs de données et des zones distribuées?

Shawn Rogers: Eh bien, je pense que c'est l'un des défis, non? Alors que nous nous éloignons, vous savez, du transport de toutes les données vers l'emplacement central ou l'exemple analytique de base que j'ai donné, puis nous faisons la version distribuée, c'est que vous vous retrouvez avec tous ces petits silos, non? Tout comme vous l'avez représenté, non? Ils font un peu de travail, certaines analyses sont en cours, mais comment les regrouper? Et je pense que la clé va être l'orchestration à travers tout cela et je pense que vous serez d'accord avec moi, mais je suis heureux si vous ne le faites pas, que je pense que nous observons cette évolution depuis assez longtemps parfois.

Pour en revenir à l'époque de nos amis M. Inmon et M. Kimball qui aidaient tout le monde à l'architecture de leurs premiers investissements dans l'entrepôt de données, le fait est que nous nous sommes éloignés de ce modèle centralisé depuis longtemps. Nous avons adopté cette nouvelle idée de permettre aux données de démontrer leur gravité là où elles devraient le mieux résider à l'intérieur de votre écosystème et d'aligner les données avec la meilleure plateforme possible pour le meilleur résultat possible. Et nous avons commencé à dépenser, je pense, une approche plus orchestrée de notre écosystème comme une manière globale de faire les choses, comme c'est le cas lorsque nous essayons d'aligner toutes ces pièces à la fois. Quel type d'analyse ou de travail vais-je faire avec les données, de quel type de données s'agit-il, qui aideront à dicter où elles devraient vivre. Où est-elle produite et quel type de gravité les données ont-elles?

Vous savez, nous voyons beaucoup de ces exemples de Big Data où les gens parlent d'avoir des lacs de données de 10 et 15 pétaoctets. Eh bien, si vous avez un lac de données aussi gros, il est très difficile pour vous de le déplacer et vous devez donc être en mesure d'y apporter des analyses. Mais lorsque vous faites cela, au cœur de votre question, je pense que cela soulève beaucoup de nouveaux défis pour tout le monde pour orchestrer l'environnement et appliquer la gouvernance et la sécurité, et comprendre ce qui doit être fait avec ces données pour les conserver et tirer le meilleur parti de celui-ci. Et pour être honnête avec vous - j'aimerais entendre votre opinion ici - je pense que nous en sommes aux premiers jours et je pense qu'il y a encore beaucoup de bon travail à faire. Je pense que des programmes comme Statistica se concentrent sur l'accès d'un plus grand nombre de personnes aux données. Nous nous concentrons sans aucun doute sur ces nouveaux personnages, comme le data scientist citoyen qui souhaite conduire l'analyse prédictive à des endroits de l'organisation qui n'auraient peut-être pas existé auparavant. Et je pense que ce sont quelques-uns des premiers jours autour de cela, mais je pense que l'arc de maturité va devoir démontrer un niveau élevé ou une orchestration et un alignement entre ces plates-formes, et une compréhension de ce qui est sur elles et pourquoi. Et c'est un problème séculaire pour nous tous les gens de données.

Dez Blanchfield: En effet, c'est le cas et je suis entièrement d'accord avec vous à ce sujet et je pense que la grande chose que nous entendons ici aujourd'hui est au moins à l'avant-plan du problème de la capture des données au niveau, je suppose, de la passerelle au bord du réseau et la capacité de faire des analyses à ce stade est essentiellement résolue maintenant. Et cela nous libère maintenant pour commencer à réfléchir au prochain défi, à savoir les lacs de données distribués. Merci beaucoup pour cela, c'était une présentation fantastique. J'apprécie vraiment la chance de discuter avec vous à ce sujet.

Je vais passer à Robin maintenant parce que je sais qu'il l'a fait, puis Rebecca a également reçu une longue liste de bonnes questions du public après Robin. Robin?

Dr Robin Bloor: D'accord. Shawn, j'aimerais que vous en disiez un peu plus et je n'essaie pas de vous donner la chance d'en faire la publicité, mais c'est en fait très important. J'aimerais savoir à quel moment Statistica a réellement généré la capacité d'exportation de modèle. Mais moi aussi, je voudrais que vous disiez quelque chose à propos de Boomi parce que tout ce que vous avez dit jusqu'à présent sur Boomi, c'est que c'est ETL, et c'est bien ETL. Mais il s'agit en fait d'un ETL tout à fait capable et pour le type de timing dont nous parlons, et certaines des situations dont nous discutons ici, c'est une chose très importante. Pourriez-vous me parler de ces deux choses?

Shawn Rogers: Bien sûr, oui, je le peux absolument. Vous savez, notre mouvement dans cette direction était certainement itératif et c'était en quelque sorte un processus étape par étape. Nous nous préparons juste la semaine prochaine pour lancer la version 13.2 de Statistica. Et il a les dernières mises à jour de toutes les capacités dont nous parlons aujourd'hui. Mais pour revenir à la version 13, il y a un an, en octobre, nous avons annoncé notre capacité d'exporter des modèles à partir de notre plate-forme, et nous l'appelions alors NDAA. L'acronyme signifiait Native Distributed Analytics Architecture. Ce que nous avons fait, c'est que nous consacrons beaucoup de temps, d'énergie et nous concentrons sur l'ouverture de notre plate-forme avec la possibilité de l'utiliser comme centre de commande central pour vos analyses avancées, mais aussi de déployer à partir de là. Et les premiers endroits, Robin, que nous avons déployés, nous avons fait un très, très bon ajout à la plate-forme autour de l'apprentissage automatique. Et nous avons donc eu la possibilité de déployer de Statistica vers Azure Cloud de Microsoft pour utiliser la puissance d'Azure pour alimenter l'apprentissage automatique, comme vous le savez, est très intensif et c'est un excellent moyen d'utiliser les technologies cloud. Et c'était donc le premier morceau.

Maintenant, ici, nous exportions nos modèles vers Azure et utilisions Azure pour les exécuter, puis renvoyions les données ou les résultats à la plate-forme Statistica. Et puis nous sommes passés à d'autres langages à partir desquels nous voulions pouvoir exporter, et bien sûr l'un d'entre eux étant Java nous ouvre la porte pour maintenant commencer à exporter nos modèles vers d'autres endroits comme Hadoop, alors cela a donné nous une pièce là aussi.

Et enfin, nous nous sommes concentrés sur la possibilité de produire nos modèles avec cette version dans des bases de données. Et donc c'était la première itération et pour être honnête avec vous, le jeu final était l'IoT mais nous n'étions pas encore là avec la version 13 en octobre dernier. Depuis lors, nous y sommes arrivés et cela a à voir avec la capacité de faire tout ce que je viens de mentionner, mais ensuite d'avoir une sorte d'appareil de transport. Et pour en revenir à la question de Dez, vous savez, quel est le défi et comment pouvons-nous faire cela lorsque toutes ces analyses circulent? Eh bien, nous utilisons Boomi comme une sorte de centre de distribution et donc parce qu'il est dans le cloud et parce qu'il est si puissant, comme je l'ai mentionné précédemment, c'est une plate-forme d'intégration de données, mais c'est aussi une plate-forme d'intégration d'applications, et il utilise des machines virtuelles Java pour nous permettre pour stationner et travailler partout où vous pouvez faire atterrir une machine virtuelle Java. C'est ce qui a vraiment ouvert la porte à toutes ces passerelles et plates-formes informatiques et serveurs de périphérie, car tous ont le calcul et la plate-forme disponibles pour exécuter une JVM. Et parce que nous pouvons exécuter la JVM n'importe où, Boomi a tourné pour être une merveilleuse distribution et, en utilisant ma parole plus tôt, un dispositif d'orchestration.

Et cela devient vraiment important parce que nous avons tous, vous savez, je pense que le scénario d'avion il y a une minute était génial, et j'ai mentionné, vous savez, des fabricants comme Shire qui ont dix mille capteurs dans une de leurs usines, vous doivent commencer à aborder le type d'approche centrale de l'analyse avancée à un moment donné. Être ad hoc à ce sujet ne fonctionne plus vraiment. Auparavant, le volume de modèles et d'algorithmes que nous utilisions était minime, mais il est maintenant au maximum. Il y en a des milliers dans une organisation. Nous avons donc, une partie de notre plate-forme est basée sur le serveur et lorsque vous avez notre logiciel d'entreprise, vous avez également la possibilité de modifier, de noter et de gérer vos modèles dans l'environnement. Et cela fait également partie de cette histoire d'orchestration. Nous devions avoir une couche, Robin, en place qui vous permettait non seulement d'obtenir un modèle là-bas, mais vous donnait également un moyen de peaufiner les modèles et de les remplacer régulièrement aussi souvent que nécessaire, car ce n'est pas quelque chose que vous pouvez faire manuellement. Vous ne pouvez pas vous promener dans une raffinerie avec une clé USB en essayant de télécharger des modèles vers des passerelles. Vous devez avoir un système de transport et de gestion entre les deux, et donc la combinaison de Statistica et Boomi donne cela à nos clients.

Dr Robin Bloor: Oui. Eh bien, je serai très bref, mais, vous savez, cette déclaration qui a été faite auparavant sur le lac de données et l'idée d'accumuler des pétaoctets dans un endroit donné, et le fait qu'il a de la gravité. Vous savez, quand vous avez commencé à parler d'orchestration, j'ai commencé à penser au fait très simple que, vous savez, mettre un lac de données qui est très grand en un seul endroit signifie probablement que vous devez réellement le sauvegarder et cela signifie probablement que vous devez de toute façon déplacer beaucoup de données. Vous savez, la véritable architecture de données est beaucoup plus, à mon avis en tout cas, beaucoup plus dans la direction dont vous parlez. Ce qui est de le distribuer à des endroits sensibles, c'est probablement la chose que je dirais. Et il semble que vous ayez une très bonne capacité à le faire. Je veux dire, je suis bien informé sur Boomi donc c'est en quelque sorte, d'une manière ou d'une autre, presque injuste que je puisse le voir et peut-être que le public ne peut pas. Mais Boomi est si essentiel, à mon avis, en termes de ce que vous faites parce qu'il a des capacités d'application. Et aussi parce que la vérité est que vous ne faites pas ces calculs analytiques sans vouloir agir quelque part quelque part pour une raison ou une autre. Et Boomi y joue un rôle, non?

Shawn Rogers: Oui, absolument. Et comme vous le savez des conversations précédentes, Statistica a un moteur de règles métier à part entière. Et je pense que c'est vraiment important quand nous nous demandons pourquoi nous faisons cela. Vous savez, j'ai plaisanté en disant qu'il n'y a vraiment aucune raison de faire l'IoT du tout, sauf si vous allez analyser, utiliser les données pour prendre de meilleures décisions ou prendre des mesures. Et donc, ce sur quoi nous nous sommes concentrés, ce n'était pas seulement de pouvoir publier le modèle, mais aussi de pouvoir l'étalonner avec lui, un ensemble de règles. Et parce que Boomi est si robuste dans ses capacités à déplacer des choses d'un endroit à un autre, au sein d'un atome Boomi, nous pouvons également intégrer la capacité de déclencher, d'alerter et d'agir.

Et c'est donc là que nous commençons à obtenir ce genre de vue sophistiquée des données IoT où nous disons: "D'accord, ces données valent la peine d'être écoutées". Mais vraiment, vous savez, sachant que "la lumière est allumée, la lumière est allumée, la lumière est allumée, la lumière est allumée »n'est pas aussi intéressant de savoir quand la lumière s'éteint ou quand le détecteur de fumée s'éteint ou quand tout ce qui arrive à notre processus de fabrication sort des spécifications. Lorsque cela se produit, nous voulons pouvoir prendre des mesures immédiates. Et les données deviennent presque secondaires ici à ce stade. Parce que ce n'est pas si important que nous ayons sauvé tous ces signaux, «c'est bien, c'est bien, c'est bien», ce qui est important, c'est que nous remarquons le «Hey, c'est mauvais» et nous avons pris des mesures immédiates. Qu'il s'agisse d'envoyer un e-mail à quelqu'un ou que nous puissions faire participer l'expertise du domaine, ou que nous déclenchions ou non une série d'autres processus pour prendre des mesures immédiates, que ce soit correctif ou en réponse à l'information. Et je pense que c'est pourquoi vous devez avoir cette vue orchestrée. Vous ne pouvez pas vous concentrer uniquement sur la gestion de vos algorithmes partout. Vous devez pouvoir les coordonner et les orchestrer. Vous devez pouvoir voir leurs performances. Et vraiment, le plus important, je veux dire, pourquoi diable feriez-vous cela si vous ne pouvez pas ajouter la possibilité de prendre des mesures immédiates contre les données?

Dr Robin Bloor: D'accord, Rebecca, je crois que vous avez des questions du public?

Rebecca Jozwiak: Oui . J'ai une tonne de questions d'audience. Shawn, je sais que vous ne vouliez pas vous accrocher trop longtemps après le début de l'heure. Qu'est-ce que tu penses?

Shawn Rogers: Je suis content. Aller de l'avant. Je peux répondre à quelques-uns.

Rebecca Jozwiak: Voyons voir. Je sais que l'une des choses que vous avez mentionnées est que l'IoT en est à ses débuts et qu'il a une certaine maturité qui va devoir se produire et cela répond en quelque sorte à cette question posée par un participant. Si le cadre IPv6 va être suffisamment robuste pour s'adapter à la croissance de l'IoT au cours des cinq ou dix prochaines années?

Shawn Rogers: Oh, je vais laisser Dez faire écho à ma réponse parce que je pense qu'il est plus proche de ce type d'informations que je suis. Mais j'ai toujours pensé que nous étions sur une voie très rapide pour plier et casser la plupart des cadres que nous avons en place. Et même si je pense que l'ajout de ce nouveau type de spécifications ou de la direction que nous prenons avec les cadres IPv6 est important, et cela nous ouvre la porte pour avoir beaucoup plus d'appareils et pour pouvoir donner tout ce que nous je veux donner une adresse. Je pense que tout ce que je lis et vois avec mes clients, et le nombre d'adresses qui sont nécessaires, je pense qu'à un moment donné va provoquer un autre changement dans ce paysage. Mais je ne suis pas vraiment un expert en réseautage, donc je ne peux pas dire à cent pour cent que nous allons le casser à un moment donné. Mais mon expérience me dit que nous allons perturber ce modèle à un moment donné.

Rebecca Jozwiak: Je ne serais pas surprise. Je pense que les cadres se brisent sous le poids de toutes sortes de choses. Et c'est juste logique, non? Je veux dire, vous ne pouvez pas envoyer d'e-mail avec une machine à écrire. Un autre participant demande: «Pouvez-vous utiliser un framework Hadoop?» Mais je suppose que je pourrais changer cela pour dire, comment utiliseriez-vous un framework Hadoop pour des analyses distribuées?

Shawn Rogers: Eh bien, Robin m'a fait la faveur de me poser une question historique et donc depuis la version 13 il y a environ un an pour Statistica, nous avons eu la possibilité de chasser des modèles de notre système vers Hadoop. Et nous travaillons en étroite collaboration avec toutes les grandes saveurs de Hadoop. Nous avons de très belles histoires de réussite concernant la capacité de travailler avec Cloudera comme l'une des principales distributions Hadoop avec lesquelles nous travaillons. Mais comme nous pouvons produire en Java, cela nous donne la possibilité d'être ouvert et de placer nos analyses n'importe où. Les placer dans un cluster Hadoop est quelque chose que nous faisons sur une base normale et régulière et quotidienne pour beaucoup de nos clients. La réponse courte est oui, absolument.

Rebecca Jozwiak: Excellent. Et je vais juste vous en jeter un de plus et vous laisser continuer vos vacances. Un autre participant demande, avec l'analyse IoT et l'apprentissage automatique, pensez-vous que toutes les données doivent être stockées à des fins historiques et comment cela affectera-t-il l'architecture de la solution?

Shawn Rogers: Eh bien, je ne pense pas que toutes les données doivent être stockées. Mais je pense qu'il est très intéressant d'avoir la capacité de divertir, d'écouter n'importe quelle source de données que nous voulons au sein de notre organisation, d'où qu'elle vienne. Et je pense que les changements que nous avons vus sur le marché au cours des dernières années nous ont permis d'adopter cette approche basée sur toutes les données, et cela semble vraiment très payant. Mais cela va être différent pour chaque entreprise et chaque cas d'utilisation. Vous savez, lorsque nous examinons les données de santé, il y a maintenant beaucoup de problèmes réglementaires, beaucoup de problèmes de conformité à se soucier, et cela nous fait enregistrer des données que d'autres entreprises pourraient ne pas comprendre pourquoi elles doivent être enregistrées, à droite ? Dans les processus de fabrication, pour beaucoup de nos clients manufacturiers, il y a un réel avantage à pouvoir examiner historiquement vos processus et à regarder en arrière de grandes quantités de ces données pour en tirer des leçons et en construire de meilleurs modèles.

Je pense que beaucoup de données devront être conservées et je pense que nous avons des solutions qui rendent cela plus économique et évolutif aujourd'hui. Mais en même temps, je pense que chaque entreprise trouvera de la valeur dans les données qu'elle n'a pas à conserver au niveau atomique, mais elle voudra analyser en temps réel et prendre des décisions à ce sujet pour stimuler l'innovation au sein de leur entreprise.

Rebecca Jozwiak: Très bien. Non, spectateur, je n'ai pas répondu aux questions de tout le monde aujourd'hui, mais je les transmettrai à Shawn afin qu'il puisse vous contacter directement et répondre à ces questions. Mais merci à tous pour votre présence. Merci beaucoup à Shawn Rogers de Dell Statistica et à tous nos analystes, Dez Blanchfield et Dr. Robin Bloor. Vous pouvez trouver les archives ici sur insideanalysis.com, SlideShare, nous avons commencé à remettre nos trucs là-haut à nouveau, et nous sommes en train de réorganiser notre YouTube, alors cherchez-le aussi. Merci beaucoup. Et avec cela, je vais vous dire adieu et nous vous verrons la prochaine fois.

Edge Analytics: enfin l'économie de l'IoT