Notre site Web utilise des cookies pour vous offrir l’expérience en ligne la plus optimale en : mesurant notre audience, en comprenant comment nos pages Web sont consultées et en améliorant en conséquence le fonctionnement de notre site Web, en vous fournissant un contenu marketing pertinent et personnalisé.
Vous avez un contrôle total sur ce que vous souhaitez activer. Vous pouvez accepter les cookies en cliquant sur le bouton « Accepter tous les cookies » ou personnaliser vos choix en sélectionnant les cookies que vous souhaitez activer. Vous pouvez également refuser tous les cookies non nécessaires en cliquant sur le bouton « Refuser tous les cookies ». Veuillez trouver plus d’informations sur notre utilisation des cookies et comment retirer à tout moment votre consentement sur notre Vie Privée.

Gestion de vos cookies

Notre site Web utilise des cookies. Vous avez un contrôle total sur ce que vous souhaitez activer. Vous pouvez accepter les cookies en cliquant sur le bouton « Accepter tous les cookies » ou personnaliser vos choix en sélectionnant les cookies que vous souhaitez activer. Vous pouvez également refuser tous les cookies non nécessaires en cliquant sur le bouton « Refuser tous les cookies » .

Cookies nécessaires

Ceux-ci sont indispensables à la navigation de l’utilisateur et permettent de donner accès à certaines fonctionnalités comme les accès aux zones sécurisées. Sans ces cookies, il ne sera pas possible de fournir le service.
Matomo en auto-hébergement

Cookies marketing

Ces cookies sont utilisés pour vous proposer des publicités plus pertinentes, limiter le nombre de fois que vous voyez une publicité ; aider à mesurer l’efficacité de la campagne publicitaire ; et comprendre le comportement des individus après avoir vu une publicité.
Vie Privée Adobe | Vie Privée Marketo | Vie Privée MRP | Vie Privée AccountInsight | Vie Privée Triblio

Cookies de réseaux sociaux

Ces cookies sont utilisés pour mesurer l’efficacité des campagnes sur les réseaux sociaux.
Vie Privée de LinkedIn

Notre site Web utilise des cookies pour vous offrir l’expérience en ligne la plus optimale en : mesurant notre audience, en comprenant comment nos pages Web sont consultées et en améliorant en conséquence le fonctionnement de notre site Web, en vous fournissant un contenu marketing pertinent et personnalisé. Vous avez un contrôle total sur ce que vous souhaitez activer. Vous pouvez accepter les cookies en cliquant sur le bouton « Accepter tous les cookies » ou personnaliser vos choix en sélectionnant les cookies que vous souhaitez activer. Vous pouvez également refuser tous les cookies non nécessaires en cliquant sur le bouton « Refuser tous les cookies ». Veuillez trouver plus d’informations sur notre utilisation des cookies et comment retirer à tout moment votre consentement sur notre Vie Privée

Passer au contenu principal

Plus vite, plus loin : du Big Data au Fast Data avec l’In-Memory


Publié le: 29 février 2016 par Eric d'Arche

Dans l’environnement massivement interconnecté de l’Internet of Everything, surviennent ce que le Gartner appelle des « business moments », c’est-à-dire des conjonctions d’événements qui créent des opportunités particulières de services à forte valeur ajoutée. Par exemple, une voiture connectée pourrait, en cas de bouchons, suggérer à la volée un itinéraire bis permettant de s’arrêter dans un restaurant correspondant aux goûts du conducteur, et procéder à la réservation si ce dernier valide la proposition. Pour que de tels scénarios voient le jour, il ne s’agit plus seulement d’analyser de forts volumes de données, mais de le faire en temps réel. Le Big Data doit se muer en Fast Data, et pour cela mettre en œuvre de nouvelles approches technologiques.

En permettant typiquement de multiplier la performance par un facteur 100, l’analyse en mémoire (In-Memory) est indissociable du Fast Data. Mais les univers d’analyse peuvent aller jusqu’à plusieurs To de données, surtout s’il faut confronter les données temps réel (données chaudes, ou Data in Motion) à un historique (données froides, ou Data at Rest), ce qui est souvent le cas. Selon le contexte, la sophistication de l’analyse et la profondeur d’historique examinée, trois types de solution sont possibles.

Première option, le Complex Event Processing (CEP) consiste à détecter en temps réel des motifs particuliers au sein d’un flux de données (franchissement d’un seuil, conjonction d’évènements, absence de signal durant un laps de temps…). Une alerte est émise automatiquement, et une action peut s’enclencher. Simple mais puissant, le CEP a d’innombrables applications, du contrôle industriel à la domotique. Ne traitant que des données chaudes, le CEP peut être associé à un système de machine learning, qui exploitera les données refroidies pour déterminer et « apprendre » quels sont les motifs les plus pertinents à rechercher.

Deuxième approche, la grille de données en mémoire (In Memory Data Grid, IMDG) consolide en mémoire des données variées (opérationnelles, commerciales…), établissant ainsi, en temps réel, une vision complète et corrélée de la situation. Grâce aux analyses réalisées sur cet ensemble de données chaudes ou tièdes, les utilisateurs sont en mesure de prendre des décisions rapides, en toute connaissance de cause. Avec l’IMDG, le Big Data devient un outil opérationnel, utilisé par exemple par les banques pour calculer au fil de l’eau la Value at Risk (VaR) de leurs portefeuilles, ou par les sites d’e-commerce pour ajuster dynamiquement leurs prix.

Enfin, troisième solution, l’analyse prescriptive combine données chaudes et froides (via une Lambda Architecture) pour déterminer en temps réel la meilleure option d’évolution. Par exemple, la gouvernance dynamique d’une Smart City nécessite de considérer d’une part l’état du trafic, la météo, les incidents de circulation, et, d’autre part, les exigences des services de sécurité ou d’entretien. Dans le monde industriel, l’analyse prescriptive permettrait une optimisation dynamique et proactive de la chaîne logistique, depuis l’approvisionnement jusqu’à la production et la distribution. Dans les cas les plus exigeants, l’analyse prescriptive pourra s’appuyer sur des outils de type High Performance Data Analytics, qui conjuguent les capacités de modélisation du calcul haute performance (HPC), une architecture In-Memory massive et les mécanismes du Big Data.

« Dans tous les cas de figure, le Fast Data permet d’aller plus vite, mais surtout beaucoup plus loin dans l’utilisation des données. Ses possibilités d’analyse étendue et dynamique constituent une véritable rupture, et un levier de transformation digitale autour de la data. »

Au-delà des architectures et de la puissance de calcul, le défi réside avant tout dans la définition des algorithmes, des indicateurs et des scénarios qui permettront à l’entreprise de saisir ses propres « business moments ».

Partager


Qui est Eric d'Arche
Associate Partner Atos Consulting
Eric d’Arche, Associate Partner chez Atos Consulting, contribue au développement du Business sur le secteur Industrie et plus particulièrement sur le secteur Automobile sur lequel il a une expertise de plus de vingt ans. Il a auparavant travaillé dans le conseil (ex. Coopers & Lybrand, Capgemini) ou le business development (SAP) Il est focalisé sur les projets de transformation porteurs de forts enjeux de management et d’organisation ou de Systèmes d’Information. Il a développé ces dernières années une forte expérience sur la transformation du secteur industriel vers le monde des services, notamment dans l’Automobile (lancement de la Zoe chez Renault, lancement de nouveaux services connectés chez différents constructeurs) et a contribué à la rédaction du livre blanc « l’impact du digital sur l’écosystème du véhicule électrique ». Il est diplômé de l’Ecole Polytechnique.

Suivre ou contacter Eric