Plus vite, plus loin : du Big Data au Fast Data avec l’In-Memory
Dans l’environnement massivement interconnecté de l’Internet of Everything, surviennent ce que le Gartner appelle des « business moments », c’est-à-dire des conjonctions d’événements qui créent des opportunités particulières de services à forte valeur ajoutée. Par exemple, une voiture connectée pourrait, en cas de bouchons, suggérer à la volée un itinéraire bis permettant de s’arrêter dans un restaurant correspondant aux goûts du conducteur, et procéder à la réservation si ce dernier valide la proposition. Pour que de tels scénarios voient le jour, il ne s’agit plus seulement d’analyser de forts volumes de données, mais de le faire en temps réel. Le Big Data doit se muer en Fast Data, et pour cela mettre en œuvre de nouvelles approches technologiques.
En permettant typiquement de multiplier la performance par un facteur 100, l’analyse en mémoire (In-Memory) est indissociable du Fast Data. Mais les univers d’analyse peuvent aller jusqu’à plusieurs To de données, surtout s’il faut confronter les données temps réel (données chaudes, ou Data in Motion) à un historique (données froides, ou Data at Rest), ce qui est souvent le cas. Selon le contexte, la sophistication de l’analyse et la profondeur d’historique examinée, trois types de solution sont possibles.
Première option, le Complex Event Processing (CEP) consiste à détecter en temps réel des motifs particuliers au sein d’un flux de données (franchissement d’un seuil, conjonction d’évènements, absence de signal durant un laps de temps…). Une alerte est émise automatiquement, et une action peut s’enclencher. Simple mais puissant, le CEP a d’innombrables applications, du contrôle industriel à la domotique. Ne traitant que des données chaudes, le CEP peut être associé à un système de machine learning, qui exploitera les données refroidies pour déterminer et « apprendre » quels sont les motifs les plus pertinents à rechercher.
Deuxième approche, la grille de données en mémoire (In Memory Data Grid, IMDG) consolide en mémoire des données variées (opérationnelles, commerciales…), établissant ainsi, en temps réel, une vision complète et corrélée de la situation. Grâce aux analyses réalisées sur cet ensemble de données chaudes ou tièdes, les utilisateurs sont en mesure de prendre des décisions rapides, en toute connaissance de cause. Avec l’IMDG, le Big Data devient un outil opérationnel, utilisé par exemple par les banques pour calculer au fil de l’eau la Value at Risk (VaR) de leurs portefeuilles, ou par les sites d’e-commerce pour ajuster dynamiquement leurs prix.
Enfin, troisième solution, l’analyse prescriptive combine données chaudes et froides (via une Lambda Architecture) pour déterminer en temps réel la meilleure option d’évolution. Par exemple, la gouvernance dynamique d’une Smart City nécessite de considérer d’une part l’état du trafic, la météo, les incidents de circulation, et, d’autre part, les exigences des services de sécurité ou d’entretien. Dans le monde industriel, l’analyse prescriptive permettrait une optimisation dynamique et proactive de la chaîne logistique, depuis l’approvisionnement jusqu’à la production et la distribution. Dans les cas les plus exigeants, l’analyse prescriptive pourra s’appuyer sur des outils de type High Performance Data Analytics, qui conjuguent les capacités de modélisation du calcul haute performance (HPC), une architecture In-Memory massive et les mécanismes du Big Data.
« Dans tous les cas de figure, le Fast Data permet d’aller plus vite, mais surtout beaucoup plus loin dans l’utilisation des données. Ses possibilités d’analyse étendue et dynamique constituent une véritable rupture, et un levier de transformation digitale autour de la data. »
Au-delà des architectures et de la puissance de calcul, le défi réside avant tout dans la définition des algorithmes, des indicateurs et des scénarios qui permettront à l’entreprise de saisir ses propres « business moments ».