Big data: comment optimiser la valeur ajoutée de ce volume de données ?

02 décembre 2014 Par Posté dans Expertise

Plus de 3 milliards de mesures ou d’informations attachées aux mesures par jour …  Il s’agit du volume traité chaque jour par ip-label sur l’ensemble des 2 solutions technologiques développées.

  • Datametrie GX : la surveillance ou monitoring ynthétique – via des robots – et le suivi des utilisateurs réels (Real User Monitoring) en modèle SaaS pour les clients souhaitant totalement externaliser la mesure de la qualité perçue des services numériques.
  • Newtest (intégrant dès l’automne le Real User Monitoring) pour les clients souhaitant administrer la solution de manière autonome notamment pour les intranets avec des contraintes de sécurité fortes ainsi que des applications métiers très complexes. Ainsi, ip-label est confrontée quotidiennement à ce que l’on appelle aujourd’hui le BIG DATA

 Comment optimiser la valeur ajoutée de ce volume de données ?
Les systèmes informatiques fondent leurs décisions sur des règles qu’ils ont été explicitement programmés à suivre. Quand un problème survient, nous pouvons donc revenir en arrière et comprendre pourquoi le système a rencontré un problème. Par exemple, nous pouvons étudier pourquoi le pilote automatique d’un avion s’élève de cinq degrés lorsqu’un capteur externe détecte une soudaine augmentation de l’humidité…

Les données sont nombreuses, et ceux qui savent comment les interpréter peuvent suivre et comprendre le fondement de ces décisions, quelle que soit sa complexité.

Aujourd’hui, l’enjeu d’ip-label est ailleurs. Considérant les volumes issus des gisements de données d’ ip-label, nous nous engageons clairement en matière de surveillance et d’expertise afin de comprendre et traiter les données, et produire ensuite des tableaux de bord idoines destinés à aider nos clients à prendre les bonnes décisions, notamment sur la baisse des coûts de leurs infrastructures ainsi que sur l’impact business.

Qu’importe la causalité, voici venu le temps des corrélations :
Savoir que l’on a tel problème technique, à tel endroit et donc de trouver rapidement la cause du problème est bien évidemment indispensable. Mais il s’agit du combat des années passées. Aujourd’hui, l’enjeu des Big Data est de trouver des corrélations que nous n’avions pas encore vues en terme de causalité. Par exemple, si l’on suit l’indice de prix des billets d’avion, il est peu intéressant de savoir qu’ils fluctuent en fonction du niveau de remplissage de l’avion.
Par contre, avoir une corrélation qui permet de prédire si le prix va augmenter ou diminuer dans le futur est devenue juste primordiale et donc savoir quand acheter ou ne pas acheter son billet d’avion. Il existe donc un algorithme qui permet de construire le prix du billet (en fonction de la période et du remplissage). Le big Data va permettre, en corrélant les données en quantité très importante, d’anticiper les achats de billets au moindre coût.

Développer ces nouveaux algorithmes prédictifs est devenu déterminant. ip-label s’est engagée sur ces chemins afin de rendre l’information plus pertinente. Cependant, et cela a toujours été le credo d’ip-label, développer des outils intelligents est une priorité. La quintessence ne peut être obtenue qu’à travers la dimension conseil qui restera, elle, humaine.Comme aurait pu le dire Henry Ford, si on avait interrogé les algorithmes et les données pour savoir ce que les clients voulaient, les Big Data auraient répondu “un cheval plus rapide” : elles n’auraient pas inventé la voiture !

Les Big Data sont une ressource et un outil. Elles sont destinées à informer plutôt qu’expliquer. Toutes éblouissantes soient-elles, toutes puissantes soient-elles, nous ne devons jamais nous laisser séduire par leur lumière et en oublier leurs imperfections.

 

L’homme restera la pierre angulaire car il est créatif.

Laisser un commentaire

Votre adresse email ne sera pas publié