Les critères de la valeur et la véracité

lundi, 23.03.2020

Xavier Bays*

Xavier Bays

dans le big data. Nous voulons équiper nos 3000 lignes de production de milliers de capteurs qui transmettent des informations chaque milliseconde. Que proposez-vous?» Ce genre de questions nous est régulièrement posées auprès des différentes industries que nous visitons. La réponse? Rien, nous ne proposons rien, sinon d’adopter un nouveau regard sur le big data.

La définition des 3 Vs

Le big data a en effet connu un très gros engouement ces dernières années, à tel point qu’on a tendance à confondre l’outil et sa finalité. On s’y intéresse beaucoup tout en oubliant les significations derrière ces deux mots. Avant toute chose: qu’est-ce que le big data? Les définitions divergent sensiblement entre les spécialistes. La première d’entre elles, simple et efficace, nous dit que le big data intervient au moment où un ordinateur standard est dépassé par les données qu’il doit traiter. Il s’agit donc d’une structure informatique permettant de gérer des quantités phénoménales de données. Cette notion de quantité a été précisée par de nombreux experts pour répondre à la définition des 3 Vs: volume, variété, vélocité.

Le premier «V» intervient lorsqu’il est nécessaire de stocker des volumes gigantesques de données, ou plutôt «pétatesque» (un pétaoctet correspond à 10 puissance 15 octets, contre 10 puissance 9 pour un gigaoctet). La variété concerne des formats de données multiples: on ne traite plus seulement des chiffres, mais également des images, des sons, des vidéos, du texte, etc. Finalement, la vélocité comprend les problématiques de vitesse de transfert et d’ingestion de données, ainsi que celles liées au temps de calcul de l’ordinateur pour exécuter un algorithme. Il ne serait en effet pas convenable que les prédictions météorologiques pour le lendemain demandent plus de 24h de compilation.

Peu à peu, un regard business est venu compléter la vision technique du big data. La définition des 3Vs se voit enrichie par deux nouveaux critères: la valeur et la véracité. Il devient dorénavant nécessaire de ne conserver que les informations pertinentes et valorisables. La valeur d’une donnée réside dans son potentiel à être convertie en actions ou en décisions. Le critère de véracité conseil quant à lui de filtrer les données correctes et de ne pas considérer des capteurs instables ou des faux profils sur les réseaux sociaux par exemple.

Une autre question qui devrait alimenter toute volonté de se lancer dans le big data relève de la finalité du processus. Mesurer, transférer, stocker, gérer: toutes ces opérations ont évidemment un coût et si on ne sait pas quoi faire des données accumulées, le projet est un échec. Dans cette idée, il est préférable de chercher à répondre à des problématiques bien définies. Celles-ci suivent généralement deux axes d’amélioration: les processus internes et l’expérience client. Combiner ces deux axes permet de tendre vers la notion d’entreprise digitale ou d’industrie 4.0, des sujets vastes qui feront l’objet d’une chronique ultérieure.

Ne foncez pas tête baissée dans le big data. La data science, à l’instar de l’informatique, est un ensemble d’outils à notre disposition dont le but est d’alléger notre quotidien. Privilégiez la qualité à la quantité et lancez des projets à valeur ajoutée.

*Data scientist & Co-founder Swiss Statistical Design & Innovation






 
 

AGEFI



...