Aller au contenu principal

« Big Data : un changement de paradigme »

Caseau. Y, Académie des technologies, EDP Sciences 2015, 60 p.

Le domaine du Big Data représente pour l’auteur, « une vraie révolution informatique, qui s’exprime dans des dimensions multiples, depuis la technologie jusqu’aux applications en passant par les pratiques. Il devient possible d’analyser un ensemble très important de traces numériques et de connaître les intentions des clients des entreprises avec une précision inégalée. La manipulation des données issues des smartphones et objets connectés ouvre des opportunités de nouveaux services, tandis que ces nouvelles méthodes permettent une réduction importante des coûts des systèmes d’information ».

Et l’auteur de continuer : « le Big Data est une rupture dans l’analyse des données et l’utilisation des méthodes statistiques pour les entreprises, fondée sur une approche systémique et des cycles réactifs courts. La démarche classique qui sépare une phase d’extraction de connaissances de la phase d’application, pour du ciblage marketing par exemple, est remplacée par une boucle itérative dans laquelle les motifs détectés sont tout de suite confrontés à la mise en situation et jugés sur leur efficacité opérationnelle ».

Mais le Big Data représente aussi une nouvelle façon de programmer, de façon massivement parallèle et centrée sur les données. « Il n’est pas simplement une collection d’outils, c’est également une autre façon de concevoir les algorithmes. Cette différence vient de la distribution des traitements sur des milliers voire des dizaines de milliers de machines, des exigences de performance liées aux très gros volumes traités et du besoin de mettre les algorithmes au point par apprentissage ».

L’auteur identifie ici cinq « révolutions » possibles :

°- La révolution de la connaissance client, beaucoup plus précise et utilisable en temps réel, « qui permet de mieux vendre au client des produits et services existants, en s’appuyant sur les souhaits perçus et inférés, ce que Doc Searl appelle l’économie de l’intention »,

°- la révolution de la vie numérique et de l’internet des objets, « qui crée un flux de données formant les traces numériques de nos existences et qui permet d’inventer des nouveaux services »,

°- la révolution technologique associée, celle de la baisse spectaculaire des coûts unitaires, « qui permet de reconstruire avec de nouveaux outils des systèmes d’information beaucoup moins chers, créant un potentiel de disruption pour ceux qui maîtrisent ces outils… »,

°- la révolution dans la démarche intellectuelle et, en particulier, les méthodes de programmation, « fondée sur le parallélisme massif et le rôle central de la donnée »,

°- la révolution dans l’analyse des données, que nous pourrions qualifier de « statistiques sans modèles », dans laquelle « l’analyse de la causalité est remplacée par l’utilisation en boucle asservie de corrélations détectées par les méthodes de Big Data ».

L’auteur distingue par ailleurs « trois ruptures de paradigme », c’est-à-dire des changements dans la façon de concevoir et d’opérer des systèmes informatiques lorsque ceux-ci traitent des très grands volumes de données et utilisent les technologies que nous venons de décrire.

+ Nouveaux services et nouveaux métiers autour des données

En effet, la richesse des informations disponibles permet un niveau de profiling exceptionnel, qui représente « une rupture par rapport à ce qui était possible jusqu’alors ».

Cette richesse de « profiling » est la première source de valeur qui fait penser au « pétrole », puisque chaque entreprise qui dispose de riches données d’usage peut en extraire des informations qui ont une valeur plus large.

+ Une autre façon d’utiliser des statistiques

En effet, un des débats central de l’approche Big Data est celui « sur la différence entre corrélation et causalité…Les méthodes numériques du Big Data sont dans leur grande majorité des analyses de corrélation (en particulier avec un usage important de la régression logistique) ou des méthodes d’apprentissage (une utilisation simplifiée, à cause de la grande taille, des réseaux bayésiens) ».

L’approche Big Data ne s’inscrit donc pas dans un cadre statique (une analyse pour prévoir puis agir), mais dans un cadre dynamique d’ajustement continu.

+ Une autre façon de programmer : « data is the new code »

En effet, la valeur des données « dépend à la fois de la difficulté qu’il y aurait à les acquérir (coût de collecte) et de leur valeur estimée d’usage. Le code est perçu comme un artefact lié aux données, destiné à évoluer et facile à remplacer : les données restent (et s’accumulent), le code passe ».

Trois idées sont ainsi à retenir :

°- Le Big Data, c’est une nouvelle façon de faire de l’informatique massivement parallèle, à une époque où les ressources de calculs seront de plus en plus parallèles. Il est donc essentiel « d’acquérir ces nouvelles compétences, à la fois techniques et culturelles (savoir profiter de l’écosystème de l’open source) »,

°- Le Big Data, c’est une autre façon de programmer des systèmes, en boucle fermée et de façon adaptative, « en incluant ses clients ou utilisateurs dans cette boucle »,

°- Le Big Data, c’est un changement de paradigme « qui mérite un accompagnement national des pouvoirs publics et une prise de conscience des grandes entreprises ».

Vous pouvez partager ce contenu