Datalab GRDF : plein gaz sur la valorisation des données

A l’occasion d’une présentation dans les locaux de Dataiku, le datalab de GRDF a expliqué comment utiliser les données de l’entreprise énergétique pour résoudre certains problèmes.

Paul Fournier, responsable du datalab de GRDF, est un manipulateur. Attention, pas quelqu’un de machiavélique, non, sa structure est spécialisée dans la manipulation et le traitement des données. GRDF comprend une immense quantité de données, notamment à travers l’ensemble de son réseau physique de distribution de gaz (près de 200 000 km). « La question a été, que faire de ces données ? », souligne le responsable.

Une data team pluridisciplinaire et des sprints de 3 semaines

D’où l’idée du datalab qui se charge de mener des expérimentations sur différents sujets où les data peuvent apporter une solution ou améliorer une situation. Afin de mener ces tests, la structure a établi une méthodologie en mode entonnoir, le cadrage, l’analyse, le test terrain et l’industrialisation du processus. « Le cadrage est un élément très important, notamment pour définir quels indicateurs vont être utiles pour avoir des objectifs de performance », avoue Paul Fournier.

A chaque expérience, une data team est constituée comprenant un responsable projet et des compétences pluridisciplinaire. Il y a un datascientist (le datalab en comprend 7), une personne compétente sur les tests terrain (field test), un ingénieur de la donnée (capable de fournir des jeux de données) et un coach en méthode agile (Scrum Master). Les projets se déroulent sur des durées courtes avec des cycles de 3 semaines pour savoir si l’expérience continue ou s’arrête.

Les ordures se confrontent à l’IA

Aujourd’hui, le datalab mène 24 expérimentations. « Nous travaillons pour l’ensemble des métiers, réseau, relation client, déploiement des compteurs intelligents Gazpar, DSI, ressources humaines », assure Paul Fournier. Et de citer plusieurs exemples, comme l’analyse des champs libres d’un outil de CRM. Les utilisateurs peuvent laisser des commentaires sur les clients ou prospects et la CNIL est vigilant sur ces zones à risque afin d’éviter les dérapages. En plus d’audit, le régulateur a dressé une liste de mots interdits. Or GRDF dispose d’une base de plusieurs centaines de milliers de commentaires. Un premier filtre de conformité a été réalisé, mais il s’est révélé décevant. « Par exemple, le mot ordure interdit par la CNIL bloquait des commentaires où il était indiqué que le compteur se trouvait à côté du vide-ordures », se souvient le responsable du datalab. D’où l’idée de travailler avec le CIL (correspondant informatique et liberté) de GRDF pour élaborer un échantillon de commentaires labellisés, puis une IA a été chargée d’apprendre et de donner des résultats pertinents. La conséquence a été une amélioration par 7 de la conformité et un taux d’erreur divisé par 2.

Autre cas, sur l’installation des compteurs intelligents de gaz, Gazpar. Lors de la pose de ces compteurs, les techniciens ont à faire à un environnement composé de vieux équipements. Les techniciens de terrain veulent disposer d’informations sur la maintenance de ces terminaux. GRDF dispose d’une base de connaissance sur ces dispositifs. Datalab a décidé de plancher sur la reconnaissance d’images et les faire correspondre avec la base de données de l’énergéticien.  Une autre expérience a été menée sur le parcours client du site « projet Gaz » où le datalab a récupérer différents traqueurs de Google Analytics et d’autres données pour modéliser des familles de parcours.

L’industrialisation en bout de course

Dans tous les cas, ces expériences se confrontent à chaque fois aux besoins des utilisateurs. Si un retour sur investissement émerge, le test évolue vers une phase d’industrialisation. C’est le cas par exemple d’une solution pour améliorer le repérage d’anomalies sur les compteurs posés entre le réseau de transport et de distribution. « 40% des erreurs n’étaient pas détectées, après notre travail, le taux de reconnaissance d’erreur est passé à 70% », indique Paul Fournier. Il reste néanmoins humble, « sur l’ensemble des expérimentations, nous avons 20% d’abandon ». Des échecs ou un droit à l’erreur, « très enrichissant », conclut le responsable.

Auteur : Jacques Cheminat

Journaliste pendant 15 ans sur les thématiques, télécoms, réseaux, datacenter, stockage, sécurité, virtualisation, etc..., j'ai choisi d'ouvrir ce blog pour écrire sur tous les sujets IT, les tendances et mes humeurs.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

w

Connexion à %s