Views
2 months ago

ICTjournal juillet - août 2019

  • Text
  • Entreprises
  • Juillet
  • Ainsi
  • Netzmedien
  • Suisse
  • Plateforme
  • Utilisateurs
  • Travail
  • Chez
  • Solutions

20 spécial data BI &

20 spécial data BI & analytics Les priorités des entreprises en matière de données et d’analyse En matière d’analytics, les entreprises donnent la priorité à la gouvernance des données et à leur accès facilité pour les utilisateurs métiers, selon l’édition 2019 de l’enquête menée par BARC. Les résultats montrent aussi un engouement croissant pour le machine learning. Yannick Chavanne «La mise en place d’une gouvernance des données est un effort de longue haleine.» BARC Alors que les entreprises ont désormais bien conscience du capital que représente leurs données, encore faut-il savoir les gérer et les exploiter adéquatement. Il convient en effet d’être en mesure de s’appuyer sur des données de haute qualité et d’avoir sous la main celles qui sont importantes. Les tendances en matière d’analytics qui se dégagent du dernier BI Trend Monitor de BARC illustrent clairement ces enjeux. Master data management et gouvernance La question de la gestion des données de référence (master data) et de la qualité de données s’impose ainsi, comme l’an dernier, au top des tendance de cette étude basée sur un sondage mené à l’échelle globale auprès de 2700 consultants, fournisseurs et utilisateurs. La thématique de la gouvernance des données pointe de son côté au quatrième rang. La qualité des données et le master data management sont importants pour les entreprises, car les processus de prise de décision et les actions opérationnelles dépendent de données fiables. «La définition des rôles et des responsabilités, les processus d’assurance qualité et la surveillance continue de la qualité des données de l’entreprise sont des facteurs critiques pour atteindre une qualité élevée et durable des données», soulignent les auteurs de l’étude. Quant à la gouvernance des données, elle est nécessaire en tant que mécanisme central permettant d’orchestrer la façon dont la stratégie d’affaires est traduite en données et en analyses. IMPORTANCE DES TENDANCES BI ET ANALYTICS DE «PAS IMPORTANT DU TOUT» (0) À «TRÈS IMPORTANT» (10) Gestion des master data et de la qualité des données Découverte et visualisation des données BI en self-service Gouvernance des données Culture data-driven Préparation des données pour utilisateurs business Modernisation du data warehouse Développement BI agile Analyse avancée/machine learning Analytics en temps réel Analyse Big Data 5,6 5,5 5,4 5,4 5,7 6,2 6,5 6,5 6,4 6,8 7,0 Découverte des données et BI en self-service Le BI Trend Monitor de BARC illustre aussi l’importance accordée à la découverte des données et à la BI en selfservice (tendances classées respectivement deuxième et troisième). Les analyses visuelles peuvent aujourd’hui être pilotées par les utilisateurs métiers, s’ils sont équipés d’outils adéquats pour connecter diverses sources, nettoyer et enrichir les données afin de les préparer sous forme d’ensembles pertinents. Ces dernières viennent guider les analystes métiers dans toutes les étapes, de la préparation à la présentation en passant par les processus d’analyse. En parallèle à l’adoption croissante d’outils servant à explorer les données à l’aide d’analyses avancées guidées, les déploiements de solutions de BI en self-service augmentent également, indique le rapport de BARC. BI mobile Plateformes intégrées BI/gestion des performances BI et analytics «embedded» Data storytelling Utilisation de données externes/open data Equipes pour l’analytics/data labs BI/data management en mode cloud Normes de design visuel IoT analytics 2,4 4,3 4,3 5,2 5,0 5,0 4,8 4,8 4,7 Source: BI Trend Monitor, BARC, 2019 Agile BI et machine learning La BI en self-service est à considérer comme un complément aux solutions de BI mises au point par l’IT. A qui l’on demande toujours plus d’opter pour une démarche de développement «Agile BI». Cette tendance est d’ailleurs l’une de celle ayant le plus progressé dans le classement de BARC et consiste à mettre au point des solutions en étroite collaboration avec le business et à l’aide du prototypage rapide. L’analyse avancée dopée au machine learning s’impose enfin comme la tendance qui a fait le bon le plus marqué par rapport à l’étude de l’an passé. juilletaoût 2019 www.ictjournal.ch © netzmedien ag

RENKU, une plateforme conçue et développée par le domaine des EPF Est-ce que cela sera vraiment utile? Je veux réutiliser et analyser les résultats 100 111 111 101 21 Data Scientist Scientifique 110 101 100 110 Modèle Données Données Analyses Graphe Expert métier Je veux comprendre Est-ce reproductible? Evaluateur Notebook A Papier Responsable du processus opérationnel Je veux vérifier les accès Une plateforme pour partager le travail des data scientists Entre les données et les connaissances qu’on en tire, le travail des data scientists est souvent un secret inaccessible. Pour ouvrir cette boîte noire, le Swiss Data Science Center a développé la plateforme Renku. Notre rédaction a rencontré ses concepteurs. Rodolphe Koller «Les données, ce n’est pas la connaissance». Olivier Verscheure souhaite mettre les choses au clair dès le début de notre échange dans son bureau de l’EPFL: on ne va pas parler de data mais bien du savoir qui en est extrait par les data scientists et les experts. Le responsable du Swiss Data Science Center (SDSC) – une initiative commune des deux EPF lancée en 2017 – nous reçoit avec Eric Bouillet, son collègue responsable de la plateforme Renku. Nous somme justement là pour parler de cet outil qui matérialise une promesse faite dès l’inauguration du SDSC de «combler le fossé qui existe entre les data scientists et les experts de domaines scientifiques spécifiques». Ouvrir la boîte noire du travail sur la donnée Faisant office de middleware entre les données et les outils d’analyse, la plateforme Renku enregistre de manière organisée le travail des data scientists – les jeux de données choisis, les sélections et nettoyages opérés, les modèles et algorithmes appliqués, etc. – de façon a dresser une filiation entre les données et la connaissance qui en est extraite. L’outil donne ainsi de la transparence à la boîte noire du travail sur la donnée. Pour la science, l’enjeu est énorme: «Les expérimentations deviennent réplicables instaurant de la confiance quant à leurs résultats», explique Olivier Verscheure. De plus, Renku fonctionnant comme un outil de partage, les data scientists peuvent profiter des recettes développées par leurs collègues. Coder les expérimentations Au fur et à mesure de son emploi, Renku développe ainsi une gigantesque arborescence des voies tracées entre les données et les connaissances. Pour faciliter cette capture d’informations, la plateforme qui s’appuie sur Git, enregistre un grand nombre d’informations de manière automatisée via Docker (données, librairies, versions, etc.). «Nous avons renoncé à tout enregistrer sans quoi il y aurait trop de bruit, explique Eric Bouillet. Ce sont les utilisateurs qui décident de ce qui est conservé dans la plateforme – l’automatisation leur facilite la tâche». A terme, Renku pourrait intégrer des ontologies spécifiques à certains domaines – sciences de la vie, environnement, etc. – pour coder les connaissances métier résultant de l’analyse de données. La plateforme pourrait aussi renseigner les experts sur le fait que tel algorithme fonctionne particulièrement bien avec tel jeu de données. Du monde académique à l’industrie La plateforme Renku est aujourd’hui exploitée et employée par les chercheurs de diverses facultés en collaboration avec les data scientists du SDSC. En raison de la sensibilité de leurs données, les sciences de la vie de l’EPFL disposent de leurs propres instances. Hors milieu universitaire, Renku est notamment utilisé par la société suisse Bühler, spécialisée dans les machines pour l’agroalimentaire et pionnière en matière d’intelligence artificielle. Outre l’apport dans le travail quotidien des métiers travaillant autour de la donnée, la plateforme a en effet de quoi séduire l’industrie. Documenter la chaîne de création de valeur entre la data et la connaissance, c’est aussi s’assurer que l’entreprise conserve ces savoirs et savoir-faire, notamment lorsque les équipes changent. Les données sont déjà considérées comme un capital important pour l’entreprise, alors que dire des opérations qui les transforment en connaissances… «Les expérimentations deviennent réplicables instaurant de la confiance quant à leurs résultats.» Olivier Verscheure, Swiss Data Science Center www.ictjournal.ch © netzmedien ag juilletaoût 2019