Contenu du billet
Le salon du Big Data 2018 a regroupé plus de 250 exposants, un village start-up et 100 speakers. Le public était au rendez-vous pour découvrir les dernières tendances en matière de Big Data, un marché en forte croissance :
- 30% des entreprises utiliseront l’analyse prescriptive en 2020 (Gartner)
- Le marché connaît 37% de croissance des ventes de logiciels Big Data et Analytique en France (IDC)
- Il est prévu que 35,3% de la croissance du marché sur cette période sera produite par les plateformes logicielles cognitives /IA (IDC)
Nous vous proposons un focus sur quelques présentations parmi les plus illustratives de l’évolution du Big Data.
Internalisation des usages et augmentation de la valeur métier grâce au Big Data par la société Quinten
La société Quinten est revenue sur la genèse du Big Data. Auparavant, les entreprises utilisaient des POC (Proof of Concept) et des solutions sur étagère. Aujourd’hui, les experts métiers veulent inscrire les pratiques et les technologies Big Data au coeur des transformations digitales de l’entreprise. Faire du Big Data pour asseoir son image d’innovateur n’est plus satisfaisant. Le Big Data fait partie d’un portefeuille global d’actifs qu’il convient de valoriser d’où la tendance à internaliser compétences, data, process. Voici quelques objectifs confiés aux projets Big Data :
- L’accroissement de la réputation
- L’amélioration de la culture de l’innovation
- Le management des connaissances
- La satisfaction des parties prenantes
Aujourd’hui, il convient de s’assurer de l’appropriation opérationnelle des solutions. Il faut faire émerger la culture Data avec du réalisme. Ainsi, dans le métier de la banque, les commerciaux s’appuient sur l’intelligence artificielle pour avoir une vision 360° du client. Ils ont, par exemple, accès à la valeur du client, indicateur qui n’était pas à leur disposition avant l’IA.
Machine Learning et Intelligence Artificielle (IA) : de nouveaux modes d’appréhension des marchés par Oracle
Pour Oracle, les applications concrètes du Machine Learning et de l’IA sont à la portée de tous et applicables à des usages du quotidien ou à de nouveaux secteurs comme les calculs de prix qui étaient auparavant l’apanage des sociétés d’étude et du déclaratif consommateur (prix psychologique notamment). Grâce au NLP (Natural Language Processing), l’analyse de sentiments permet de décrypter les « reviews » de testeurs ou d’utilisateurs de produits. Oracle a, ainsi, montré, en prenant le cas d’un vin sud-américain, que l’on pouvait, en fonction, des évaluations d’experts déterminer son prix de vente. Mais l’analyse ne s’arrête pas là. Une mauvaise note donnée par un seul testeur était analysée plus finement. Ce testeur notait généralement mal les vins sud-américain et était de surcroît catégorisé comme influenceur. Les Big Data sont donc centrales dans la prise de la bonne décision.
Par ailleurs, les outils se sont largement démocratisés. La promesse d’Oracle est qu’en 45 minutes, il est possible de provisionner, importer et analyser ses données grâce à une Data Warehouse centrée sur la valeur client. Les algorithmes utilisés couvrent l’ensemble de ces champs d’application :
- Classification
- Clustering
- Détection des anomalies
- Régressions
- Règles d’association
- Importance des attributs
- Requêtes prédictives SQL
- Algortihm Text Support
- Features extraction
- Time Series
- Open-Source ML Algorithms
Remettre la question du pourquoi avant celle du comment par Ekimetrics
Ekimetrics s’interroge sur la chaîne de la valeur de la Data. A travers trois cas d’usage, la société montre que la valeur Business des projets doit être un préalable indispensable à tout projet Big Data. Par ailleurs, il convient de viser des incrémentaux atteignables et de partir sur des périmètres applicatifs restreints avant d’élargir et de déployer. Les cas d’usage présentés étaient les suivants :
Cas 1 : établir un lien entre performance d’un poste et degré de satisfaction de l’opérateur occupant ce poste. L’analyse des données via le Machine Learning a permis de déterminer les critères essentiels de satisfaction.
Cas 2 : classifier des zones géographiques pour les regrouper en faire des marchés cohérents en termes d’usages et donc de stratégies commerciales. Il a été possible de catégoriser les recherches observées sur différentes zones, identifier les pourvoyeurs de contenus, mesurer les liens de proximité.
Cas 3 : détecter des situations de fraude sur un marché bancaire en analysant l’historique des transactions, la saisonnalité, les dépôts effectués et en pratiquant des autocorrélations.
Pour conclure, Ekimetrics insiste sur la chronologie type d’un projet Big Data :
- Quelle question Business doit-on se poser ?
- Dispose-t-on de la bonne donnée ?
- Quelle technologie déployer ?
L’importance du RCU (Référentiel Client Unique) par Ysance et de l’analytics par Alteryx
Ysance montre que les projets Big Data ne peuvent pas fonctionner en silo. Le référentiel client unique ou RCU est central dans la réussite de ce type de projet qui croise données, métiers et types d’organisation. Le RCU est garant de la complétude, de la qualité, de la pertinence et de la fraîcheur des données exposées. A travers le cas de la restauration en ligne, Ysance met en avant l’importance du contexte. L’influence de la température agit directement sur les commandes mais également l’audience TV, le type de programme …ROI, expérience client individualisée et contextualisée, traitement de l’ensemble des points de contact sont au cœur des projets Big Data.
L’importance de l’aide à la décision dans les projets Big Data est reprise par Alteryx. Cette société se positionne comme une autre façon de penser l’analytics grâce à de nouveaux métiers et à la Data Science. La diversité des données continue à croître. Les descriptions doivent être spatiales et orientées sur le prédictif. Mais l’analytics doit se mettre à la portée des analystes. 80% du travail d’un analyste consiste à nettoyer les données. L’analyse ne représente que 20% du temps et c’est ce déséquilibre temps passé-valeur qu’Alteryx veut changer. Identifié comme un des leaders de son marché par le Gartner, Alteryx prône l’avènement du métier de citizen data scientist.
Vous pouvez télécharger quelques semaines en libre accès la plateforme.
Stratégie de mise en oeuvre IT du Big Data Client SNCF – trois étapes clé
Nous terminerons ce billet par une rapide présentation de la stratégie de mise en oeuvre IT du Big Data Client SNCF. Cette stratégie a été détaillée lors d’un atelier organisé par Soft-Computing. La SNCF a suivi trois étapes clé dans l’implémentation du Big Data :
- Etape 1 2014-2015 : mise en place d’un POC Big Data
- Etape 2 2016-2017 : architecture On Premise (élaboration d’un premier Data Lake d’entreprise pour une internalisation des technologies et des compétences)
- Etape 3 A partir de 2018 : mise en place de Cloud Azure (une solution industrialisée pour répondre aux enjeux Big et Fast Data de la SNCF) – rationalisation des technologies – optimisation des traitements -usine logicielle
Il a été rappelé lors de cet atelier que la SNCF représente 100 millions de passagers transportés par TGV, 2.8 millions de clients programmes voyageurs, 24 centres de relations clients, 6000 chefs de bord et agents d’escales, 3300 conseillers de vente.
Pour conclure, les technologies Big Data deviennent de plus en plus centrales pour les marchés, la compréhension du client et la réussite de projets commerciaux, lancements de nouveaux produits, gestion RH…
Parallèlement, la nécessité de détruire les silos s’impose tant au niveau des métiers que de l’interopérabilité des outils. Beaucoup d’ateliers ont été consacrés à la gestion commune des Data Lakes et des Data Warehouses. Un effort constant est fait sur l’ergonomie des solutions, sur les Data Viz et sur l’analytics utile.
Si les process se modifient et deviennent plus agiles, centrés sur le ROI, les données deviennent de plus en plus contextualisées, délivrées en open-source d’où un accroissement considérable de leur taille mais également de leurs capacités prédictives. L’avenir du Big Data reste encore à écrire.