Big Data : définition, enjeux et études de cas

Home/Big Data : définition, enjeux et études de cas

BIG DATA : Définition, Enjeux, Etudes de cas

Big Data : des innovations disruptives qui changent la donne

Depuis l’utilisation de statistiques dans le sport de haut niveau jusqu’aux algorithmes de recommandation d’Amazon, en passant par le programme de surveillance PRISM de la NSA ou encore la médecine analytique, le Big Data et les Analytics se sont construit une place de premier plan dans tous les domaines de la société.

En entreprise, la mise en place d’outils Big Data & Analytics répond généralement à plusieurs objectifs :

  • Améliorer l’expérience client
  • Optimiser ses processus et sa performance opérationnelle
  • Renforcer ou diversifier son business model
  • Et avec la multiplication et surtout la démocratisation des outils liés aux data, le débat entre ceux qui sont prêts à partager leurs données s’ils peuvent les valoriser et ceux qui s’inquiètent des risques de ces innovations fait rage.

     

    La notion de Big Data recouvre une combinaison de progrès technologiques, d’innovations d’usage et d’évolutions sociales qui amène les entreprises à repenser leurs priorités stratégiques et leur modèle opérationnel.

    La première dimension fondamentale du Big data, c’est la composante technologique. En effet, le Big Data s’appuie sur un ensemble d’innovations technologiques qui transforment profondément la façon dont les entreprises et les individus génèrent, transmettent, stockent et utilisent des données : massification des échanges de données (vidéo, texte, son, image), révolution dans le stockage (cloud-computing) et la structuration de données (NoSQL), progrès des techniques d’analyse, progrès des outils de visualisation de données…

    Cependant, la montée en puissance du Big Data n’est pas uniquement une histoire de technologie. Les évolutions culturelles vis-à-vis de la génération et du partage d’information et les nouveaux usages et nouvelles possibilités de monétisation sont des éléments clés de l’augmentation de la richesse et du volume des data.
    En conséquence, les entreprises ont à leur disposition de nouveaux moyens pour améliorer leur prise de décision, rendre leur organisation plus efficace et trouver de nouvelles sources de revenus.

    On distingue généralement 2 types de données sous le chapeau du Big Data :
    Les données des entreprises : les emails, les documents, les bases de données, tous les historiques de processus métiers (logs), et tout autre type de données structurée, semi-structurée ou non-structurée que l’entreprise produit et stocke.
    Les données en dehors des entreprises : bases de données externes (publiques ou fournisseurs de données), contenus échangés sur les réseaux sociaux ou publiés en ligne, les historiques de navigation et de recherche, les données (géolocalisées ou non) transmises par les objets connectés (des puces RFID au smartphone en passant par des thermostats intelligents et les pacemakers)…

    Du coup, quand parle de Big Data, on ne parle pas uniquement d’un nouvel ensemble de données devenu disponible et des technologies permettant de les exploiter mais bien d’une démarche visant à faire des données un mode de décision, un actif stratégique et une façon de créer de la valeur C’est un véritable renversement de paradigme d’organisation, qui a gagné le nom de DATA-CENTRIC, dans lequel l’entreprise est guidée par les données.

    Et il y a tout un éco-système d’acteurs, d’innovations et d’opportunités qui gravitent autour de l’explosion des données. Ces acteurs sont liés par les nouvelles promesse de valeur (mieux connaître leurs clients, mieux gérer leur activité), par les technologies qui les rendent possible (systèmes de fichiers distribués Hadoop et MapReduce, stockage Cloud plus flexible et moins cher, objets connectés) et par les évolutions socio-culturelles vis-à-vis du partage d’information.

    3VLa Vénérable grille de lecture établie en 2001 par Doug Laney du cabinet Gartner – les fameux 3V du Big Data – fait encore référence. Les 3V, ce sont le Volume (des échanges de plus en plus massifs), la Variété (plus de types de contenus) et la Vélocité (la collecte et le traitement en temps-réel).
    Depuis, d’autres ont essayé d’approfondir le sujet, en incluant des éléments comme la Validité, la Véracité, la Valeur ou la Visibilité des data.

    Le Big Data, c’est d’abord l’explosion du VOLUME de données, qui met à l’épreuve les infrastructures de stockage classiques des des entreprises

    D’après le magazine Fortune:
    Des dinosaures jusqu’en 2003 nous avions créé, en tout, 5 exabytes de données (5 Mds de GB).
    En 2011, nous générions 5 exabytes en 2 jours seulement.
    En 2013, on estime qu’il nous faudra moins de 10mn pour produire 5 exabytes.

    Cette explosion est due à un ensemble de progrès technologiques (objets connectés, infrastructures d’échanges de données notamment), qui va de pair avec des évolutions sociétales vers un plus grand partage d’information (opendata, Data as a Service).

    Pour illustrer l’impact de cette explosion du volume de données produites, prenons l’exemple d’AT&T, une entreprise de Télécommunications américaine avec 100 millions de consommateur. Elle est légalement tenue de garder un enregistrement des 50 milliards d’échanges de données quotidiens sur son réseau. En 2010, elle disposait de 193 000 milliards d’enregistrements dans ses bases de données. Avec l’avènement du smartphone, elle a également la possibilité de stocker des données telles que la géolocalisation, les historiques de recherches, les données accumulées par les applications…En conséquence, ses coûts de stockage de données ont triplé entre 2002 et 2012, et ce malgré une baisse de son coût au GB. Elle admet d’ailleurs devoir « purger » les données de localisation tous les soirs faute de place pour les stocker

    La richesse du Big Data, c’est aussi la VARIETE des sources et des contenus qui créée de nouvelles opportunités de valorisation des données

    Aujourd’hui, une enseigne d’e-commerce peut connaître précisément ses clients en combinant différentes sources et différents types de données : données démographiques publiques, localisation (auprès des opérateurs téléphoniques), profil de réseaux sociaux, historique de navigation, logs d’emails / enregistrements de communications téléphoniques (avec le SAV par exemple), achats précédents (y compris chez d’autres commerçants)…
    C’est cette variété des sources (interne combiné à de multiples sources externes) et des types de contenus (texte, audio, vidéo) qui permet notamment de segmenter son consommateur de manière beaucoup plus précises (lire le dossier sur la micro-segmentation), et donc de pouvoir lui proposer l’offre la plus pertinente et maximiser son revenu.

    A lire aussi : Données personnelles et Big Data Marketing

    Tirer profit du Big Data implique de traiter des données dynamiques : c’est la VELOCITE

    L’analyse des données en entreprise était basée jusqu’à il y a peu sur une configuration et 2 temps: Stockage et Reporting, dans laquelle les rapports portent sur une période écoulée. Avec les progrès des Analytics et des infrastructures d’échange de données, il devient possible d’intégrer de la donnée « en mouvement » dans des processus métiers.

    A lire aussi : Business Analytics, c’est quoi ?

    Téléportation-quantique-big-data-temps-réel

    Dans le marketing web par exemple, le phénomène d’enchères en temps réel (Real-Time-Bidding – RTB), s’appuie sur de la data en mouvement pour proposer une publicité spécifique en fonction de l’utilisateur qui se connecte au site. L’entreprise Turn par exemple, classe l’utilisateur dans un segment lorsqu’il se connecte au site, en fonction de son historique de navigation et des informations issues de réseaux sociaux et lui affiche la publicité de l’annonceur ayant fait la meilleure enchère pour ce segment…en moins de 10 millisecondes.

    A lire aussi : le VRM redonne le pouvoir au consommateur
     

    Le Big Data transforme également l’approche de la VERACITE ou qualité des données

    En effet, contrairement aux données internes des entreprises, structurées et ordonnées, une grande partie des données du Big Data provient de sources en dehors de notre contrôle, et doivent donc être « nettoyées » et mises en cohérence avant de pouvoir être analysées et croisées avec des données internes.
    La qualité des données, dans une situation donnée, dépend de deux facteurs : d’une part, les données peuvent être incomplètes ou inexactes, ou structurées d’une manière qui les rend difficile à analyser. Il faut donc préalablement vérifier la crédibilité de la source et la qualité du contenu. D’autre part, dans l’immense nuage de données à la disposition des entreprises, il n’est pas toujours facile d’anticiper quelles sont les données qui seront utiles à l’entreprise, et la compréhension des « Business Drivers » passe souvent par une approche exploratoire qui permet de mettre en lumière des signaux faibles dans des grands volumes de données. Il est donc important de bien étudier et définir son besoin, pour ne pas dépenser ses ressources à l’analyse de données « inutiles ».

    • 30 milliards de contenus ajoutés sur Facebook par mois, par plus de 600 millions d’utilisateurs actifs
    • La compagnie de « Social Games » Zynga (Farmville, Mafia Wars…) traite 1 petabyte (1 million de GB) de données par jour
    • Plus de 2 milliards de vidéos regardées sur Youtube chaque jour et 220 milliards de recherche sur Google chaque mois
    • En 2008, le nombre d’appareils connectés à Internet a dépassé le nombre d’humains
    • On estime que fin 2011, 20 foyers moyens généraient plus de trafic que la totalité des utilisateurs Internet en 2008
    • Le marché du Big Data et des Analytics pourrait représenter près de $250 milliards sur 4 ans
    • On estime que des données de mauvaise qualité coûtent plus de $600 milliards par an aux entreprises américaines
    On identifie généralement cinq forces majeures à l’origine de l’accélération du mouvement Big Data :

  • l’automatisation des échanges de données et les Objets connectés
  • la révolution du stockage grâce au Cloud Computing
  • l’avènement d’une nouvelle science des données: les Analytics avancés
  • les progrès de la Visualisation de données
  • les nouvelles possibilités de monétisation
  • Plus que leur contribution individuelle, c’est l’interaction (complexe) entre ces éléments qui a réellement servi de tremplin au Big Data.
    Avec l’augmentation du volume et de l’hétérogénéité des données échangés (grâce aux objets connectés notamment) et les progrès des Analytics (fichiers ditribués, NoSQL) qui ont offert de nouvelles possibilités de les monétiser, le Cloud computing s’est imposé comme un moyen flexible et économique de stockage et de gestion la massification des échanges.

    Lire l’article détaillé :

     Big Data & Analytics : les facteurs derrière la révolution des Data

    On distingue généralement 3 catégories d’impacts du Big Data sur la performance, la stratégie et la gestion des entreprises : l’amélioration de l’expérience client, l’efficacité des processus opérationnels et la diversification du Business Model. Cette typologie est basée sur le Digital Transformation Framework développé par le MIT Center for Digital Business et Capgemini Consulting.

    Et le plus intéressant, c’est que ces applications peuvent souvent être combinées, comme le montre l’exemple de la plateforme Big Data mise en place par le groupe bancaire Crédit Mutuel. Grâce à une plus grande efficacité de ses systèmes de traitement et une infrastructure de stockage repensée, ils proposent à leurs clients d’accéder à 10 années d’historique de dépense qui peuvent être filtrées par catégorie ou par commerçant. La technologie de calcul en mémoire leur permet également d’évaluer les demandes de crédit en moins de 4h, contre 48h auparavant. Enfin, la banque monétise ses données en proposant à certains partenaires commerciaux d’avoir accès à des informations sur les comportements d’achat de ses clients.

    Lire l’article détaillé

    Articles recommandés :

     

  • Dossier Big Data Analytics : le pouvoir de la micro-segmentation
  • Expedia améliore l’expérience client grâce au big data
  •  

    En ce qui concerne les secteurs d’activité, deux choses sont à noter. D’une part, la percée des nouveaux outils Big Data et Analytics est inégale : le Retail et les Télécom sont en tête, la Santé et les Administrations publiques à la traîne. D’autre part, les applications concrètes que l’on observe varient fortement selon les secteurs, ce qui laisse penser que c’est bien une rupture technologique de fond.

    Le tableau ci-dessous, élaboré à l’aide d’informations produites par SAP et Oracle, classe les secteurs selon leur maturité face au Big Data et donne quelques exemples d’applications concrètes (cliquer pour agrandir).

    Big Data et Secteurs

    Articles recommandés :

  • Les secteurs sont-ils égaux face aux Big Data ?
  • Comment les opérateurs Télécom monétisent-ils les « Big Data » ?
  •  

    Partagez l’article

    Inscrivez-vous à la Newsletter Data-Business.fr

    Derniers articles

    La Data Management Platform à l’ère du Big Data

    A l’ère du Big Data, l’enjeu majeur pour toute entreprise est la gestion et l’optimisation de ses données à grande échelle. Les données collectées, toujours plus nombreuses, proviennent de multiples sources et de formats variés. Réseaux sociaux ou encore achats en ligne, ces sources doivent permettre aux marketeurs d’affiner leur connaissance de leurs cibles. A l’heure actuelle, Big data ne doit plus être synonyme d’accumulation mais bien de collecte et d’optimisation des données pour que les entreprises les assimilent et s’en servent pour atteindre leurs objectifs commerciaux. Dans cette optique,

    Big Data et Sécurité Informatique : risque ou opportunité ?

    Toutes les entreprises sont potentiellement des victimes de cyber-attaques. Même celles qui sont les mieux protégées ont encore peur d'être infiltrées et piratées. L'avènement du Big Data peut être la solution, mais les « pirates » et leurs stratégies évoluent également. Big data au service de la sécurité de données À l'heure des Big Data, la protection des données prend une nouvelle tournure. En effet, c'est un nouveau système de protection efficace qui va aider en quelque sorte les deux premiers systèmes déjà mis en place par la plupart

    Parkeon facilite le stationnement grâce à l’application prédictive « Path to Park »

    Le 14 avril 2015 à Paris, Parkeon et Dataiku ont annoncé le lancement de l'application Path to Park, lauréate du prix "Grand Public" lors des trophées de l'Innovation Big Data, qui utilise des algorithmes prédictifs en environnement Big Data pour contribuer à une meilleure gestion de la mobilité urbaine. En enrichissant les données historiques (parcmètres, horodateurs) et en modélisant les dynamiques de stationnement grâce au Data Science Studio, Parkeon a pu développer une solution qui fournit en temps réel des suggestions de parcours pour aider les automobilistes à se garer.

    Pour un rôle plus ambitieux pour le Chief Data Officer

    J’ai publié récemment un article sur le rôle du Chief Data Officer tel que nous suggérons fortement à nos clients, grands groupes en quête d’une colonne vertébrale pour l’important volet Data de leur transformation digitale. Mais nous considérons que le buzz ambiant promeut une approche beaucoup moins ambitieuse. En effet dans beaucoup d’articles français sur le sujet, on entend une approche très IT, très BI (« mettre à disposition des décideurs les données ») pour le rôle du CDataO. C’est un bon début, c’est déjà ça (et c’est parfait pour la

    Exploiter les données : le pouvoir de la bonne information

    L’exploitation des données peut permettre aux commerciaux de renforcer leurs argumentaires et d’améliorer le ciblage de leurs offres. Mais pour cela, il faut qu’ils soient dotés des bons outils. La clé est le média de transmission de l’information et la mise en place d’un ensemble d’Apps dédiées et performantes. Le challenge du besoin d’information des métiers Récolter des données n’est pas tout. Les entreprises doivent trouver un moyen efficace de les traduire et de les exploiter. Tous les domaines économiques ainsi que tous les métiers de l’entreprise sont concernés. Certaines

    By |mars 7th, 2015|Big Data|

    Chief Data Officer, un métier en émergence

    Big Data, Business Intelligence, Analytics : où en sont les entreprises sur ces thèmes ? Qu’ont-elles mis en œuvre dans leurs structures de direction pour créer un effet de levier sur leurs données, sur les outils et les savoir-faire émergents ? Comment positionnent-elles ces thèmes dans leurs organisations managériales ? Analyse de Benoît Binachon, associé au sein du cabinet d’Executive Search Uman Partners et ancien co-fondateur de Business effiScience, société pionnière de ces domaines (cédée à BearingPoint). Quelques rappels sémantiques Le Big Data : c’est l’immense volume de données produites