Business Analytics : définition, enjeux, applications

Home/Business Analytics : définition, enjeux, applications

BUSINESS ANALYTICS : Définition, Enjeux, Applications

Business Analytics : l’avènement d’une nouvelle science des données

Depuis l’utilisation de statistiques dans le sport de haut niveau jusqu’aux algorithmes de recommandation d’Amazon, en passant par le programme de surveillance PRISM de la NSA et la médecine analytique, le Big Data et les Analytics se sont construit une place de premier plan dans tous les domaines de la société.

En entreprise, la mise en place d’outils Big Data & Analytics répond généralement à plusieurs objectifs :

  • Améliorer l’expérience client
  • Optimiser ses processus et sa performance opérationnelle
  • Renforcer ou diversifier son business model

Et avec la multiplication et surtout la démocratisation des outils liés aux data, le débat entre ceux qui sont prêts à partager leurs données s’ils peuvent les valoriser et ceux qui s’inquiètent des risques de ces innovations fait rage.

Le terme Analytics recouvre l’utilisation intensive de Data, de techniques d’analyses statistiques et quantitatives, de modèles explicatifs et prédictifs pour influencer la prise de décision, transformer les méthodes de management et revoir l’approche de la création de valeur en entreprise.

Et la montée en puissance de l’analyse quantitative dans le processus de prise de décision est une tendance de fond dans toutes les industries:

  • Dans le sport de haut niveau, l’utilisation de statistiques et de données de performance quantitatives, aura bientôt définitivement remplacé le recrutement « au feeling » des scouts et des chercheurs de talents.
  • Chez Netflix et Amazon, les systèmes de recommandation analysent des volumes gigantesques de données tansactionnelles et comportementales pour personnaliser les suggestions à l’extrême et créer des segments de marché individuels.
  • Dans le domaine médical, un nombre croissant de professionnels commence à accepter que les outils analytiques peuvent fournir une aide précieuse dans l’aide au diagnostic (il existe 11000 maladies répertoriées) et la personnalisation des traitements
  • En formulant mathématiquement la recette d’un bon vin grâce aux historiques de prix et de données météos, l’économiste américain Orley Ashenfelter s’est mis à dos nombre de sommités internationales du vin. Le célèbre Robert Parker n’a d’ailleurs pas hésité à qualifier la démarche d’Ashenfelter de « violente, voir hystérique »:

Qualité du vin = 12.145 + 0.00117 x (précipitation d’Oct. à Mars) + 0.0614 x (température moyenne Avril à Sept.) – 0.00386 x (précipitations Août et Sept.)

Nombre de ces exemples n’ont été rendus possibles que grâce à des innovations technologiques dans le domaine de la collecte, du stockage et du traitement de données (voir la page Big Data). En effet, grâce à l’explosion du volume et de la variété des données disponibles, les techniques d’analyse quantitatives (qui se sont modernisées et complexifiées pour suivre le mouvement) bénéficient d’une nouvelle légitimité en apportant des réponses claires à des défis concrets de la gestion quotidienne de l’entreprise.

Articles recommandés :

Statistiques et Analytics : la révolution du Baseball américain
Orley Ashenfelter et le secret mathématique du bon vin

La typologie la plus fréquemment utilisée consiste à distinguer trois familles d’Analytics, en fonction des méthodes d’analyse employées et des objectifs recherchés :

  • Descriptive Analytics

    : les analytics descriptifs (traditionnellement, le Reporting), qui agrègent, consolident et organisent l’information, sont une simple photo à un moment donné d’un ensemble de variables et de leurs caractéristiques qui sont étudiées (chiffre d’affaire, coûts, effectifs etc…)

  • Predictive Analytics

    :

  • Prescriptive Analytics

La seconde typologie utilisée relève du domaine dans lequel les Analytics sont utilisés. Le Web est d’ailleurs parsemé d’articles défendant de manière véhémentes la différence entre Business Analytics, Web Analytics…

On identifie généralement cinq forces majeures à l’origine de l’accélération du mouvement Big Data :

  • l’automatisation des échanges de données et les Objets connectés
  • la révolution du stockage grâce au Cloud Computing
  • l’avènement d’une nouvelle science des données: les Analytics avancés
  • les progrès de la Visualisation de données
  • les nouvelles possibilités de monétisation

Plus que leur contribution individuelle, c’est l’interaction (complexe) entre ces éléments qui a réellement servi de tremplin aux Analytics.
Avec l’augmentation du volume et de l’hétérogénéité des données échangés (grâce aux objets connectés notamment) et les progrès des Analytics (fichiers ditribués, NoSQL) qui ont offert de nouvelles possibilités de les monétiser, le Cloud computing s’est imposé comme un moyen flexible et économique de stockage et de gestion la massification des échanges.

Lire l’article détaillé :
Big Data & Analytics : les facteurs derrière la révolution des Data

  • Régression Statistique :
  • Forecasting :
  • Data-Mining :
  • Text-Mining :
  • Optimisation : utilisation de techniques mathématiques pour identifier le niveau idéal d’une variable qui maximise le résultat selon le critère recherché en tenant compte de contraintes fixées. Par exemple, une entreprise peut vouloir trouver le prix optimal pour un produit, c’est à dire en général le niveau de prix qui maximise le profit réalisé sur ce produit. De nombreuses entreprises utilisent également des techniques d’optimisation pour déterminer le niveau optimal de stock, qui minimise les coûts de stockage tout en évitant le risque de rupture de stock.
  • Design Expérimental : action de tester des hypothèses sur des groupes de grande taille aléatoirement constitués pour isoler les relations de cause à effet et ainsi mettre en place une démarche d’amélioration continue. Par exemple, l’AB-Testing, qui consiste (notamment) à afficher des pages d’accueil différentes de manière aléatoire (pour un même site web), permet d’étudier l’impact des différences entre les pages (couleurs, ergonomie etc…) sur le parcours des internautes. Et comme vous pourrez le lire dans notre dossier sur le Testing Aléatoire, tous les géants du Web l’utilisent allègrement.

Lire le dossier sur Régression Statistique et sur les Tests aléatoires (également appelé Design Expérimental, A-B Testing…)

 

Partagez l’article

Inscrivez-vous à la Newsletter Data-Business.fr

 

Sélection d’articles

La Data Management Platform à l’ère du Big Data

A l’ère du Big Data, l’enjeu majeur pour toute entreprise est la gestion et l’optimisation de ses données à grande échelle. Les données collectées, toujours plus nombreuses, proviennent de multiples sources et de formats variés. Réseaux sociaux ou encore achats en ligne, ces sources doivent permettre aux marketeurs d’affiner leur connaissance de leurs cibles. A l’heure actuelle, Big data ne doit plus être synonyme d’accumulation mais bien de collecte et d’optimisation des données pour que les entreprises les assimilent et s’en servent pour atteindre leurs objectifs commerciaux.

Dans cette optique,

Big Data et Sécurité Informatique : risque ou opportunité ?

Toutes les entreprises sont potentiellement des victimes de cyber-attaques. Même celles qui sont les mieux protégées ont encore peur d’être infiltrées et piratées. L’avènement du Big Data peut être la solution, mais les « pirates » et leurs stratégies évoluent également.

16junedata-security
Big data au service de la sécurité de données
À l’heure des Big Data, la protection des données prend une nouvelle tournure. En effet, c’est un nouveau système de protection efficace qui va aider en quelque sorte les deux premiers

Parkeon facilite le stationnement grâce à l’application prédictive « Path to Park »

Le 14 avril 2015 à Paris, Parkeon et Dataiku ont annoncé le lancement de l’application Path to Park, lauréate du prix « Grand Public » lors des trophées de l’Innovation Big Data, qui utilise des algorithmes prédictifs en environnement Big Data pour contribuer à une meilleure gestion de la mobilité urbaine. En enrichissant les données historiques (parcmètres, horodateurs) et en modélisant les dynamiques de stationnement grâce au Data Science Studio, Parkeon a pu développer une solution qui fournit en temps réel des suggestions de parcours pour aider les automobilistes à se garer.

Pour un rôle plus ambitieux pour le Chief Data Officer

cdoJ’ai publié récemment un article sur le rôle du Chief Data Officer tel que nous suggérons fortement à nos clients, grands groupes en quête d’une colonne vertébrale pour l’important volet Data de leur transformation digitale.

Mais nous considérons que le buzz ambiant promeut une approche beaucoup moins ambitieuse. En effet dans beaucoup d’articles français sur le sujet, on entend une approche très IT, très BI (« mettre à disposition des décideurs les données ») pour

Exploiter les données : le pouvoir de la bonne information

L’exploitation des données peut permettre aux commerciaux de renforcer leurs argumentaires et d’améliorer le ciblage de leurs offres. Mais pour cela, il faut qu’ils soient dotés des bons outils. La clé est le média de transmission de l’information et la mise en place d’un ensemble d’Apps dédiées et performantes.

Le challenge du besoin d’information des métiers

Récolter des données n’est pas tout. Les entreprises doivent trouver un moyen efficace de les traduire et de les exploiter. Tous les domaines économiques ainsi que tous les métiers de l’entreprise sont concernés. Certaines populations, comme

By |mars 7th, 2015|Big Data|