Peut-on prédire la qualité d’un vin grâce au Data-Mining ?

vin-verre-alcool

Pour les amateurs de vin, l’achat d’une bouteille est souvent un investissement, voir un pari, basé sur l’idée qu’il y a de fortes chances pour qu’il se bonifie avec le temps. Grâce à l’approche statistique d’Orley Ashenfelter, il est désormais possible de prévoir mathématiquement la qualité et le prix futur d’un vin dès la fin des vendanges, pour être sûr d’acheter intelligemment.

Lors de l’achat d’un bon vin, le question n’est pas tellement de savoir ce qu’il vaut aujourd’hui, mais ce qu’il vaudra dans quelques années (même si ce n’est pas pour le revendre, ni même pour le boire). C’est cette question qui a conduit Ashenfelter, économiste à Princeton la journée et amateur de vin le soir, à adopter une approche statistique pour essayer de déterminer les facteurs qui influencent la qualité d’un vin, et donc son prix de vente futur. Véritable “Data-Detective”, Ashenfelter s’était déjà distingué par des études sur les salaires de jumeaux (pour isoler l’impact du cursus scolaire) ou sur les différences de limites de vitesse dans les états américains (pour comparer la “valeur” accordée à une vie humaine). Et fidèle à sa réputation, les conclusions qu’il tire sur la valorisation des vins ont mis le monde de l’œnologie en émoi.

Etape 1 : Isoler le lien de cause à effet grâce à l’approche statistique

“Le point de départ semblait évident”, explique Ashenfelter, “le vin est un produit agricole, et à ce titre, sa qualité dépend énormément des conditions météorologiques”.

Et en effet, en analysant des décennies de données météo dans la région de Bordeaux, Orley se rend compte que le niveau des précipitations et l’intensité de l’ensoleillement estival sont fortement corrélées au prix de vente des vins.

Ce qui est logique : lorsqu’il fait chaud, le raisin est plus mûr, et son acidité est réduite. Lorsqu’il pleut peu, le fruit se concentre, ce qui donne plus de corps (de goût) au vin. Il en conclut que les meilleurs vins sont issus des années avec de faibles précipitations en automne et des températures supérieurs la moyenne, et s’appuie sur des régressions statistiques entre les prix d’enchères et les données météo pour quantifier mathématiquement sa conclusion :

Qualité du vin = 12.145 + 0.00117 x (précipitation d’Oct. à Mars) + 0.0614 x (température moyenne Avril à Sept.) – 0.00386 x (précipitations Août et Sept.)

Tableau de Régression Statistique - Détail - Orley Ashenfelter

Cette équation, publiée pour la première fois dans le New York Times en 1987, est une révolution. En y insérant les données de température et de précipitations de n’importe quelle année, Ashenfelter prévoit avec une précision déconcertante le cours futur des vins. Devant le succès de sa modélisation, il décide de pousser l’analyse un cran plus loin:

  • il compare les prix des différents châteaux et arrive à une équation un peu plus poussée, qui lui permet de prédire la qualité de plus de 100 châteaux
  • il analyse les variations de prix selon le temps de “garde” d’un vin (en fonction de son année et de son château), et détermine qu’en moyenne, conserver un Bordeaux dans votre cave vous “rapportera” environ 2,38% tous les ans

Et tout en admettant que la formulation mathématique peut sembler inadaptée à une expérience aussi subjective que l’appréciation d’un bon vin, Ashenfelter affirme que “c’est exactement comme cela que les Français classaient les vins dans le célèbre système de classification de 1855”.

Etape 2 : Prouver la supériorité de l’analyse quantitative

Bien évidemment, les critiques et experts du monde du vin voient d’un mauvais œil les travaux d’Ashenfelter, qui remet en cause leur approche et donc leur rôle dans la “chaîne de valeur” du vin (conseiller les acheteurs, noter les châteaux et les années d’après leur expérience). La véhémence des réactions à la publication de son article est d’ailleurs une preuve éloquente de la révolution qu’a introduit l’approche quantitative dans le monde de l’œnologie.

William Sokolin, un grand négociant de vin new-yorkais, raconte d’ailleurs que la théorie d’Ashenfelter a reçu un accueil “entre violent et hystérique”, notamment de la part de l’un des experts les plus influents du milieu, Robert Parker. Le magazine britannique Wine, quant à lui, affirme par exemple qu’une formule “aussi simpliste invite au mépris”, Sous entendant ainsi qu’il n’y a pas de vérité possible sans complexité.

S’ensuit alors un bras de fer entre Ashenfelter et Robert Parker. Ce dernier cherche par tous les moyens à discréditer le statisticien et le compare à un “critique de film qui n’irait pas voir les films, mais se contenterait de les évaluer en se basant sur les acteurs et le réalisateur”. Orley, quant à lui, critique la démarche de Parker, en démontrant que les estimations initiales de l’œnologue sont systématiquement biaisées à la hausse.

C’est véritablement au début des années 90 que l’approche quantitative fait ses preuves. En 1989, Parker publie dans son magazine, “The Wine Advocate”, un article expliquant pourquoi selon lui le Bordeaux de 86 serait “très bon, voire exceptionnel”. Ashenfelter, jugeant que les précipitations au-dessus de la moyenne et la faible température “condamnent le cru à la médiocrité”, critique ouvertement Parker dans un article du NY Times. Mais surtout, Orley prédit que la cuvée 89, qui se trouve alors encore dans les fûts et que personne n’a encore goûté, serait “la cuvée du siècle”. Sur son échelle, si les Bordeaux de 1961 (réputée comme étant des meilleurs années) valent 100, ceux de 1989 se placent à 149, et ils se vendront plus chers que n’importe quel vin des 4 décennies précédentes. L’année suivante, toujours en se basant sur les données météorologiques, il remet le couvert en annonçant que l’année 90 serait encore meilleure, ce que Parker qualifie à nouveau “d’absurde, Néanderthalien”.

Et le recul lui donne raison : les Bordeaux de 1989 atteignent une côte de 18 / 20, et ceux de 1990 19 / 20 (SoDivin, SavourClub). La cuvée de 1989 se vend aujourd’hui pour plus du double de celle de 86, et celle de 90 se vend encore plus cher. Victoire par KO.

Au delà de la preuve empirique de la validité de sa démarche, l’approche quantitative d’Ashenfelter a plusieurs avantages:

  • Elle permet d’évaluer un vin dès la fin de la saison des vendanges. Dans un secteur ou les récoltes sont de véritables instruments financiers (“Wine Futures”), cela permet d’éviter une trop forte volatilité des prix durant les premières années de maturation.
  • Elle fournit à chacun une compréhension des facteurs qui influencent la qualité d’un vin :
  • Pour les consommateurs, il démystifie l’appréciation du vin. Plus besoin de connaître des mots techniques (assommé, rondeur, amaigri) ou de faire aveuglément confiance à un expert pour se constituer une cave de qualité. La transparence de l’approche statistique permet de balayer l’asymétrie d’information qui régnait dans le monde du vin (et règne encore trop souvent dans certains secteurs)
  • Pour les producteurs, cette équation vient apporter une justification statistique à l’intuition qu’ils développent avec l’expérience. Par exemple, il est maintenant possible de savoir que chaque degré supplémentaire pendant la saison de maturation augmente le prix d’un vin (en moyenne) de 61%.

Il est d’ailleurs évident que c’est cette “démocratisation” de la compréhension des relations causales qui a été à l’origine de l’intransigeance de l’industrie du vin dans les années 1990. D’après le journaliste William Kaiser :

Les négociants, experts et critiques n’ont tout simplement pas intérêt à ce que le public disposent du genre d’information qu’Orley leur a fourni. Depuis l’histoire du cru 86, que tous les experts considéraient comme un grand cru en devenir et qu’Ashenfelter a justement qualifié “d’arnaque”, le public s’est progressivement rendu compte que les experts étaient loin d’être infaillibles. Cela s’est ressenti dans les habitudes d’achat du vin et dans la chute drastique des abonnements aux magazines spécialisés. Cette équation a fait perdre des millions de dollars à des gens dont l’intérêt était de monopoliser et contrôler l’information pour rester l’autorité suprême en ce qui concerne la qualité des vins.

Heureusement, les choses sont en train de changer. Même si très peu d’experts ont formellement reconnu la validité de la “Bordeaux Formula” (de peur de devenir obsolètes), leurs prédictions collent dorénavant beaucoup plus aux résultats de son équation. Michael Broadbent, directeur de la division Vins et Spiritueux chez Christie’s, admet même que sa démarche quantitative est un pas en avant, et que c’est aux œnologues et aux négociants de s’adapter pour rester pertinents dans un marché plus transparent.

Pour en savoir plus :

  • L’économétrie du vin : “WINE ECONOMICS: EMERGENCE, DEVELOPMENTS, TOPICS” par Karl Storchmann (Anglais, 2011)
  • Le site d’Orley Ashenfelter : LiquidAsset
  • Articles recommandés :

  • Les Analytics et le Baseball : sabermétrie ou l’approche quantitative de la performance dans sport de haut niveau
  • Trouver l’amour grâce au Data-Mining : les algorithmes des sites de rencontre
  • Accès à la page Analytics : définition et fondamentaux, étude de cas, actualités
  • Voir les autres articles de la catégorie “Statistiques”
  • Les drivers derrière la révolution Big Data et Analytics
  • Cet article est inspiré de l’introduction du livre “Super Crunchers“, de Ian Ayres.
    Ian Ayres est avocat, économiste et professeur à Yale, auteur de nombreux livres et publications (Forbes, New York Times) et fondateur de StickK.com

    Les secteurs sont-ils égaux face au Big Data ?

    big-data

    Comme c’est souvent le cas avec des innovations technologiques, le degré d’adoption des outils Big Data dans les différents secteurs d’activité est assez hétérogène. Mais ce qui est frappant, c’est la variété des utilisations concrètes que les entreprises arrivent à en tirer pour améliorer leur produit, service ou leurs processus opérationnels, pour mieux maîtriser leur risque, ou même pour diversifier leur business model.

    Deux choses sont à noter :

    • d’une part, la percée des nouveaux outils Big Data est inégale : le Retail et les Télécom sont en tête, avec près de 70% des entrprises ayant déjà investi ou prévoyant d’investir dans des technologies Big Data dans les 2 prochaines années. Les secteurs de la Santé et les Administrations publiques à la traîne avec moins de 40% de taux de pénétration.
    • D’autre part, si certaines techniques “génériques”, comme le croisement de données internes (transactions client) et externes (réseaux sociaux par exemple) trouvent des applications dans tous les secteurs, d’autres comme la répression des fraudes grâce à l’analyse comportementale ne sont applicables qu’à certains secteurs en particulier.

    La grille ci-dessous, élaborée en collaboration avec Capgemini Consulting à partir d’études réalisées par Gartner et Oracle, classe les secteurs selon leur maturité face au Big Data et donne une estimation du potentiel d’amélioration ainsi des exemples d’applications concrètes (cliquer sur l’image pour agrandir):

    Big Data et Secteurs

    Le Big Data recouvre un ensemble d’innovations technologiques de fond qui ouvre un ensemble d’opportunités dont tous les secteurs peuvent profiter, mais leur créativité, leur vision et le niveau d’investissement qu’ils y consacrent reste un élément déterminant de l’avantage concurrentiel qu’elle pourront en tirer.

    Articles recommandés :

  • Big Data : une aubaine pour les opérateurs Télécom
  • Big Data et Expérience client chez Expedia
  • Voir les autres articles de la catégorie “Etude de Cas”
  • Accès à la page Big Data : définition, enjeux, études de cas
  • Sources :

  • Oracle Industry Scorecard 2012
  • Gartner : Big Data Opportunities in Vertical Industries (2012)
  •  

    Les 10 entreprises Big Data les plus innovantes

    innovation-1

    Le Big Data est une tendance de fond qui trouve des applications dans tous les secteurs. De plus en plus d’entreprises se servent des innovations technologiques autour du Big Data pour répondre à des défis scientifiques, économiques et humains. Le classement ci-dessous présente les innovations les plus prometteuses et les entreprises qui les mettent en place.

     

  • Voir le classement des entreprises Big Data par chiffre d’affaire
  • Voir toutes les études de cas Big Data
  •  

    1. GENERAL ELECTRIC

    GE se sert des données de capteurs embarqués dans ses avions et ses trains pour créer un “Internet Industriel”.

    General Electric est devenu au cours des dernières années un acteur majeur dans le monde du Big Data, grâce notamment à son ambition de créer un “Internet Industriel”, une vision dans laquelle les machines sont connectées et communiquent entre elles pour améliorer leur efficacité et minimiser les risques d’incidents. En 2012, ils ont lancé une solution permettant aux transporteurs (aériens, ferroviaires) de migrer facilement leurs data dans le Cloud. Ils ont également formé une JV avec Accenture pour créer Taleris, une entreprise spécialisée dans la maintenance prédictive et la réduction des délais / annulations pour les compagnies aériennes. Etihad Airways a été le premier à déployer la techno en Novembre 2013.

    2. KAGGLE

    Kaggle propose aux entreprises de faire analyser leurs données par des data-scientists à-la-demande.

    Plus que jamais, les entreprises sont conscients de la valeur des données dans la prise de décision et la création de valeur. Avec ses 150 000 data-scientists, Kaggle s’est positionné comme l’interlocuteur privilégié pour toutes ces entreprises qui souhaitent tirer parti de leurs volumes de données en publiant des “data-challenges” rémunérés. Les data-scientists de Kaggle ont ainsi créé des algorithmes pour Facebook ou Amazon, et peuvent être rémunérés jusqu’à 300$ de l’heure pour conseiller et démêler les données des entreprises.

    3. AYASDI

    Ayasdi utilise une technique de visualisation révolutionnaire permettant de découvrir de nouvelles corrélations

    Grâce à une plateforme technique innovante, Ayasdi visualise les données sous forme de carte en 3D (exemple) qui permet de découvrir de nouvelles tendances. Grâce à son innovation, l’entreprise a permis d’isoler certains caractères génétiques de survivants du cancer, d’identifier la source d’une épidémie d’E.coli, ou plus récemment, de cartographier l’activité terroriste autour de Baghdad lors des campagnes de libération de prisonniers d’Al Qaeda. Ayasdi a levé 30 millions de dollars en 2013.

    4. IBM

    IBM travaille à l’évangélisation du Big Data et partage ses capacités de calcul et d’analyse avec les villes, les entreprises et les universités

    IBM a engrangé 1,3 milliards de dollars de revenus grâce à ses solutions Big Data en 2012, et ce n’est pas seulement grâce à son expertise dans le stockage et l’analyse de données. Depuis les premiers jours du Big Data, IBM travaille à l’évangélisation de la démarche data-centric. Avec son initiative Smarter Cities lancée il y a 3 ans, IBM nous montre tous les jours comment les technologies Big Data peuvent aider les villes à mieux gérer les flux de voyageurs en optimisant l’offre de transports par exemple. IBM est également un partenaire de nombreux programmes universitaires centrés sur le Big Data et les Analytics (avec HEC notamment).

    5. MOUNT SINAI ICAHN

    L’école de médecine MSI se sert de data-scientists et de super-calculateurs pour construire l’hôpital du futur

    Cet hôpital basé à New York engage les meilleurs cerveaux de la Silicon Valley pour construire une infrastructure qui vise à se cartographier le génome des patients pour prédire les risques de pathologies, réduire le nombre de visites à l’hôpital et optimiser la gestion des dossiers médicaux. Au cœur de leurs efforts, un investissement dans un super-ordinateur de 3 millions de dollars, baptisé Minerva et une bas de données constituée des données génomiques de plus de 25 000 patients.

    6.THE WEATHER COMPANY

    TWC analyse les climats locaux pour prédire l’impact des conditions climatiques sur le comportement des consommateurs

    En analysant les comportements d’achat de plus de 3 millions d’utilisateurs mobile, rapprochés aux conditions climatiques uniques de leur position géographique, The Weather Company est devenue un géant de la publicité, qui aide les marques de shampoing par exemple à cibler les consommateurs dans une zone humide pour un produit défrisant. Aujourd’hui, plus de la moitié des revenus publicitaires de TWC proviennent de canaux digitaux.

    7.KNEWTON

    Knewton rend des millions d’étudiants plus intelligents

    Grâce à sa plateforme digitale, Knewton analyse la progression de millions d’étudiants, de la maternelle à l’université, pour créer des des tests adaptés et des objectifs personnalisés. Grpace à des partenariats forts, Knewton se lance dans la création de manuels d’enseignement digitaux et de cours de maths adaptifs. Ces innovations ont été récompensées par une levée de fonds de 51 millions fin 2013, menée par le fonds Atomico.

    8. SPLUNK

    En fournissant des applications personnalisées aux entreprises, Splunk les aide à améliorer leur efficacité

    Après une introduction en bourse retentissante en 2012, Splunk a transformé l’essai en s’imposant dans le monde des pure players du Big Data (3ème position en termes de CA avec 160 millions de CA), grâce à des nouveaux clients prestigieux comme T-Mobile ou le géant de l’e-commerce B2W. En développant des applications autour du Big Data, Splunk permet aux entreprises d’analyser, de manipuler et de visualiser leurs données de manière innovante.

    9. GNIP

    Gnip permer à ses clients de naviguer de manière innovante dans l’océan des réseaux sociaux

    Le service de Gnip permet à ses clients de chercher et de trier les flux en provenance des réseaux sociaux tels que Google+, Tumblr, Facebook, Twitter, Foursquare, Reddit et Bitly. Les fonctions de veille et de recherche se sont largement améliorées cette dernière années, avec notamment la possibilité de chercher par attribut, par position géographique, par mot clé, et l’accès à l’historique complet des tweets par exemple.

    10. EVOLV

    En analysant les données de performance des employés, Evolv aide les entreprises à réduire le turnover et révolutionne les RH

    En plus d’aider les entreprises à mieux trier les candidats, en comparant leurs compétences, leur expérience et leur personnalité, Evolv crunche des millions de données (prix du carburant, taux de chômage…) pour prédire quand un employé est le plus susceptible de démissionner, et recommande ensuite la meilleure démarche à adopter pour empêcher son départ. Parmis les enseignements qu’Evolv tire de ses analyses : les employés avec deux comptes sur les médias sociaux performent mieux que ceux qui en ont plus ou moins de deux, et dans un nombre significatif de carrières (notamment les postes en centre d’appel), les employés avec un casier judiciaires obtiennent de meilleurs performances que les autres ! Le CA d’Evolv a augmenté de 150% entre Q3 2012 et Q3 2103.
     

  • Voir le classement des entreprises Big Data par chiffre d’affaire
  • Cet article est initialement paru sur le site Fast Company
     
    [kkstarratings]
     

    Inscrivez-vous à la Newsletter



    Algorithmes de sites de rencontre : peut-on trouver l’amour grâce au Data Mining ?

    Rencontre

    La montée en puissance du site de rencontre eDarling témoigne du succès de leur application du Data Mining. Contrairement aux sites de rencontre classiques qui vous proposent des partenaires en fonction des préférences que vous renseignez, eDarling utilise des techniques statistiques pour vous caser avec quelqu’un qui vous correspond…

    Le data-mining pour faire des rencontres

    L’algorithme d’eDarling repose sur l’une des plus anciennes techniques statistiques : la régression. Grâce à l’anayse d’une base de données de 5000 couples mariés, eDarling a élaboré un modèle prédictif permettant de prévoir la probabilité de succès d’un couple (la variable principale) en fonction de 29 critères concernant la personnalité, le tempérament, la classe sociale et les “attributs cognitifs” d’un individu (les variables causales).

    L’approche d’eDarling consiste à se baser en priorité sur ces attributs, sans s’intéresser aux éventuelles préférences amoureuses que vous pourriez exprimer. En somme, ils considèrent que les statistiques savent mieux que vous avec qui vous avez le plus de chances d’être heureux.

    eDarling n’est pas le seul site à avoir recours au data-mining pour déterminer la compatibilité amoureuse. True.com a une approche similaire mais qui prend en compte 99 facteurs relationnels. Perfectmatch utilise une version modifiée du test de personnalité Myers-Briggs pour classer les individus selon 16 “catégories de personnalité”, et case ensemble les gens appartenant à des catégories compatibles.
    Mais si ces sites adoptent tous des approches quantitatives, leurs hypothèses de départ sont radicalement différentes.
    En effet, eDarling se base sur un “modèle de similarité”, en considérant que les couples qui marchent sont ceux dans lesquels les partenaires ont le plus de choses en commun. D’après le fondateur d’eHarmony (le pendant américain d’eDarling) Neil Clark Warren :

    D’après nos recherches, la similarité entre les partenaires un facteur déterminant du succès d’un couple. La clé, c’est de trouver quelqu’un avec une intelligence comme la vôtre, une énergie comme la vôtre, une spiritualité comme la vôtre, une curiosité comme la vôtre.

    A l’inverse, Perfectmatch et True.com partent du principe que ce qui compte, c’est la complémentarité. Le fondateur de Perfectmatch, Pepper Schwartz, l’explique ainsi :

    Nous savons tous, dans notre coeur et dans notre esprit, que nous sommes attirés et que nous nous entendons mieux avec des gens différents. Ce qu’il y a de bien avec le test Myers-Briggs, c’est non seulement qu’il permet d’identifier le type de personnalité, mais aussi qu’il donne des indications quant aux types de personnalité complémentaires, ceux qui vont bien ensemble.

    Quelle formule pour trouver l’amour ?

    Ces sites se sont lancés dans une compétition pour prouver la supériorité de leur modèle. True.com insiste sur le fait que c’est le seul site à avoir été certifié par un auditeur indépendant (on a envie de dire, et alors ?). eDarling a sponsorisé une étude dont les résultats montrent qu’ils sont à l’origine de 90 marriages tous les jours (soit environ 30 000 par an). Ce qui veut dire que si vous êtes l’un des 5 millions de membres du site, il y a environ 1 chance sur 100 pour que votre abonnement de 30€ vous amène jusqu’à la mairie. eDarling a également presenté une étude à la “American Psychological Society” sur le fait que les couples qui se sont formés sur le site sont plus heureux que la moyenne.
    Bien qu’il y ait de sérieuses failles dans leur étude, le fait qu’ils utilisent le data-mining à la fois pour proposer des partenaires mais aussi pour prouver la validité de la démarche est un signe que les chiffres sont une source de légitimité de plus en plus importante.

    Dans la même veine , Garth Sundem a analysé les marriages de célébrités pour prédire de la longétivité de ces unions. Ses résultats, publiés dans son livre Geek Logic, nous apprennent que le nombre de recherches Google, le degré de “suggestivité” des premiers résultats d’images sont des facteurs qui réduisent les chances d’un mariage durable.

    Les limites de l’approche quantitative

    Au-delà du discours marketing de ces sites, il faut souligner que les algorithmes de matching ne sont pas entièrementent basés sur des data, puisqu’ils prennent toujours en compte les préférences déclarées des utilisateurs. Par exemple, eDarling permet aux internautes de choisir la couleur de peau des partenaires qu’ils veulent rencontrer, ce qui, en principe, est illégal (car les recommandations ne sont pas les mêmes pour tout le monde, ce qui est une forme de discrimination). Le parent américain d’eDarling, eHarmony, refuse de matcher les couples de même sexe. Et biens que ses fondateurs affirment que “eHarmony est pour tout le monde, nous ne faisons aucune discrimination”, leur fonctionnement démontre clairement le contraire. Ils refuseraient de matcher deux hommes même si leur algorithme indiquait formellement que le partenaire idéal était du même sexe. Triste contradiction que de clamer que la similarité est la clé du bonheur, sauf quand on en vient au sexe.

    Articles recommandés :

     

     

    Cet article est inspiré du livre “SuperCrunchers” de Ian Ayres.

    Présentation de Linkurious : la visualisation de graphes

    linkurious

    Linkurious

    Catégorie de l’entreprise : DataViz
    Site Web : www.linkurio.us

    Linkurious aide les entreprises à comprendre et visualiser les connections dans leurs données.

    Description : Linkurious est une startup française qui souhaite rendre les graphes facile à comprendre et explorer. Nous vivons dans un monde connecté où il y a de plus en plus de données. Comprendre les réseaux qui se cachent derrière ces données est essentiel pour répondre à des problèmes tels que la détection de fraude, la recommandation de produits ou la gestion de réseaux.

    Tags : graphes, visualisation

    Présentation de l’entreprise en vidéo

    Visualize graph data easily with Linkurious from Linkurious on Vimeo.

    La presse en parle :

  • Slideshare : présentation de l’offre Linkurious
  • KDNuggets : Linkurious vous aide à visualiser vos données en graphes
  • Neotechnology : Linkurious aide les utilisateurs de Neo4j à explorer et visualiser leurs données

  • Retour à l’annuaire d’entreprises Big Data

    Présentation d’Insynium

    insynium

    Insynium

    Catégorie de l’entreprise : Big Data, Open Data
    Site Web : www.insynium.com

    Insynium vous propose un outil Big Data simple et efficace vous permettant de traiter toutes vos données externes et internes à l’instant T.

    Description : L’évolution de la technologie est telle, que les entreprises ont de plus en plus de données à traiter. L’émergence des réseaux sociaux entraînent de nouvelles sources d’informations, l’e-reputation; les commentaires produits, les avis clients, la traçabilité clients…
    Pour répondre au mieux à ces besoins qui prennent de plus en plus d’ampleur, nous vous proposons un outil orienté Big Data, vous permettant de traiter toutes vos données externes et internes à l’instant T. Ainsi, cette solution vous offre une visibilité complète de votre écosystème. Notre tableau de bord vous aidera dans vos prises de décisions et stratégies entreprise. Il vous assurera un gain de temps et une meilleure analyse de vos données. Notre solution est disponible en open source à un prix très compétitif, n”hésitez pas à visiter notre site internet ou prendre contact avec nous pour plus d’informations.

    Tags : aide à la décision, stratégie d’entreprise, tableau de bord, analyse SI


    Retour à l’annuaire d’entreprises Big Data

    [Communiqué] CeBIT 2014 : OpenDataSoft, finaliste du concours CODE n_14

    Paris, le 7 février 2014 – OpenDataSoft a été retenue parmi les finalistes du concours de startups Big Data CODE_n14 qui récompense les meilleures startups internationales de la « révolution des données ».

    opendatasoft

    CODE_n et le CeBIT

    CODE_n est une initiative internationale valorisant les startups innovantes. Initiée en 2011 par le Groupe GFT, elle a pour but de soutenir les nouvelles pépites IT et accélérer l’innovation.
    Le CeBIT, le plus grand salon consacré aux technologies de l’information au monde, est partenaire de CODE_n. Organisé tous les ans à Hanovre (Allemagne), son édition 2014 aura lieu du 10 au 14 mars. Cette année, plus de 5000m2 seront consacrées aux startups finalistes du concours CODE_n14 regroupées autour du thème de « la révolution des données ».

    Deux startups françaises sur 50 finalistes internationaux

    Parmi plus de 450 candidats venant de 60 pays, seules deux startups françaises font partie des 50 finalistes : (OpenDataSoft) et (Precogs).

    Le potentiel d’innovation de l’entreprise était un critère de sélection déterminant.

    « Nous avons été impressionnés par l’exceptionnelle qualité des candidatures que nous avons reçues. » a déclaré Ulrich Dietz, initiateur de CODE_n et CEO du Groupe GFT.

    Sélectionnée dans la catégorie « Technologies de l’Information », OpenDataSoft est spécialisée dans le traitement et la publication de données en ligne.

    Programme de l’événement

    Durant toute la semaine, OpenDataSoft sera présente au Pavillon CODE_n, un des espaces les plus fréquentés du salon, et présentera sa plate-forme de publication et de partage de données aux 230 000 visiteurs internationaux attendus.

    Pour Jean-Marc Lazard (http://twitter.com/jmlazard), CEO d’OpenDataSoft, “être sélectionné par CODE_n et exposer au CeBIT permet à OpenDataSoft d’être plus visible sur la scène internationale. Suite à l’annonce des finalistes, des prospects américains et australiens nous ont contacté pour nous rencontrer lors du salon.”
    La cérémonie de remise des prix CODE_n14 aura lieu le 12 mars. La startup gagnante recevra 30000€.

    A propos d’OpenDataSoft

    Créée en 2011, OpenDataSoft développe une plate-forme en ligne complète conçue pour la transformation rapide et économique de tous types de données en services innovants (APIs, visualisations de données, monitoring en temps réel) sans aucune limite de volumétrie. Sa mission : faciliter la publication, le partage et la réutilisation de données par les utilisateurs métiers. Basée à Paris, OpenDataSoft compte parmi ses clients le Ministère de l’Enseignement Supérieur et de la Recherche, la Région Île-de-France, la Ville de Bruxelles, SNCF, la RATP, Veolia, ou encore m2ocity.

    Plus d’informations sur www.opendatasoft.com ou sur Twitter: @opendatasoft

    Présentation de Holimetrix

    holimetrix

    Holimetrix

    Catégorie de l’entreprise : Analytics
    Site Web : www.holimetrix.com

    Holimetrix est une solution de convergence analytics pour mesurer et analyser les performances des entreprises digitales.

    Description : Holimetrix a été spécifiquement développé pour les entreprises digitales qui investissent en media (online et offline) et en marketing (acquisition et fidélisation). Leur préoccupation principale est de permettre de générer des gains de productivité marketing pour les entreprises et de participer à rendre leurs actions media et marketing plus efficaces et plus rentables. La solution Holimetrix est un outil qui répond aux défis court et moyen termes que rencontrent ces entreprises

    Tags : Media, Marketing

    La presse en parle :

  • CBNEWS – Famihero.com en pleine herezie
  • PETITWEB – Médiaplanning : Holimetrix, une révolution venue des pure player…

  • Retour à l’annuaire d’entreprises Big Data



    Retour à l’annuaire d’entreprises Big Data

    Présentation de Data&Data Consulting

    data&data consulting

    Data&Data Consulting

    Catégorie de l’entreprise : Analytics, Big Data, Dataviz
    Site Web : www.data-and-data.com

    Data&Data est un cabinet spécialisé dans le Big Data et Analytics, le conseil en stratégie et en organisation sur les problématiques liées à l’analyse, la gouvernance et la qualité des données.

    Description : Data&Data est une structure constituée de consultants expérimentés, spécialisés dans la data avec un background d’ingénieurs et de statisticiens.
    Notre pôle Consulting assiste les sociétés dans la valorisation de leurs données : recommandations en terme de pistes de création de valeur, de choix de technologies, de procédures et de stratégies à mettre en place. Data&Data est également un laboratoire d’innovation en solutions analytiques, dédié aux problématiques de Big Data et de visualisation des données. Nos chercheurs issus d’universités de premier plan, Berkeley, Copenhagen Business School et Stanford University, travaillent avec passion sur la conception et le développement de solutions innovantes pour nos clients.

    Tags : Conseil, Innovation, Recherche

     

    Présentation de Data&Data Consulting en vidéo

    Data&Data from DATA&DATA on Vimeo.


    Retour à l’annuaire d’entreprises Big Data



    Retour à l’annuaire d’entreprises Big Data

    [Infographie] Les Tendances du Big Data par Jaspersoft

    Jaspersoft survey

    Une nouvelle étude sur les tendances du Big Data, publiée par Jaspersoft montre que bien qu’il y ait encore beaucoup de confusion autour de l’application concrète du Big Data au sein des entreprises, celles-ci sont de plus en plus déterminées à mettre en place des stratégies Big Data.

    Le nombre d’entreprises ayant investi dans des programmes Big Data a doublé depuis la dernière étude (2012), et seules 20% déclarent ne pas voir d’intérêt business dans la mise en place de tels programmes. Sans surprise, le principal domaine d’application concerne la Gestion de la Relation Client, dans lequel les data sont utilisées pour améliorer la connaissance et l’expérience client.

    L’infographie ci-dessous résume les principales conclusions de l’étude :

     

    À propos de Jaspersoft

    Jaspersoft propose la suite décisionnelle la plus flexible, la plus rentable et la plus utilisée au monde. Ses fonctions hautement interactives de création de rapports, de tableaux de bord et d’analyse assurent de meilleures prises de décision. Leader du support pour les déploiements cloud, big data et mobiles, Jaspersoft aide ses clients à tenir leurs promesses en matière de décisionnel libre-service adapté. S’appuyant sur un modèle open source commercial et une communauté de plus de 275 000 membres, les logiciels décisionnels open source de Jaspersoft ont été téléchargés plus de 16 millions de fois. Les déploiements Jaspersoft en production (plus de 175 000), nourrissent 130 000 applications orientées données utilisées par 15 000 clients commerciaux. Jaspersoft est une société privée et possède des sites dans le monde entier. Pour plus d’informations, consultez les pages http://www.jaspersoft.com et http://www.jasperforge.org.
     

    [kkstarratings]

     

    Inscrivez-vous à la Newsletter