A lire sur: http://www.itchannel.info/articles/147200/big-data-big-economy.html
Jusqu’au milieu des années 90, Internet était un média à taille humaine. Du fait de cette échelle, la recommandation des sites web se faisait à l’aide d’un répertoire de liens hypertextes classés par catégories et mis à jour à partir des avis d’experts de l’Internet. A l’époque, cette méthode exploitée par Yahoo, offrait un service de qualité supérieure aux premiers moteurs de recherche exploitant un index de pages web créé automatiquement par des algorithmes « robots ».
Durant la seconde moitié moitié de la décennie, les services de recommandations sur le web connaitront trois changement d’échelles, caractérisés par de nouveaux ordres de grandeurs : le cap du million de sites web est d’abord franchi, puis les centaines de millions de pages web s’imposent comme le nouvel ordre de grandeur à analyser et enfin les liens entre pages et documents du web dépassent rapidement le milliard d’occurrences. Chaque changement d’échelle sera à l’origine d’un nouveau paradigme qui engendrera lui-même un nouveau changement d’échelle. Cette interdépendance entre nouvelle échelle et nouveau paradigme débouchera sur l’estimation automatique - et non plus humaine - de la valeur des contenus colossaux du web et sur l’inversion du rapport de force existant entre la prescription humaine et la prescription algorithmique ; soit la victoire de la vision de Larry Page et Sergei Brin (Google) sur celle de Jerry Yang (Yahoo). Le Big Data est né.
Les dragons du digital renforcent leur position dominante par le contrôle de la data
Au début des années 2000, l’Internet mobile et les médias sociaux ont été les principaux promoteurs de nouveaux changements d’échelles et de nouveaux paradigmes concernant la production et l’utilisation des données. Sous leur impulsion, la quantité d’utilisateurs et les volumes de données utilisées ont crû de manière exponentielle durant les dix dernières années : entre 2000 et 2013, le nombre de sites web actifs est passé de moins de 10 millions à quasiment 200 millions !
Face à cet imposant volume de données en circulation, seule une poignée d’entreprises ont su déployer une infrastructure de type « Big Data » capable de servir des bases d’utilisateurs supérieures à 500 millions de personnes (plus d’un milliard pour Google et Facebook, plus de 900 millions pour Microsoft ou plus de 600 millions pour Apple…)
Parmi les grands défis posés à tous les secteurs d’activités suite à la maîtrise de ces grands volumes de données par ceux que l’on qualifie communément de dragons du digital, le risque de désintermédiation ou d’abus de position dominante est le plus redouté.
Google Knowledge Graph, symbole du risque de désintermédiation
Google Knowledge Graph cristallise cette crainte d’abus de position dominante. Ce service, lancé par Google en 2012, répond à une requête de manière quasiment instantanée en créant une page de résultats avec sur sa partie droite un « panneau de faits » reprenant des informations brutes en provenance de sites internet référents sur le sujet recherché. Et parfois, le moteur propose en première ligne de la page de réponse, au-dessus du « panneau de faits », son propre «panneau de réponses». A la faveur de ces deux panneaux, Google s’octroie la toute première place dans ses pages de résultats car la majorité des liens présents renvoient eux-mêmes vers une page de résultats de Google, construite sur le modèle décrit plus haut. Google Knowledge Graph ou l’art selon Google de changer les règles du jeu sans vraiment laisser de choix aux acteurs de l’écosystème !
Deux nouveaux paradigmes en puissance : le Data Marketing et le « Data-driven » Management
Après une première vague d’innovations conçues pour créer les infrastructures capables de supporter la digitalisation de l’information, l’industrie du Big Data s’oriente désormais vers la mise au point de nouveaux paradigmes tels que le Data Marketing et le « Data-driven » Management pour valoriser les données.
En matière de Data Marketing, Netflix fait figure de cas d’école. Cet ancien site web de location de DVDs, s’est reconverti depuis 2007 dans le streaming vidéo offrant donc à ses clients (plus de 40 millions d’abonnés répartis dans 40 pays) la possibilité de louer et de visionner directement depuis Internet les films et séries de leur choix. Outre la mise à disposition d’un large éventail de titres, Netflix à conçu un moteur de recommandations personnalisées prenant en compte les goûts et les avis de ses abonnés pour leur suggérer des nouveaux choix dans le but de les fidéliser et d’élargir son audience. Ces goûts, recueillis notamment par l’analyse des informations issues des habitudes de navigation en ligne, sont au centre du système de recommandations de Netflix. Des préconisations qui dépendront donc moins de la notation des films que des préférences de comportement et d’usages des consommateurs. Aujourd’hui, 75% des contenus visionnés sur la plateforme sont issus de Cinematch, son moteur de recommandations.
Bien qu’encore faible, le management par la data gagne du terrain. Très utilisé dans le domaine des jeux en ligne « sociaux », il consiste à analyser et exploiter les données issues des comportements du joueur en ligne pour faire évoluer le jeu de façon permanente en fonction de ses préférences afin de le fidéliser et de l’inciter à dépenser de l’argent virtuel (et parfois réel). Une fidélisation et une dépense dont le but sera la monétisation du joueur grâce au placement de produits et à l’insertion de publicité.
Ce management est, par exemple, au cœur du fonctionnement des jeux de Zynga, riches de 52 millions de joueurs uniques par jour, produisant quotidiennement 70 milliards d’événements contribuant à la mise à jour perpétuelle de chaque jeu.
L’exploitation de la data, une nouvelle ressource pour l’économie ?
Si la stimulation de la croissance économique des secteurs numériques par les données est déjà une réalité, il n’est pas exclu que, très prochainement, leur pouvoir catalyseur contamine également des secteurs non numériques, tels que le tourisme. Cette quasi-certitude s’appuie sur des conclusions tirées à partir d’expérimentations locales, comme par exemple le Comité Régional du Tourisme Côte d’Azur et l’opérateur Orange, indiquant la possibilité d’optimiser l’économie du tourisme par l’exploitation des données issues des usages des téléphones mobiles et des médias sociaux des touristes. En effet, la consolidation de statistiques ou la réalisation de cartographies de fréquentation d’une zone, sur la base de l’analyse de ces données, seraient de nature à orienter les prises de décision concernant la politique touristique du territoire, comme l’optimisation de l’emplacement des hôtels et des lieux ou les manières d’accueillir les visiteurs étrangers…
En plus du développement économique de secteurs non numériques, les données peuvent contribuer à dynamiser les synergies entre différents secteurs à la proximité naturelle. Par exemple, les sites du patrimoine ont des problématiques marketing proches des parcs d’attractions. En effet, ces deux acteurs constituent un élément attractif pour les voyagistes dont le service repose sur l’attractivité des territoires. Les sites du patrimoine, les parcs d’attractions, les voyagistes ainsi que les pouvoirs publics en charge de la politique d’exploitation commerciale du territoire, font donc partie d’un même écosystème au sein duquel le partage et l’exploitation commune des données peuvent être à la fois source de synergies économiques et un contre-pouvoir modérateur face à la prédation des dragons du digital vis-à-vis des data.
La smart city ou l’eldorado de la valorisation des données
S’il existait un paradis pour la data et sa valorisation, la smart city serait celui-là. Sur le modèle de ce qui se fait actuellement à Santander en Espagne, ce type de projet consiste à équiper une ville de plusieurs dizaines ou centaines de milliers de capteurs recueillant des informations de toutes sortes (les places de parking disponibles, le bruit, la température etc.) afin de les analyser via un centre de calcul dédié et les restituer à la population sous forme d’informations délivrées par la ville par le biais d’applications Internet et mobiles gratuites. Ces données sont également transmises aux organismes publics et privés qui opèrent les services de la ville (open data).
A l’évidence, la force de la smart city est donc d’impliquer autour d’un projet commun les acteurs sociaux, techniques, politiques et économiques de la ville. En effet, la collecte et la mise en commun de ces données confèrent notamment une meilleure compréhension de la structure sociale d’une ville et favorisent les initiatives entre acteurs privés et publics.
Dimanche 16 Mars 2014
Internet est-il le symbole de la prise de pouvoir de la prescription algorithmique sur la prescription humaine avec les moteurs de recherche ? Dans la continuité de ses travaux menés dans le cadre du Forum d’Avignon 2013, L’Atelier BNP Paribas revient sur les mécanismes fondateurs du Big Data et analyse son pouvoir grandissant sur l’économie : illustrations des nouveaux risques et paradigmes engendrés par l’industrie du Big Data, des secteurs les plus concernés et de son impact sur le quotidien des citoyens-consommateurs.Jusqu’au milieu des années 90, Internet était un média à taille humaine. Du fait de cette échelle, la recommandation des sites web se faisait à l’aide d’un répertoire de liens hypertextes classés par catégories et mis à jour à partir des avis d’experts de l’Internet. A l’époque, cette méthode exploitée par Yahoo, offrait un service de qualité supérieure aux premiers moteurs de recherche exploitant un index de pages web créé automatiquement par des algorithmes « robots ».
Durant la seconde moitié moitié de la décennie, les services de recommandations sur le web connaitront trois changement d’échelles, caractérisés par de nouveaux ordres de grandeurs : le cap du million de sites web est d’abord franchi, puis les centaines de millions de pages web s’imposent comme le nouvel ordre de grandeur à analyser et enfin les liens entre pages et documents du web dépassent rapidement le milliard d’occurrences. Chaque changement d’échelle sera à l’origine d’un nouveau paradigme qui engendrera lui-même un nouveau changement d’échelle. Cette interdépendance entre nouvelle échelle et nouveau paradigme débouchera sur l’estimation automatique - et non plus humaine - de la valeur des contenus colossaux du web et sur l’inversion du rapport de force existant entre la prescription humaine et la prescription algorithmique ; soit la victoire de la vision de Larry Page et Sergei Brin (Google) sur celle de Jerry Yang (Yahoo). Le Big Data est né.
Les dragons du digital renforcent leur position dominante par le contrôle de la data
Au début des années 2000, l’Internet mobile et les médias sociaux ont été les principaux promoteurs de nouveaux changements d’échelles et de nouveaux paradigmes concernant la production et l’utilisation des données. Sous leur impulsion, la quantité d’utilisateurs et les volumes de données utilisées ont crû de manière exponentielle durant les dix dernières années : entre 2000 et 2013, le nombre de sites web actifs est passé de moins de 10 millions à quasiment 200 millions !
Face à cet imposant volume de données en circulation, seule une poignée d’entreprises ont su déployer une infrastructure de type « Big Data » capable de servir des bases d’utilisateurs supérieures à 500 millions de personnes (plus d’un milliard pour Google et Facebook, plus de 900 millions pour Microsoft ou plus de 600 millions pour Apple…)
Parmi les grands défis posés à tous les secteurs d’activités suite à la maîtrise de ces grands volumes de données par ceux que l’on qualifie communément de dragons du digital, le risque de désintermédiation ou d’abus de position dominante est le plus redouté.
Google Knowledge Graph, symbole du risque de désintermédiation
Google Knowledge Graph cristallise cette crainte d’abus de position dominante. Ce service, lancé par Google en 2012, répond à une requête de manière quasiment instantanée en créant une page de résultats avec sur sa partie droite un « panneau de faits » reprenant des informations brutes en provenance de sites internet référents sur le sujet recherché. Et parfois, le moteur propose en première ligne de la page de réponse, au-dessus du « panneau de faits », son propre «panneau de réponses». A la faveur de ces deux panneaux, Google s’octroie la toute première place dans ses pages de résultats car la majorité des liens présents renvoient eux-mêmes vers une page de résultats de Google, construite sur le modèle décrit plus haut. Google Knowledge Graph ou l’art selon Google de changer les règles du jeu sans vraiment laisser de choix aux acteurs de l’écosystème !
Deux nouveaux paradigmes en puissance : le Data Marketing et le « Data-driven » Management
Après une première vague d’innovations conçues pour créer les infrastructures capables de supporter la digitalisation de l’information, l’industrie du Big Data s’oriente désormais vers la mise au point de nouveaux paradigmes tels que le Data Marketing et le « Data-driven » Management pour valoriser les données.
En matière de Data Marketing, Netflix fait figure de cas d’école. Cet ancien site web de location de DVDs, s’est reconverti depuis 2007 dans le streaming vidéo offrant donc à ses clients (plus de 40 millions d’abonnés répartis dans 40 pays) la possibilité de louer et de visionner directement depuis Internet les films et séries de leur choix. Outre la mise à disposition d’un large éventail de titres, Netflix à conçu un moteur de recommandations personnalisées prenant en compte les goûts et les avis de ses abonnés pour leur suggérer des nouveaux choix dans le but de les fidéliser et d’élargir son audience. Ces goûts, recueillis notamment par l’analyse des informations issues des habitudes de navigation en ligne, sont au centre du système de recommandations de Netflix. Des préconisations qui dépendront donc moins de la notation des films que des préférences de comportement et d’usages des consommateurs. Aujourd’hui, 75% des contenus visionnés sur la plateforme sont issus de Cinematch, son moteur de recommandations.
Bien qu’encore faible, le management par la data gagne du terrain. Très utilisé dans le domaine des jeux en ligne « sociaux », il consiste à analyser et exploiter les données issues des comportements du joueur en ligne pour faire évoluer le jeu de façon permanente en fonction de ses préférences afin de le fidéliser et de l’inciter à dépenser de l’argent virtuel (et parfois réel). Une fidélisation et une dépense dont le but sera la monétisation du joueur grâce au placement de produits et à l’insertion de publicité.
Ce management est, par exemple, au cœur du fonctionnement des jeux de Zynga, riches de 52 millions de joueurs uniques par jour, produisant quotidiennement 70 milliards d’événements contribuant à la mise à jour perpétuelle de chaque jeu.
L’exploitation de la data, une nouvelle ressource pour l’économie ?
Si la stimulation de la croissance économique des secteurs numériques par les données est déjà une réalité, il n’est pas exclu que, très prochainement, leur pouvoir catalyseur contamine également des secteurs non numériques, tels que le tourisme. Cette quasi-certitude s’appuie sur des conclusions tirées à partir d’expérimentations locales, comme par exemple le Comité Régional du Tourisme Côte d’Azur et l’opérateur Orange, indiquant la possibilité d’optimiser l’économie du tourisme par l’exploitation des données issues des usages des téléphones mobiles et des médias sociaux des touristes. En effet, la consolidation de statistiques ou la réalisation de cartographies de fréquentation d’une zone, sur la base de l’analyse de ces données, seraient de nature à orienter les prises de décision concernant la politique touristique du territoire, comme l’optimisation de l’emplacement des hôtels et des lieux ou les manières d’accueillir les visiteurs étrangers…
En plus du développement économique de secteurs non numériques, les données peuvent contribuer à dynamiser les synergies entre différents secteurs à la proximité naturelle. Par exemple, les sites du patrimoine ont des problématiques marketing proches des parcs d’attractions. En effet, ces deux acteurs constituent un élément attractif pour les voyagistes dont le service repose sur l’attractivité des territoires. Les sites du patrimoine, les parcs d’attractions, les voyagistes ainsi que les pouvoirs publics en charge de la politique d’exploitation commerciale du territoire, font donc partie d’un même écosystème au sein duquel le partage et l’exploitation commune des données peuvent être à la fois source de synergies économiques et un contre-pouvoir modérateur face à la prédation des dragons du digital vis-à-vis des data.
La smart city ou l’eldorado de la valorisation des données
S’il existait un paradis pour la data et sa valorisation, la smart city serait celui-là. Sur le modèle de ce qui se fait actuellement à Santander en Espagne, ce type de projet consiste à équiper une ville de plusieurs dizaines ou centaines de milliers de capteurs recueillant des informations de toutes sortes (les places de parking disponibles, le bruit, la température etc.) afin de les analyser via un centre de calcul dédié et les restituer à la population sous forme d’informations délivrées par la ville par le biais d’applications Internet et mobiles gratuites. Ces données sont également transmises aux organismes publics et privés qui opèrent les services de la ville (open data).
A l’évidence, la force de la smart city est donc d’impliquer autour d’un projet commun les acteurs sociaux, techniques, politiques et économiques de la ville. En effet, la collecte et la mise en commun de ces données confèrent notamment une meilleure compréhension de la structure sociale d’une ville et favorisent les initiatives entre acteurs privés et publics.
Source: infoDSI.com
Aucun commentaire:
Enregistrer un commentaire