A lire sur: http://cloud-experience.fr/deux-megatendances-it-a-ne-pas-manquer.html
On a identifié deux grandes sources de génération de données. Première source – La plupart des données sont « non structurées » (photos, vidéos, mails, tweets, etc.), et elles sont générées par les utilisateurs humains. Exemple : en février 2012, on comptait environ 140 millions d’utilisateurs actifs de Twitter (et Twitter estime qu’il existe plus de 500 millions d’utilisateurs) qui émettaient plus de 340 millions de tweets et lançaient plus de 1,6 milliard de recherches par jour ! Soit plus de 236 000 tweets par minute ! Même phénomène du côté de Facebook. En février 2012, Facebook comptait plus de 845 millions d’utilisateurs actifs, et plus de 40 milliards de photos publiées par ses utilisateurs.
Si Facebook était un pays, sa population serait la troisième du monde derrière la Chine et l’Inde. Et puisque nous parlons de l’Inde, sachez que le gouvernement de ce pays est en train de préparer une initiative qui verra chaque écolier recevoir une tablette pour l’aider dans sa scolarité. À l’issue de ce plan, 220 millions de tablettes auront été distribuées ! Cet atout n’est pas négligeable sur le plan éducatif, mais imaginez les volumes de données qui vont être générés au fil des semaines et des mois – et imaginez les défis en matière de gestion de données et réseau qui en découleront.
Mais les données ne sont pas générées par les seuls humains. Deuxième source : les capteurs. Les capteurs sont partout (voyez par exemple la récente annonce HP portant sur les serveurs Gen8 et leur « Océan de capteurs » qui analyse l’état du système sur 1600 points de capture de données). Dans le contexte de ces serveurs, les capteurs surveillent en mode continu et proactif différents modules et composants de manière à « prédire » les problèmes et à apporter les modifications nécessaires avant que ceux-ci ne se produisent. Autre exemple : les « capteurs de proximité » qui permettent à certaines voitures de faire un créneau sans aucune intervention de leur conducteur.
Les « étiquettes RFID » sont utilisées dans d’innombrables applications, dont les péages d’autoroute, la lutte contre le vol dans la grande distribution et le suivi des conteneurs. Les forces de l’ordre utilisent des capteurs de biométrie pour identifier les personnes à travers leurs empreintes digitales ou à l’aide d’un scanner d’iris. Une récente étude indique qu’on devrait compter plus de mille capteurs par être humain avant la fin de l’année 2012. Ces myriades de capteurs génèrent des ouragans de données chaque jour, et je note par ailleurs que les applications susceptibles de bénéficier de ces technologies ne cessent de se multiplier.
Bien que moins récente, une autre « mégatendance » est en train de s’affirmer : le concept d’infrastructure informatique hors site. Le cloud computing en est une parfaite illustration.
Sans toujours en être conscientes, la plupart des sociétés utilisent déjà une ou plusieurs infrastructures de ce type. Par exemple, l’externalisation n’est pas un concept nouveau dans le monde de l’informatique, mais elle s’est radicalement transformée à mesure que les services cloud s’imposaient à la fois dans le monde de l’entreprise et dans l’univers des consommateurs. Par exemple, saviez-vous qu’aujourd’hui plus de 80 % des activités de développement d’applications font appel à des infrastructures hors site ?
Mon sentiment est que cette tendance est largement le résultat de ces « applis » que nous téléchargeons par millions sur nos terminaux mobiles. Il existe aujourd’hui environ 5,9 milliards de terminaux mobiles dans le monde, ce qui correspond à 87 % de la population humaine. Plus de 10 milliards d’applications ont été téléchargées vers ces mobiles, et plus de 300.000 nouvelles applications ont été lancées au cours des trois dernières années. La plupart d’entre elles sont développées à l’aide d’infrastructures hors site. Pourquoi ? Parce que dans bien des cas, les développeurs en question sont des entreprises de petite taille ou même des développeurs indépendants. Ils ne disposent pas des moyens financiers ou des ressources nécessaires pour acquérir une infrastructure informatique dédiée.
Pour s’assurer des avantages concurrentiels, ils s’efforcent de développer et de lancer leurs applications en quelques semaines seulement, et cette mise sur le marché rapide modifie radicalement les paramètres : approche générale du développement d’applications, investissements à consentir et infrastructure nécessaire. Les développeurs d’applis préfèrent limiter l’utilisation (et le coût !) d’une infrastructure aux seuls moments où celle-ci est vraiment nécessaire. Dès que les phases de développement et de test sont terminées, ils abandonnent l’infrastructure et les coûts entraînés par celle-ci. Les sociétés ou les développeurs indépendants qui peuvent générer leurs applications de cette manière se dotent d’un sérieux avantage concurrentiel.
Et très clairement, les infrastructures hors site sont souvent associées aux technologies cloud.
Si cet article vous a plu et que vous souhaitez prendre connaissance d’autres opinions sur les technologies, les services et autres sujets informatiques en temps réel, n’hésitez pas à me « suivre » sur Twitter : DaveTwohyatHP.
Découvrez comment les partenaires HP ServiceONE peuvent vous proposer l’expertise locale dont vous avez besoin (avec la collaboration de nos ressources internationales).
Dave Twohy est vice-président « Monde » de HP Technology Services Channel Organisation. Il a 23 ans d’expérience dans le domaine de l’informatique, et il a collaboré avec un grand nombre d’entreprises de toutes tailles et de partenaires réseau dans le monde entier. Il intervient souvent lors d’événements professionnels ou de conférences de partenaires, ainsi que dans le « Centre d’expérience client » de HP.
le 4 septembre 2012
Le saviez-vous ? Selon certaines études, plus de 90 % des données disponibles dans le monde ont été générées au cours des deux dernières années ! Lorsque j’ai pris connaissance de cette statistique, j’ai commencé à me poser quelques questions : d’où viennent ces données ? À quoi sont-elles utilisées ? Quels défis et quelles opportunités représentent-elles pour les spécialistes de l’informatique ? |
On a identifié deux grandes sources de génération de données. Première source – La plupart des données sont « non structurées » (photos, vidéos, mails, tweets, etc.), et elles sont générées par les utilisateurs humains. Exemple : en février 2012, on comptait environ 140 millions d’utilisateurs actifs de Twitter (et Twitter estime qu’il existe plus de 500 millions d’utilisateurs) qui émettaient plus de 340 millions de tweets et lançaient plus de 1,6 milliard de recherches par jour ! Soit plus de 236 000 tweets par minute ! Même phénomène du côté de Facebook. En février 2012, Facebook comptait plus de 845 millions d’utilisateurs actifs, et plus de 40 milliards de photos publiées par ses utilisateurs.
Si Facebook était un pays, sa population serait la troisième du monde derrière la Chine et l’Inde. Et puisque nous parlons de l’Inde, sachez que le gouvernement de ce pays est en train de préparer une initiative qui verra chaque écolier recevoir une tablette pour l’aider dans sa scolarité. À l’issue de ce plan, 220 millions de tablettes auront été distribuées ! Cet atout n’est pas négligeable sur le plan éducatif, mais imaginez les volumes de données qui vont être générés au fil des semaines et des mois – et imaginez les défis en matière de gestion de données et réseau qui en découleront.
Mais les données ne sont pas générées par les seuls humains. Deuxième source : les capteurs. Les capteurs sont partout (voyez par exemple la récente annonce HP portant sur les serveurs Gen8 et leur « Océan de capteurs » qui analyse l’état du système sur 1600 points de capture de données). Dans le contexte de ces serveurs, les capteurs surveillent en mode continu et proactif différents modules et composants de manière à « prédire » les problèmes et à apporter les modifications nécessaires avant que ceux-ci ne se produisent. Autre exemple : les « capteurs de proximité » qui permettent à certaines voitures de faire un créneau sans aucune intervention de leur conducteur.
Les « étiquettes RFID » sont utilisées dans d’innombrables applications, dont les péages d’autoroute, la lutte contre le vol dans la grande distribution et le suivi des conteneurs. Les forces de l’ordre utilisent des capteurs de biométrie pour identifier les personnes à travers leurs empreintes digitales ou à l’aide d’un scanner d’iris. Une récente étude indique qu’on devrait compter plus de mille capteurs par être humain avant la fin de l’année 2012. Ces myriades de capteurs génèrent des ouragans de données chaque jour, et je note par ailleurs que les applications susceptibles de bénéficier de ces technologies ne cessent de se multiplier.
Bien que moins récente, une autre « mégatendance » est en train de s’affirmer : le concept d’infrastructure informatique hors site. Le cloud computing en est une parfaite illustration.
Sans toujours en être conscientes, la plupart des sociétés utilisent déjà une ou plusieurs infrastructures de ce type. Par exemple, l’externalisation n’est pas un concept nouveau dans le monde de l’informatique, mais elle s’est radicalement transformée à mesure que les services cloud s’imposaient à la fois dans le monde de l’entreprise et dans l’univers des consommateurs. Par exemple, saviez-vous qu’aujourd’hui plus de 80 % des activités de développement d’applications font appel à des infrastructures hors site ?
Mon sentiment est que cette tendance est largement le résultat de ces « applis » que nous téléchargeons par millions sur nos terminaux mobiles. Il existe aujourd’hui environ 5,9 milliards de terminaux mobiles dans le monde, ce qui correspond à 87 % de la population humaine. Plus de 10 milliards d’applications ont été téléchargées vers ces mobiles, et plus de 300.000 nouvelles applications ont été lancées au cours des trois dernières années. La plupart d’entre elles sont développées à l’aide d’infrastructures hors site. Pourquoi ? Parce que dans bien des cas, les développeurs en question sont des entreprises de petite taille ou même des développeurs indépendants. Ils ne disposent pas des moyens financiers ou des ressources nécessaires pour acquérir une infrastructure informatique dédiée.
Pour s’assurer des avantages concurrentiels, ils s’efforcent de développer et de lancer leurs applications en quelques semaines seulement, et cette mise sur le marché rapide modifie radicalement les paramètres : approche générale du développement d’applications, investissements à consentir et infrastructure nécessaire. Les développeurs d’applis préfèrent limiter l’utilisation (et le coût !) d’une infrastructure aux seuls moments où celle-ci est vraiment nécessaire. Dès que les phases de développement et de test sont terminées, ils abandonnent l’infrastructure et les coûts entraînés par celle-ci. Les sociétés ou les développeurs indépendants qui peuvent générer leurs applications de cette manière se dotent d’un sérieux avantage concurrentiel.
Et très clairement, les infrastructures hors site sont souvent associées aux technologies cloud.
Si cet article vous a plu et que vous souhaitez prendre connaissance d’autres opinions sur les technologies, les services et autres sujets informatiques en temps réel, n’hésitez pas à me « suivre » sur Twitter : DaveTwohyatHP.
Découvrez comment les partenaires HP ServiceONE peuvent vous proposer l’expertise locale dont vous avez besoin (avec la collaboration de nos ressources internationales).
Dave Twohy est vice-président « Monde » de HP Technology Services Channel Organisation. Il a 23 ans d’expérience dans le domaine de l’informatique, et il a collaboré avec un grand nombre d’entreprises de toutes tailles et de partenaires réseau dans le monde entier. Il intervient souvent lors d’événements professionnels ou de conférences de partenaires, ainsi que dans le « Centre d’expérience client » de HP.
Lire l’article original. |
Aucun commentaire:
Enregistrer un commentaire