le 30 janvier 2012
Quatre experts en technologie de chez HP décrivent les perspectives principales qui attendent les entreprises en 2012 (cloud, sécurité, processeurs, stockage, innovation, etc.). |
Imaginez l’argent (et les insomnies !) que vous économiseriez si vous aviez une boule de cristal capable de faire apparaître les défis que votre infrastructure informatique devra relever en 2012 ! Mieux encore, imaginez que cette boule magique vous dise QUAND votre entreprise sera victime d’une faille de sécurité —Vous avez bien lu : Non pas SI elle connaîtra ce type d’incident, mais QUAND elle le connaîtra !. Ou imaginez cet autre cauchemar : un nouveau réseau social surgit et accapare toute la bande passante de votre réseau…
Nous n’avons pas (pas encore !) de telle boule de cristal à vous proposer, mais sans doute mieux : l’expertise et les dons d’intuition de plusieurs blogueurs HP et de plusieurs chercheurs des HP Labs. Dans les paragraphes qui suivent, ils vous présentent leurs prédictions pour 2012 en matière d’informatique d’entreprise. Voyez si ces prédictions rejoignent les vôtres.
Christian Verstraete, Expert HP en technologie et solutions cloud
1. Les entreprises adoptent le cloud en masse, mais les applications « legacy » sont conservées dans le data center
Le cloud continue à séduire les entreprises. Les entreprises vont délocaliser certaines de leurs applications dans des clouds privés ou publics, mais les applications « legacy » seront conservées dans le datacenter actuel. Il s’agit des applications qui constituent l’épine dorsale opérationnelle de l’entreprise : gestion financière, suites ERP, gestion de la production, gestion des ressources humaines, etc.
Les entreprises ont dépensé des millions d’euros à l’implémentation de ces applications fondamentales – elles ne se voient guère les transférer dans le cloud. Par ailleurs, ces applications ne sont plus en capacité de dégager un avantage concurrentiel pour les entreprises. Aujourd’hui, les avantages concurrentiels découlent d’une question fondamentale : « Combien de temps pour développer des produits nouveaux ou novateurs ? » Et c’est précisément dans ce contexte que le cloud entre en jeu.
2. L’informatique interne va évoluer vers la gouvernance du cloud
Plus l’entreprise s’appuiera sur le cloud, plus le rôle du DSI sera amené à basculer vers la « gouvernance du cloud ». Il devra établir un dialogue permanent avec les directions métier de l’entreprise et définir avec elles l’évolution de l’informatique interne, de manière à adapter celle-ci aux besoins et aux objectifs de l’entreprise. Si le DSI ne prend pas cette initiative, il sera confronté tôt ou tard à une consommation anarchique de l’informatique : soit la création d’entités parasites d’informatique par les Business Units (« shadow IT »), soit des Business Units qui abandonnent l’informatique de l’entreprise au profit de services proposés par les prestataires de clouds publics. Sans parler des problèmes collatéraux : les mécanismes de sécurité implémentés dans les clouds publics correspondent-ils VRAIMENT aux exigences de VOTRE entreprise en la matière ?
Steve Simske, HP Fellow et directeur des HP Labs
1. La sécurisation des documents passera par le chiffrement
2012 sera l’année de la sécurité. En 2012, la sécurité de l’entreprise ne sera plus un mal nécessaire qu’on règle à coup d’achats de dizaines de logiciels de sécurité a posteriori. Les entreprises devront déployer une infrastructure de sécurité entièrement nouvelle. L’émergence de ce type d’infrastructure sera portée par le cloud et par la nouvelle génération de protocole Internet, IPv6.
Les distinctions entre différents droits d’accès vont disparaître. La sécurisation de l’entreprise passera par le déploiement d’infrastructures à clés publiques (PKI – Public Key Infrastructure) et d’un chiffrement reposant sur l’identité des utilisateurs. Il n’est plus concevable de stocker les documents « à l’ancienne » et sans cryptage fiable. En protégeant les documents, vous protégez vos marques, vos produits, votre propriété intellectuelle et votre réputation.
Mon équipe a développé APEX (Automated Policy Enforcement eXchange), un système logiciel qui permet d’appliquer des politiques de sécurité aux workflows documentaires. Les droits d’accès aux contenus sont soumis à une infrastructure PKI ou à un cryptage/décryptage lié à l’identité du demandeur. Avec APEX, les politiques de stockage et de sécurité applicables aux workflows documentaires sont actualisées en permanence et en temps réel.
Partha Ranganathan, HP Fellow, HP Labs et Paolo Faraboschi, Expert HP en technologie, HP Labs
1. Les processeurs à basse consommation vont s’inviter dans les serveurs des datacenters
2012 va voir l’arrivée de processeurs basse consommation de type ARM, ou Atom. Ces processeurs faciliteront l’émergence d’une nouvelle catégorie de serveurs qui viendront épauler les serveurs conventionnels tout en faisant preuve d’une plus grande efficacité énergétique.
Les processeurs basse consommation sont parfaitement adaptés aux applications qui gèrent des volumes élevés d’E/S et qui se contentent d’une puissance de traitement réduite (par exemple, data mining ou gestion des statuts dans un réseau social). En revanche, ils ne conviennent pas forcément aux applications de calcul intensif.
Ces processeurs seront installés dans des « micro-lames » (de format plus réduit que les lames actuelles), et leur consommation sera dix fois moindre que celle des serveurs à lames actuels. Dans la foulée, ces processeurs vont modifier radicalement la notion de « lame de serveur ». D’ailleurs, les micro-lames n’auront pas du tout la même apparence que les lames actuelles. Par contrecoup, la granularité des serveurs va également changer.
Coût inférieur
Les technologies à base de processeurs basse consommation permettent de créer des objets informatiques encore plus denses. Chaque lame demi-tiroir 1U ou 2U peut recevoir des dizaines ou même des centaines de nœuds ou de processeurs de serveur. Le coût des processeurs basse consommation étant inférieur à celui des processeurs conventionnels, vous pouvez envisager un nombre beaucoup plus important de serveur sur chaque lame. En résumé, le nombre de threads ou de sessions utilisateur supporté par chaque lame va augmenter de manière considérable.
2. Les solutions Flash au secours du traitement intensif
2012 va être un tournant majeur en matière d’adoption des solutions à base de mémoire non volatile (Flash). Les produits Flash vont apparaître dans le datacenter et s’imposer comme une nouvelle couche dans la hiérarchie du stockage.
Lorsque vous manipulez de gros volumes de données (« Big Data »), vous êtes rapidement limité par votre capacité à les déplacer. Dans vos activités de data mining, vous examinez de gros volumes de données et vous leur posez une myriade de questions. Jusqu’à présent, vos performances étaient limitées par la vitesse d’accès à ces données. En 2012, la mémoire Flash va vous permettre de disposer d’un accès plus rapide. Au lieu d’accéder aux données directement sur disque (un processus souvent très lent), vous mettrez les données en cache dans une couche Flash associée à ce disque. La nouvelle hiérarchie de stockage devient donc : cache – RAM – Flash – disque.
La mémoire Flash présente des caractéristiques nettement supérieures à celles des disques (capacité 10 fois supérieure à volume égal, vitesse d’accès 100 à 1000 fois plus rapide).
Charlie Bess, HP Fellow, Expert en stratégie et technologies HP Labs
1. Révolution dans le monde des puces de mémoire
En 2012, nos a priori sur les performances, le coût et la valeur du stockage sur puces de mémoire vont être sérieusement remis en question. Ce changement va impacter la plupart de nos activités informatiques, depuis le stockage traditionnel jusqu’au stockage dans le nuage… Cette évolution va également permettre des déploiements d’applications qui n’étaient pas envisageables auparavant (collecte de données, analyse, génération de valeur). [Découvrez les Memristors, remplaçants des puces de mémoire imaginés par HP Labs.]
2. Des innovations « sensibles »
2012 verra également l’émergence d’applications de captation révolutionnaires qui vont entraîner la remise à plat des méthodes de collecte des données dans de nombreux secteurs. De nouvelles applications permettront une meilleure analyse des processus industriels, des observations environnementales et de la gestion du cycle de vie des produits. Ces innovations sont rendues possibles par les nanotechnologies et par les « systèmes microélectromécaniques » (MEM – Micro Electro Mechanical). [Découvrez HP Central Nervous System for the Earth (CeNSE), une innovation HP Labs révolutionnaire qui pourrait améliorer l’efficacité et la sécurité des hommes et de leurs activités.]
Les progrès spectaculairement rapides constatés dans le domaine des capteurs, de l’informatique, des réseaux et des terminaux utilisateur nous permettent d’imaginer une refonte des interfaces utilisateur, des fonctions d’analyse et des moyens nécessaires à des prises de décision avisées dans l’entreprise.
Il n’est pas certain que cette (r)évolution soit perçue par les consommateurs dès 2012, mais elle sera avérée et confirmée, et elle pourrait d’ores et déjà nous amener à repenser notre anticipation de l’avenir.
Lire l’article original |
http://cloud-experience.fr/les-sept-predictions-dhp-pour-2012.html?utm_campaign=newsletter |
Aucun commentaire:
Enregistrer un commentaire