A lire sur: http://www.zdnet.fr/actualites/le-numerique-consomme-10-de-l-electricite-mondiale-39793222.htm
Green IT : Nos ordinateurs,
smartphones, tablettes et autres consomment beaucoup plus que la seule
énergie nécessaire aux datacenters. Selon une étude, notre appétit
dévorant de données et d’applications nécessite toujours plus
d’électricité, laquelle repose d’abord sur le charbon.
"Le cloud commence avec le charbon": c’est le titre d’une étude
[PDF] de Digital Power Group (DPG), qui estime que l’ensemble de
l’écosystème numérique pèse maintenant près de 10% de toute
l’électricité produite dans le monde. Pour les auteurs, les coûts
énergétiques du numérique sont largement cachés, la partie connue
n’étant que la pointe de l’iceberg. L’économie numérique de la planète
consomme déjà 50% d’énergie de plus que l’aviation du monde entier.
Une heure de vidéo par semaine = 2 réfrigérateurs
"Bien que la recharge d’une seule tablette ou d’un smartphone* ne nécessite qu’une quantité négligeable d’électricité, utiliser l’un ou l’autre pour regarder une heure de vidéo par semaine consomme plus d’électricité par an dans les réseaux que deux réfrigérateurs neufs », selon l’étude. Dans cet exemple, sont pris en compte l’utilisation d’un réseau de télécoms, de l’infrastructure sans fil et de l’énergie pour fabriquer la tablette.
Les chiffres agrégés par DPG ne s’arrêtent pas à l’électricité consommée par les datacenters (l’Agence américaine de l’environnement avait estimé dans un rapport en 2007 que les centres de données des Etats-Unis utilisaient 1,5% de la production électrique américaine, et elle prévoyait que ce chiffre monterait à 3% en 2011).
Sont aussi comptabilisées l’électricité employée pour fabriquer les microprocesseurs, et la consommation des appareils numériques et des réseaux auxquels ils sont connectés. Les datacenters ne représenteraient que 20% de l’électricité consommée par les appareils et réseaux numériques, les 80% restants étant très dispersés.
L’équivalent du Japon et de l’Allemagne réunis
Au total, estime l’étude, on arrive à 1.500 térawatt heures d’énergie par an, soit 10% de la consommation mondiale d’électricité – l’équivalent du Japon et de l’Allemagne réunis, ou encore de ce que requérait l’éclairage dans le monde entier en 1985.
Cette proportion est impressionnante, et elle devrait encore augmenter, avec le déploiement de nouveaux datacenters, ainsi que l’usage en hausse d’applications toujours plus nombreuses.
Pour DPG, la demande d’usage des centres de données augmentera plus vite que leurs gains en efficacité énergétique, et la quantité d’électricité nécessaire continuera ainsi de croître. Mark Mills, le CEO de DPG, souligne que "le trafic à l’heure d’Internet va bientôt dépasser son trafic de toute l’année 2000".
Ces tendances vont rendre nécessaire l’usage de plus de charbon, estime l’étude, qui est sponsorisée par deux organisations de ce secteur, la National Mining Association et l’American Coalition for Clean Coal Electricity.
La production et l'usage de données en quantités astronomiques reposent "sur de l’électricité réelle dans le monde réel. Cette réalité a été notée par Greenpeace, par exemple, qui a établi un classement de la dépendance au charbon des centres de données des grandes entreprises du cloud", note Mark Mills.
* Selon une étude [PDF] antérieure d’AT Kearney citée là, un iPhone moyen consomme au total 388 kWh par an.
Une heure de vidéo par semaine = 2 réfrigérateurs
"Bien que la recharge d’une seule tablette ou d’un smartphone* ne nécessite qu’une quantité négligeable d’électricité, utiliser l’un ou l’autre pour regarder une heure de vidéo par semaine consomme plus d’électricité par an dans les réseaux que deux réfrigérateurs neufs », selon l’étude. Dans cet exemple, sont pris en compte l’utilisation d’un réseau de télécoms, de l’infrastructure sans fil et de l’énergie pour fabriquer la tablette.
Les chiffres agrégés par DPG ne s’arrêtent pas à l’électricité consommée par les datacenters (l’Agence américaine de l’environnement avait estimé dans un rapport en 2007 que les centres de données des Etats-Unis utilisaient 1,5% de la production électrique américaine, et elle prévoyait que ce chiffre monterait à 3% en 2011).
Sont aussi comptabilisées l’électricité employée pour fabriquer les microprocesseurs, et la consommation des appareils numériques et des réseaux auxquels ils sont connectés. Les datacenters ne représenteraient que 20% de l’électricité consommée par les appareils et réseaux numériques, les 80% restants étant très dispersés.
L’équivalent du Japon et de l’Allemagne réunis
Au total, estime l’étude, on arrive à 1.500 térawatt heures d’énergie par an, soit 10% de la consommation mondiale d’électricité – l’équivalent du Japon et de l’Allemagne réunis, ou encore de ce que requérait l’éclairage dans le monde entier en 1985.
Cette proportion est impressionnante, et elle devrait encore augmenter, avec le déploiement de nouveaux datacenters, ainsi que l’usage en hausse d’applications toujours plus nombreuses.
Pour DPG, la demande d’usage des centres de données augmentera plus vite que leurs gains en efficacité énergétique, et la quantité d’électricité nécessaire continuera ainsi de croître. Mark Mills, le CEO de DPG, souligne que "le trafic à l’heure d’Internet va bientôt dépasser son trafic de toute l’année 2000".
Ces tendances vont rendre nécessaire l’usage de plus de charbon, estime l’étude, qui est sponsorisée par deux organisations de ce secteur, la National Mining Association et l’American Coalition for Clean Coal Electricity.
La production et l'usage de données en quantités astronomiques reposent "sur de l’électricité réelle dans le monde réel. Cette réalité a été notée par Greenpeace, par exemple, qui a établi un classement de la dépendance au charbon des centres de données des grandes entreprises du cloud", note Mark Mills.
* Selon une étude [PDF] antérieure d’AT Kearney citée là, un iPhone moyen consomme au total 388 kWh par an.
Aucun commentaire:
Enregistrer un commentaire