Traductions de cette page?:

Outils pour utilisateurs

Outils du site


numerique_et_enjeux_societaux:en_finir_avec_le_mensonge_du_siecle_qu_est_la_dematerialisation


En finir avec le mensonge du siècle qu’est la « dématérialisation » ?

Retour vers l'accueil de la catégorie Numérique & enjeux sociétaux

Cet article a été écrit pour le journal Curseurs, et publié dans le numéro 4 de celui-ci, dans le cadre du dossier consacré à la matérialité du numérique. Cette version en ligne contient l’intégralité des notes et références. Ainsi que les éventuelles mises à jour de l’article intervenues après sa publication dans Curseurs.

FIXME En cours d'édition :!:

Photo : Google Data Center, Council Bluffs, Iowa, USA - Wikimedia

Crédit photo : Google Data Center, Council Bluffs, Iowa, USA – Wikimedia Commons [CC BY-SA] – chaddavis.photography from United States

Depuis quelques années déjà, et plus encore depuis la crise de la Covid-19, nombreux sont les acteurs, tant publics que privés, qui nous parlent de la « dématérialisation » à propos de l’utilisation des services numériques. Or, la moindre analyse un peu objective de ce qu’est concrètement la techno-structure sur laquelle repose cette prétendue « dématérialisation », aboutira immanquablement à la conclusion qu’il s’agit d’une erreur d’appréciation des plus flagrantes. C’est même probablement un des plus gros mensonges communément colporté en ce début de 21e siècle ! Décortiquons la question…

Dématérialisation : définition

Jusque dans un passé proche, la dématérialisation pouvait être définie comme « l’action ou fait de rendre immatériel, d’ôter la matière concrète, les éléments matériels… », soit aussi « éliminer toute référence aux choses matérielles, concrètes ». L’immatériel étant ce « qui n’a pas de consistance matérielle, qui n’est pas formé de matière », ou sur un plan philosophique, « est opposé à la matière et n’a de rapport ni avec les sens ni avec la chair », voir aussi simplement « qui ne paraît pas être matériel » ou « dont la réalité n’est pas tangible ».

Si ces définitions restent valables, le sens donné à la dématérialisation, depuis une ou deux décennies, est généralement celui qui consiste à « transformer des supports d’information matériels en supports numériques », soit « la suppression du support matériel grâce à l’informatique ».

La définition qu’en propose Archimag résume plutôt bien et complètement l’idée qu’évoque probablement le terme pour la majorité de nos contemporain·es :

Dématérialiser [ou digitaliser] ses documents consiste à remplacer les documents au format papier de son organisation par des fichiers numériques, ou bien à les produire directement au format numérique via son système d’information (dématérialisation native). Elle vise également à stocker et conserver ses documents électroniques sur des ordinateurs ou des serveurs informatiques.1)

La digitalisation c’est quoi ? – Archimag

Des e-tickets plus légers que le papier ?

Historiquement, l’idée de la « dématérialisation » par le numérique remonte fort probablement aux débuts de la micro-informatique, une époque où l’on mettait déjà en avant les économies potentielles – jamais réalisées dans les faits – que promettait l’utilisation des ordinateurs de bureau : la diminution des besoins en impressions papier et la réduction des coûts qui en découlerait… Or, vue globalement, la consommation de papier a pourtant suivi une inexorable croissance depuis les quatre dernières décennies, ce qui constitue probablement un des premiers échecs pour les belles promesses de la numérisation de nos activités…

Aujourd’hui, la suppression des supports papier est toujours mise en avant par les pouvoirs publics quand ils parlent de « dématérialisation ». Ce remplacement du papier par les outils numériques serait auréolé de multiples vertus corollaires, telle la simplification des procédures, la réduction des délais de traitement des dossiers, l’accès facile aux informations, la réduction des coûts administratifs ainsi que la réduction des déplacements. Et il s’agirait rien moins que d’engager l’administration vers la gestion sans support papier, ce qui conduirait à l’exemplarité environnementale.2)

Le secteur privé n’est pas en reste et, lorsque les grandes chaînes du commerce de détail vous proposent de remplacer le traditionnel ticket de caisse en papier par un mail, elles participent à ce même mouvement de « dématérialisation » des relations avec les usager·ères ou clientẽs… Et le remplacement du papier par un support électronique – le mail envoyé par le·a commerçant·e – serait, « par nature », dénué de tout impact environnemental ? Est-on certain·e qu’un morceau de papier de 12 × 5 cm est plus nuisible pour l’environnement que l’utilisation d’une gigantesque infrastructure qui est très certainement la plus grande techno-structure que l’homme ait jamais construite de toute l’histoire de l’humanité ?

Graphique : Le Big Bang du Big Data - Statista - Tristan Gaudiaut - 2022

Source : « Le Big Bang du Big Data » –
Tristan Gaudiaut – Statista – Octobre 2022

En effet, cette techno-structure est composée, d’une part, d’énormes « usines » remplies de milliers d’ordinateurs, les centres de données [ou data centers] dans lesquels sont notamment stockées nos boites mails, et d’autre part, de dizaines de millions de km de câbles : un million quatre cent mille kilomètres de câbles sous-marins auxquels il faut rajouter les millions de kilomètres de câbles terrestres qui parcourent nos rues, nos routes et nos campagnes. C’est-à-dire tous ces câbles et fibres optiques qui constituent l’essentiel de la toile mondiale de l’internet, qui relient entre eux tant les centres de données, que ces derniers avec les « box internet » et antennes GSM de nos opérateurs télécoms, ces portes d’entrées par le biais desquelles nous pouvons nous connecter à ce gigantesque World Wide Web…

Et n’oublions surtout pas l’essentiel : la nécessité pour chacun·e d’entre nous de disposer de l’indispensable terminal pour se connecter à l’internet et consulter la boite mail sur laquelle retrpitronouver l’e-ticket de caisse qu’on nous a vendu comme étant totalement « dématérialisé » ! Dans le cas du PC portable par exemple, s’il ne pèse qu’environ 2 kg, son « sac à dos écologique » est très important : 600 kg de minerais divers pour obtenir les matières premières, 240 kg de combustibles fossiles, 22 kg de produits chimiques et 1500 litres d’eau. On constate à quel point la simple possession de ce terminal n’est rendue possible que par la consommation d’une énorme quantité de matières indispensables à sa fabrication.3) Quant aux smartphones, si leur petite taille a quelque peu réduit la quantité de matières nécessaires à leur fabrication, leur durée de vie moyenne, de deux à trois ans au plus – 63 % des smartphones sont utilisés moins de 2 ans selon l’ADEME –, fait qu’eux aussi participent allègrement à cette boulimie de ressources et matières diverses qui les placent assurément à l’opposé de cette prétendue « dématérialisation »…

Les data centers : l’industrie lourde du 21e siècle ?

Graphique : Les pays qui hébergent le plus de data centers - Statista - Valentine Fourreau - 2024

Source : « Les pays qui hébergent le plus de data centers » –
Valentine Fourreau – Statista – Septembre 2024

Mais revenons à la techno-structure que nous avons esquissée et concentrons-nous sur les centres de données, ces lieux très discrets dans lesquels s’entreposent et se calculent pourtant les milliers de milliards de gigaoctets de données numériques accumulées, dont le volume était estimé à 64 zettaoctets4) en 2020, avec un triplement prévu pour 2025, soit une croissance annuelle de 40 %.5)

S’il ne fait aucun doute que tant le nombre de data centers que leur consommation électrique est en forte croissance, avec des impacts environnementaux tout aussi indéniables, il n’est cependant pas facile d’obtenir des chiffres précis sur le sujet, tant les sources d’information, recherches et connaissances déjà produites en la matière, sont à la fois jeunes, peu nombreuses, disparates, voire contradictoires… Tentons toutefois d’éclaircir le tableau.

Pour ce qui est de leur nombre, selon le type de centres de données pris en considération, on obtiendra des chiffres très différents. Si le total mondial de data centers était estimé à 8,55 millions pour l’année 2015 par Statista6), il s’agissait là manifestement de statistiques assez larges, englobant tout ce qui existe, des plus petits aux plus grands, installés chez divers acteurs publics et privés… Dans son livre « L’enfer numérique » paru en 2021, Guillaume Pitron explique quant à lui « qu’il existerait aujourd’hui près de trois millions de data centers d’une surface de moins de 500 mètres carrés dans le monde, 85 000 de dimension intermédiaire et une petite dizaine de milliers dont la taille peut avoisiner celle de l’Equinix AM4 (Amsterdam, 11 620 m²). Et au cœur de la toile de béton et d’acier, prospèrent plus de 500 data centers dits “hyperscale”, souvent vastes comme des terrains de football. ».7) Par ailleurs, Cloudscene, un acteur professionnel spécialiste de la question, annonce sur son site plus de 8 500 data centers – fort probablement à classer parmi les gros ? –, avec également plus de 580 centres en construction.8) Et si on se concentre sur les très gros data centers, dits « hyperscale », Statista en recense 992 en 2023, alors qu’ils n’étaient que 259 en 2015…9) Soit un quasi-quadruplement en moins d’une décennie ! À noter enfin, qu’avec 5 381 (gros) centres comptabilisés par Cloudscene sur leur sol en mars 2024, les USA se taillent une très grosse part du gâteau, bien loin devant les grands pays européens comme l’Allemagne (521) et le Royaume-Uni (514), ou même la Chine (449), l’Australie (307), ou encore la Russie (251) et le Japon (219).10) Pas étonnant qu’il faille quadriller les océans de câbles sous-marins pour tous les relier…

Graphique : Number of hyperscale data centers worldwide from 2015 to 2023 - Statista - Petroc Taylor - 2024

Source : « Graphique : Number of hyperscale data centers worldwide from 2015 to 2023 » –
Petroc Taylor – Statista – Juin 2024

Concentrons-nous maintenant sur ces « hyperscales » que les acteurs du « cloud » construisent à tour de bras, notamment pour déployer les « intelligences artificielles » génératives telles Midjourney et autres ChatGPT. Comme le souligne Guillaume Pitron, ils sont très grands et représentent l’équivalent d’un à plusieurs terrains de football de salles remplies d’ordinateurs. Leur emprise sur le territoire, est à la mesure : à titre d’exemple, le data center de Google à Saint-Ghislain, près de Mons, occupe un terrain plus grand que le centre de Namur, la capitale wallonne ! Et leur consommation électrique est à la hauteur de cette emprise territoriale, car on estime qu’un data center de 10 000 m², soit un hectare, consomme en moyenne autant qu’une ville de 30 à 50 mille habitant·es… Ainsi, celui de La Courneuve, le plus grand de France, en construction à 5 km de Paris sur un terrain de 7 hectares, avec ses 40 000 m² de salles informatiques, absorbera une puissance électrique de 130 MW, soit la consommation d’une ville de 200 000 habitant·es ! Et Fabrice Coquio, Président de Digital Realty France, d’Interxion France, ainsi que d’autres sociétés actives dans le secteur, renchérit : « D’ici à 2030, une métropole telle que Paris aura besoin de 1400 hectares (soit 1/1000 de la surface de l’Ile-de-France) pour créer de nouveaux data centers et permettre aux données de cheminer sans encombre »…11)

Image : Comparaison entre l’emprise au sol du data center de Google à Saint-Ghislain (Mons) et le centre de la ville de Namur - Montage personnel sur base de la carte d’OpenStreetMap

Illustration : Comparaison entre l’emprise au sol du data center de Google à Saint-Ghislain (Mons) et le centre de la ville de Namur – Montage personnel sur base de la carte d’OpenStreetMap

On comprend mieux pourquoi, au niveau mondial, la consommation électrique des data centers est maintenant supérieure à celle d’un grand pays ! Car même si les chiffres varient du simple au double selon les sources, avec un total annuel estimé de 200 à plus de 400 TWh – térawattheures12) –, on arrive au même ordre de grandeur que la consommation électrique annuelle d’un pays tel la Grande-Bretagne, soit 290 TWh. Si on fait une moyenne des différentes sources qui explorent la question pour la période 2018-2022, retenir le chiffre d’une consommation annuelle de 300 TWh est probablement proche de la réalité et loin d’être surestimé. En ajoutant la consommation d’énergie consacrée au minage des cryptomonnaies, qui compterait pour approximativement 25 % du total, le Borderstep Institute de Berlin annonce une consommation annuelle de 350 à 500 TWh pour 2021.13) À titre de comparaison, en Belgique, la consommation annuelle globale d’électricité est estimée à environ 80 TWh.14)

Cette boulimie électro-phage commence d’ailleurs à poser de sérieux problèmes dans diverses régions où les centres de données font florès… Constatant la croissance fulgurante de ceux-ci dans la région de Dublin, EirGrid, l’opérateur irlandais du réseau électrique, a instauré un moratoire sur la construction de nouveaux centres de données jusqu’en 2028. Il faut dire que la consommation électrique des data centers sur l’île est passée de 1 238 GWh [gigawatt-heure], soit 5 % de l’électricité consommée pour l’année 2015, à 6 334 GWh en 2023, soit une augmentation de 512 % qui porte la part des usines numérique à 21 % du total ! L’Irlande, qui compterait 85 centres de données mi-2024, voit ainsi la consommation électrique de ceux-ci dépasser celle des habitant·es des zones urbaines, dont la part dans la consommation électrique du pays était de 18 % en 2023.15) Et l’Agence internationale de l’énergie prévoit que d’ici 2030, la consommation des centres de données pourrait atteindre 30 % de la consommation totale du pays.16)

Une consommation électrique dopée à l’IA ?

L’Irlande est loin d’être un cas isolé, car tous les pays qui se montrent accueillants pour les usines numériques font progressivement face à des problèmes similaires… Dans une étude sortie en mai 2024, l’Electric Power Research Institute estime que la consommation des centres de données pourrait engloutir 9 % de la production électrique des USA d’ici 2030, soit le double de leur consommation actuelle.17) Une toute récente analyse de McKinsey sortie fin octobre 202418) anticipe aussi que la consommation des data centers européens pourrait tripler d’ici à 2030, pour atteindre 150 TWh, soit près du double de la consommation belge annuelle. Cette même analyse préconise d’ajouter 25 GW [gigawatts] de puissance électrique installée pour répondre aux besoins des centres de données européens qui hébergent les IA génératives, ce qui veut dire qu’il faudrait construire l’équivalent de 25 réacteurs nucléaires tel celui en service en bord de Meuse à Tihange rien que pour garantir le fonctionnement des IA !

L’approvisionnement en électricité n’est pas le seul à poser problème. En effet, dans les régions arides, on assiste de plus en plus à de vives tensions concernant l’utilisation des ressources hydriques, car les data centers ont également de très gros besoins en eau pour le refroidissement des ordinateurs. Il est en effet de notoriété publique que l’électronique supporte très mal les températures élevées… De récentes études semblent d’ailleurs montrer que la consommation d’eau des IA génératives est jusqu’à 4 fois plus importante que précédemment estimée, ce qui accroit globalement de 17 à 22 % la consommation de la ressource bleue mesurée chez Google, Meta et Microsoft.19)

Avec le déploiement massif des IA, et tout particulièrement des IA génératives, on assiste ces deux ou trois dernières années, à une forte montée en puissance des besoins en infrastructures. L’adoption rapide par des millions d’utilisateurĩces de ces nouveaux outils, couplée avec une intégration « pervasive » de ceux-ci dans toutes les strates du numérique – tels les moteurs de recherche sans lesquels il est vrai, nous serions dépourvus face à la déferlante d’informations mises à notre disposition sur le web –, a conduit les gros acteurs du « cloud » à investir massivement dans de nouveaux data centers. Ce qui, au passage, pousse maintenant les Big tech à tout mettre en œuvre pour nous convaincre qu’en dehors de l’IA, il n’y aurait pas de salut. Sans entrer dans ce débat, il est évident que le recours massif aux IA s’accompagne d’une envolée vertigineuse des besoins en puissance de calcul, ce qui se traduit mécaniquement par une forte croissance de la consommation électrique, avec en bonus, une consommation d’eau tout aussi affolante.

Graphique : L’empreinte environnementale croissante du numérique - Statista - Tristan Gaudiaut - 2024

Source :
« L’empreinte environnementale croissante du numérique » –
Tristan Gaudiaut – Statista – Juillet 2024

Dans un article publié en octobre 202320), le chercheur Alex de Vries estimait que faire une seule requête [un « prompt »] afin d’obtenir un petit texte généré par un modèle de langage comme ChatGPT, consommait dix fois plus d’électricité qu’une requête dans un moteur de recherche, tel Google Search ou Bing. Il estimait également que l’intégration des IA génératives dans les moteurs de recherche pouvait encore potentiellement multiplier la consommation électrique par un facteur 3. Soit au total, 30 fois plus qu’une simple recherche sur Google sans utiliser d’IA ! Dans une étude plus consistante publiée en novembre 202321), d’autres chercheur·euses ont analysé différents modèles d’IA, et sans surprise, ce sont les modèles de générations d’images qui demandent le plus de puissance pour fonctionner : i·els estiment ainsi que la génération d’une seule image peut requérir quasi autant d’électricité que celle nécessaire à la recharge complète d’un smartphone !

Or l’électricité d’origine renouvelable et non carbonée, n’est produite que de manière limitée : il faut dès lors choisir pour quels usages la consommer. Alimenter les data centers avec de l’électricité « verte » se fait de facto au détriment d’autres usages tout aussi, voire plus vitaux… Pas étonnant dès lors que l’on s’éloigne de plus en plus de la trajectoire de l’accord sur le climat obtenu à la COP Paris 2015, et qui visait à tout mettre en œuvre pour réduire les émissions de CO2 afin d’atteindre le « zéro carbone net » aussi rapidement que possible. Une trajectoire, que tant Google que Microsoft, s’étaient engagés à prendre… Or les deux multinationales doivent aujourd’hui reconnaître qu’elles suivent une trajectoire diamétralement opposée !22) Et si leurs investissements massifs dans l’IA, avec notamment la construction de nouveaux centres de données pour déployer celle-ci, expliquent plus que probablement la croissance de leurs émissions de CO2, rien ne semble infléchir leur obstination à poursuivre dans cette voie, car on assiste au contraire à diverses déclarations qui vont dans le sens d’une poursuite des investissements. La confiance aveugle dans le solutionnisme technologique atteindrait même une forme de paroxysme, avec par exemple la récente déclaration d’Eric Schmidt en faveur de la poursuite des investissements dans l’IA, estimant par ailleurs que « de toute façon, nous n’atteindrons pas les objectifs climatiques »23)… Quant à Brad Smith, le patron de Microsoft, il considère que des investissements dans la production d’électricité d’origine nucléaire sont une voie à privilégier. Cette idée est corroborée par les annonces récentes de la volonté de quelques gros acteurs de la Tech d’investir dans les SMRs (Small Modular Reactor).24) Pour rester crédibles, les GAFAM n’ont en effet d’autre choix que d’agir pour ramener rapidement leur production de gaz à effets de serre (GES) à des niveaux compatibles avec une trajectoire vers le zéro carbone net sur laquelle ils se sont par ailleurs engagés. Une analyse détaillée de la réalité accrédite d’ailleurs l’idée que la situation est plus mauvaise qu’annoncée : la production de GES induite par la consommation électrique de leurs data centers serait 662 % plus élevée qu’ils ne le déclarent !25)

Photo : Susquehanna Steam Electric Station from Council Cup 1 - Wikimedia

Centrale nucléaire « Susquehanna Steam », Pensylvanie, USA
Crédit photo : Susquehanna Steam Electric Station from Council Cup 1 – Wikimedia Commons [CC BY-SA] – Jakec

Mais peu importe, il faut continuer à investir ! Avec sa division AWS [Amazon Web Services], Amazon qui est le plus gros fournisseur de services « cloud » pour les entreprises, vient d’investir 650 millions de dollars dans une nouvelle installation sur le campus « Cumulus Data Assets », soit un site de 485 hectares créés par le fournisseur d’énergie américain Talen Energy.26) La particularité de ce campus est qu’il se situe à proximité immédiate de la centrale nucléaire de Susquehanna en Pensylvanie : avec une capacité nominale de 2,5 GW, elle dispose de 2 réacteurs qui sont en service depuis 1983. Amazon projette d’y construire un immense data center dont la puissance devrait atteindre 960 MW, et qui consommerait alors potentiellement près de 40 % de l’électricité produite par la centrale et ses 2 réacteurs ! Et c’est loin d’être le seul investissement d’Amazon dans ce secteur : il y aurait jusqu’à 240 data centers en projet chez le géant de la Tech. Une des conséquences de cette forte croissance de ces projets, est qu’ils se heurtent de plus en plus à des contraintes physiques : incertitudes sur l’approvisionnement électrique, manque de surfaces disponibles, d’eau, de main-d’œuvre, difficultés avec l’obtention des permis… Mais ce serait la pénurie d’électricité la pire crainte d’Amazon : « Selon le Boston Consulting Group, la consommation d’électricité des centres de données américains devrait tripler d’ici 2030, en grande partie pour alimenter l’IA générative ». Et Amazon connaîtrait déjà des problèmes d’approvisionnement en électricité dans l’Oregon, l’Ohio et la Virginie du Nord…27)

Serons-nous capables de sortir de l’ornière ?

Les développements actuels du numérique et de l’IA en particulier, sont très loin de correspondre à l’idée de légèreté qu’évoque celle du « joli petit nuage bleu »… Car, au-delà des terminaux que nous manipulons quotidiennement, ils s’appuient sur l’infrastructure bien lourde et tangible des réseaux et centres de données, qui eux-mêmes s’appuient sur des moyens de production et transport de l’électricité, tout aussi lourds et tangibles…

Photo : Computer Recycling Scrapyard Ottawa Canada 1996 enh - Wikimedia

Crédit photo : Computer Recycling Scrapyard Ottawa Canada 1996 enh – Wikimedia Commons [CC BY-SA] – Paul Harrison

Si l’on y ajoute encore un aspect souvent oublié, celui de la fin de vie des équipements électriques et électroniques, ces déchets nommés DEEE, qui constituent un vaste problème au niveau mondial – 62 millions de tonnes de déchets générés pour la seule année 2022, un chiffre en croissance de plus de 2 millions de tonnes chaque année, et qui devrait atteindre 82 millions de tonnes en 2030 –, dont moins de 25 % (22,3 %) sont récoltés de manière adéquate28), avec ici encore des atteintes graves et prolongée à l’environnement et à la santé des populations concernées –, le « poids » et la matérialité de nos actions réalisées par l’entremise du numérique se fait un peu plus précise.

Alors n’est-il pas temps – et urgent – d’en finir avec cette terminologie qui entretient un imaginaire complètement déconnecté de la réalité, tel cet usage inconsidéré de ce terme de « dématérialisation » quand divers acteurs publics ou privés s’expriment à propos de la numérisation de nos activités ? Ne devrions-nous pas systématiquement combattre ces mensonges ? Faut-il inventer de nouveaux termes29), et prendre le risque qu’ils soient tout aussi déconnectés du côté tangible et matériel de la chose ? Faut-il forger et utiliser des expressions qui rendraient compte de cette matérialité, et par exemple remplacer le terme « cloud » par quelque chose comme « industrie lourde du stockage et du calcul des données numériques » ? C’est assurément moins sexy que le « nuage »…

À défaut de pouvoir trancher, je vous propose d’en débattre dans vos cercles respectifs, et de coconstruire ces nouvelles façons de nommer les objets, usages et concepts du numérique, afin qu’ils reflètent au mieux les réalités et toutes leurs matérialités ! Le fait que cela ne soit pas – ou si peu – questionné, fait également partie des mystères pour lesquels je n’ai pas de réponse… Y a-t-il un·e sociologue dans la salle ? Et l’aveuglement politique sur ces questions serait-il juste le résultat attendu d’un lobbying intense de la part des grandes sociétés technologiques et des fédérations qui les soutiennent, telle Agoria ?30)

— Erick Mascart, le 09/12/2024 – CC BY-SA

Retour vers l'accueil de la catégorie Numérique & enjeux sociétaux



1)
https://www.archimag.com/tags/dématérialisation, consulté le 10/11/2024.
Remarque : fin décembre 2024, cette URL redirige vers une page en haut de laquelle on peut lire une définition de la « digitalisation », qui reprend mots pour mots la définition précédemment attribuée à la « dématérialisation ». Peut-on y voir le signe d’une prise de conscience ?
2)
Voir l’exposé des motifs de l’avant-projet de décret et ordonnance « Bruxelles numérique » portée par le ministre Bernard Clerfayt. Disponible en ligne : PDF (296 Kio)
3)
Voir le rapport de l’ADEME : « Modélisation et évaluation des impacts environnementaux de produits de consommation et biens d’équipement », septembre 2018.
Lire aussi l’article : « La fabrication, l’impact majeur du numérique sur l’environnement », inoxia.com, 07/01/2021.
Remarque : même si ces chiffres peuvent être légèrement être revu à la baisse pour un ordinateur portable fabriqué en 2024, ils donnent cependant un ordre de grandeur qui reste d’actualité et permet de prendre conscience du fait que les objets à forte composante électronique demandent de 50 à 350 fois leur poids en ressources abiotiques pour obtenir les composants nécessaires à leur fabrication.
Voir aussi la brochure « Comment adopter la sobriété numérique ? » de l’ADEME, septembre 2024.
4)
Un zettaoctet équivaut à mille milliards de gigaoctets. Le gigaoctet valant un million de kilooctets, soit approximativement l’espace nécessaire pour stocker 250 exemplaires du texte intégral de la bible, ou 200 photos prise en moyenne résolution, ou encore un documentaire d’une heure trente tel que diffusé dans la qualité « full HD » sur la plate-forme d’Arte… Voir aussi l’article Octet
5)
« Le Big Bang du Big Data », Tristan Gaudiaut, Statista, 19/10/2021
6)
« Number of data centers worldwide in 2015, 2017, and 2021 », Petroc Taylor, Statista, 23/02/2022
7)
« L’enfer numérique – Voyage au bout d’un Like », Guillaume Pitron, Les Liens qui Libèrent, septembre 2021, Chapitre 4. Enquête sur le nuage, page 115
9)
« Number of hyperscale data centers worldwide from 2015 to 2023 », Petroc Taylor, Statista, 07/06/2024
10)
« Les pays qui hébergent le plus de data centers », Valentine Fourreau, Statista, 16/09/2024
11)
« Data centers et filière du numérique : quelles tendances en 2023 ? », Fabrice Coquio, Global Security Mag, février 2023
12)
Un térawatt-heure (TWh) correspond à un milliard de kWh, soit la consommation annuelle moyenne de ± 100 000 foyers.
Voir aussi l’article Kilowatt-heure.
13)
« Data centers 2021. Cloud computing drives the growth of the data center industry and its energy consumption. », Hintemann, R. & Hinterholzer, S. (2022), Berlin: Borderstep Institute
15)
« Data Centres Metered Electricity Consumption 2023 », Central Statistics Office, Ireland, 23/07/2024
16)
« En Irlande, la consommation électrique des data centers dépasse celle des maisons en ville », Le Monde avec AFP, 24/07/2024, consulté le 10/11/2024
18)
« The role of power in unlocking the European AI revolution », McKinsey & Company, 24/10/2024, consulté le 10/11/2024
19)
Lire l’article « ‘Thirsty’ ChatGPT uses four times more water than previously thought », The Times, Mark Sellman, 04/10/2024, consulté le 10/11/2024.
On y apprend que « selon les experts de l'université de Californie à Riverside, l’utilisation d’un chatbot pour dix à cinquante requêtes consomme environ deux litres d’eau ».
20)
« The growing energy footprint of artificial intelligence », Alex de Vries, Published: October 10, 2023, DOI: https://doi.org/10.1016/j.joule.2023.09.004
21)
« Power Hungry Processing: Watts - Driving the Cost of AI Deployment? », ALEXANDRA SASHA LUCCIONI and YACINE JERNITE, Hugging Face, Canada/USA, EMMA STRUBELL, Carnegie Mellon University, Allen Institute for AI, USA – arXiv:2311.16863v1 [cs.LG] 28 Nov 2023 – PDF : https://arxiv.org/pdf/2311.16863.pdf
22)
Lire notamment les articles suivants :
« AI brings soaring emissions for Google and Microsoft, a major contributor to climate change », NPR.org, Dara Kerr, 12/07/2024, consulté le 10/11/2024
« Microsoft’s AI Push Imperils Climate Goal as Carbon Emissions Jump 30% », Bloomberg, Akshat Rathi and Dina Bass, 15/05/2024, consulté le 10/11/2024
« À cause de l’IA, les émissions de carbone de Google ont fortement augmenté en seulement cinq ans ! », Sciences et Avenir avec AFP, 03/07/2024, consulté le 10/11/2024
23)
Lire l’article « Silicon Valley is sacrificing the climate for AI », publié le 18/10/2024 sur le blog disconnect, et dans lequel Paris Marx fait référence à quelques citations d’Eric Schmidt extraites d’une vidéo disponible sur YouTube. Consulté le 10/11/2024.
Extraits traduits :
Après avoir qualifié l’IA de « technologie universelle » pouvant être utilisée dans pratiquement tous les domaines, il a affirmé que « de toute façon, nous n’atteindrons pas les objectifs climatiques », ce qui revient à dire que l’industrie technologique ne devrait pas être tenue responsable de l’augmentation des émissions de gaz à effet de serre. […] « Je préfère parier sur le fait que l’IA résoudra le problème plutôt que de la contraindre et d’avoir le problème », a-t-il conclu, sans jamais admettre qu’un autre scénario, dans lequel nous prenons la crise climatique au sérieux sans IA générative, puisse être envisagé. Ses commentaires illustrent l’évolution de la position de l’industrie technologique sur le changement climatique : soit le problème sera résolu grâce aux nouvelles technologies, soit on laissera la planète se réchauffer, quelles qu’en soient les conséquences.
Voir la vidéo sur YouTube avec l’interview d’Eric Schmidt
24)
Lire notamment les articles suivants :
« Microsoft veut un spécialiste du nucléaire pour répondre à ses problématiques énergétiques », SiècleDigital, Zacharie Tazrout, 26/09/2023, consulté le 10/11/2024
« Microsoft mise sur le nucléaire pour répondre aux besoins énergétiques croissants de l’IA », Usbek & Rica, 05/10/2023, consulté le 10/11/2024
25)
« Data center emissions probably 662% higher than big tech claims. Can it keep up the ruse? », The Guardian, Isabel O'Brien, 15/07/2024, consulté le 10/11/2024
26)
« Ce gigantesque datacenter d’Amazon sera directement alimenté par une centrale nucléaire », Révolution Énergétique, Kevin Champeau, 12/03/2024, consulté le 10/11/2024. Voir aussi la page Wikipédia sur la centrale [en].
27)
« Amazon's AI data center dream runs into the reality of 'zombie' facilities, higher costs, and labor shortages », Business Insider, Eugene Kim, 23/10/2024, consulté le 10/11/2024
29)
Lire aussi l’article « Dématérialisation des services (publics) » sur ce wiki.
30)
Voir l’étude Digital4Climate produite par Agoria, Avril 2022
À propos de l’étude d’Agoria, lire l’article « Belgique : l’étude Digital4climate conclut que 15 technologies auront un impact positif sur l’empreinte carbone du secteur numérique d’ici 2030 », ActuIA, Marie-Claude Benoit, 03/12/2022, consulté le 10/11/2024
Mais aussi le dossier d’AlterNumeris, « Faire cohabiter numérique et environnement ? Regards croisés » qui en décortique les tenants et aboutissants.
numerique_et_enjeux_societaux/en_finir_avec_le_mensonge_du_siecle_qu_est_la_dematerialisation.txt · Dernière modification : 2024/12/31 12:52 de Un utilisateur non connecté