Un data center (in inglese data center o data center ), o centro di calcolo è un luogo (e un servizio) che raggruppa le apparecchiature costituenti il sistema informativo di una o più società ( computer centrali , server , rack di archiviazione , rete e apparecchiature per telecomunicazioni, ecc .). Può essere interno e/o esterno all'azienda, gestito o meno con il supporto di fornitori di servizi. Fornisce servizi informatici in ambiente controllato ( climatizzazione ) e di sicurezza (impianto antincendio , antifurto e intrusione, ecc. ), con alimentazione di emergenza e ridondante .
Le problematiche ambientali sono legate da un lato al loro consumo di metalli rari o preziosi e terre rare, e dall'altro ad un consumo crescente di energia elettrica da parte di tutti i data center, e al loro co-prodotto che è il calore di scarto , dissipato dai server e dai sistemi di storage in particolare, ma può essere un recupero energetico .
I data center sono responsabili dello 0,3% delle emissioni globali di gas serra . I data center rappresentano meno del 15% dell'impatto ambientale del digitale su scala globale, mentre le apparecchiature degli utenti rappresentano i due terzi e la rete la parte restante. Ricordiamo che, secondo l'associazione francese The Shift progetto , la tecnologia digitale nel suo complesso è stato responsabile per il 3,7% delle emissioni di CO 2 emissioni. mondiale nel 2018, rispetto al 2,5% nel 2013.
Il termine "data center" è la traduzione dell'inglese data center / data center . Frédéric Bordage , esperto di informatica sostenibile e sobrietà digitale , preferisce il termine “centro di calcolo”. Il data center, infatti, comprende non solo array di archiviazione dei dati , ma anche server , che effettuano i trattamenti . D'altra parte, tranne che in una logica di full cloud computing , i dati vengono distribuiti tra data center e terminali utente.
Un data center è un edificio protetto contro le intrusioni e i rischi naturali e tecnologici, che ospita varie apparecchiature elettroniche, computer , sistemi di archiviazione e apparecchiature per le telecomunicazioni . Il centro può occupare una stanza, un piano o grandi edifici.
Esistono server 1U (soprannominati "scatole pizza") o più grandi, " U " corrispondente a un'unità di altezza di 4,445 cm (1,75 pollici), impilati in rack , che sono disposti a formare file singole, che consentono un facile spostamento tra i server , sia davanti che dietro. Alcuni dispositivi, come i computer mainframe , sono di dimensioni simili a questi alloggiamenti. Sono spesso posti al loro fianco.
Prima della bolla di Internet , milioni di metri quadrati destinati ad ospitare tali centri sono stati costruiti nella speranza che fossero occupati da server . Da allora è proseguita la concentrazione dei centri, con lo sviluppo di centri specializzati per i quali le sfide più importanti sono il controllo della climatizzazione e soprattutto dei consumi elettrici. Questo movimento è stato integrato nell'informatica sostenibile e mira a creare i cosiddetti centri di elaborazione dati ecologici per i quali sono apparsi strumenti specializzati.
Intorno al 2008 sono stati creati i data center Hyperscale ( data center di almeno 250.000 server, con aria condizionata ottimizzata) per le crescenti esigenze di Amazon e Google nota Bill Carter del progetto Open Compute (creato nel 2011 per consentire a Facebook di risparmiare energia consumato dai suoi server).
L'importanza assunta dall'archiviazione dei dati associati a un'attività e i movimenti di acquisizioni tra aziende possono spingerle ad acquisire tecnologie in-house o a cercare fornitori di servizi specializzati su data center, avendo la capacità di garantire l'interoperabilità tra datastore disparati.
Un computer data center (CDI, da non confondere con un computer processing center , CTI) raggruppa i server che memorizzano i dati per mezzo di array di archiviazione . La maggior parte dei data center esegue anche operazioni su questi dati, quindi agiscono anche come CTI.
I dati e le banche dati sono spesso diventati fondamentali per il funzionamento delle imprese e della società in generale. Si dice che una quantità crescente di dati sia personale o sensibile , motivo per cui ai data center sono richiesti elevati livelli di sicurezza e servizio, per garantire l'integrità e il funzionamento dei loro dispositivi ed evitare attacchi di tipo denial of service .
Per ogni centro devono garantire una buona connessione di rete (internet, intranet, ecc. ) e un'elevata disponibilità del sistema informativo . Per fare ciò, le applicazioni software gestiscono le attività essenziali dell'“attività commerciale” dei clienti. Queste applicazioni includono gestori di database , file server e server applicazioni .
L' aria condizionata mantiene una temperatura uniforme intorno ai 20 gradi centigradi , indispensabile perché il funzionamento dei sistemi informatici genera molto calore, e si guasta al di sopra di una certa soglia di temperatura.
Un moderno data center è progettato per ottimizzare il raffreddamento di tutti i server, e quindi ridurre il costo energetico dell'installazione, riducendo così anche il costo dell'hosting.
L'aria condizionata viene generalmente testata al ricevimento del centro, solitamente con aerotermi che generano aria calda, oppure con banchi di carico ( installabili a rack ) inseribili nelle baie se già presenti.
Organizzazione dell'aria condizionataIl compressore frigorifero è la base dei sistemi di raffreddamento, tuttavia, possono includere bagni liquidi per migliorare l'efficienza.
I centri di elaborazione dati emettono molto calore (vedi indicatore di efficienza energetica ). Devono essere continuamente refrigerati o temperati. L' energia estratta dai server è molto spesso sprecata perché rilasciata nell'ambiente.
Negli anni 2010 esperimenti miravano a recuperare questi joule ea riutilizzarli per i fabbisogni energetici locali o locali ( riscaldamento , rete di riscaldamento ). Ad esempio, l' Università di Amsterdam riceve acqua riscaldata gratuitamente dal data center Equinix . A Roubaix , cinque centri OVHcloud , host francese, sono raffreddati ad acqua e aiutano a riscaldare gli edifici vicini. A Clichy , Global Switch riscalda una serra tropicale . A Marne-la-Vallée , la rete di teleriscaldamento Dalkia di Paris-Val d'Europe recupera calore da un data center nel Priory ZAC per riscaldare un centro acquatico intercomunale e, infine, fornisce “26 GWh di calore per riscaldare 600.000 m 2 di locali e attrezzature del terziario, dislocati su 150 ettari” , ovvero un risparmio di 5.400 tonnellate di CO 2all'anno, l'equivalente delle emissioni di 5.000 veicoli. In Svizzera, IBM sta riscaldando la piscina di Uitikon .
A Montreal (Canada), un “silo server”, grande quanto un edificio cittadino, viene raffreddato passivamente e vede il suo calore recuperato da una centrale elettrica sul tetto e distribuito ai vicini. È in fase di sperimentazione presso l'eco-campus Hubert-Reeves nel Technoparc de Montréal ( fr ) .
Questi sono in particolare:
L'ambiente fisico dei centri è sotto stretta sorveglianza.
Monitoraggio del corretto funzionamento dell'aria condizionata, di per sé essenziale per il corretto funzionamento delle apparecchiature elettroniche.
L'alimentazione di emergenza può essere fornita tramite UPS e generatore elettrico o tramite un gruppo rotante (no-break) accoppiato ad un accumulatore cinetico.
Al fine di prevenire una perdita di energia elettrica, tutti i componenti elettrici, compresi i sistemi di backup, vengono solitamente raddoppiati. I cosiddetti server essenziali sono ulteriormente alimentati da un sistema che utilizza due fonti elettriche indipendenti all'interno del centro.
I centri hanno solitamente un pavimento sopraelevato di 60 cm , realizzato con piastrelle amovibili. Questo spazio consente la libera circolazione dell'aria, così come facilita il cablaggio dell'alimentazione e dei dati attraverso diversi percorsi dei cavi. Tuttavia, i data center non hanno un piano tecnico (alimentazione dalla parte superiore dei rack, per supportare più facilmente elementi di tipo mainframe pesanti (IBM z10, ecc .).
Hanno spesso complessi sistemi di prevenzione e spegnimento degli incendi. I centri moderni sono spesso dotati di due sistemi di allarme. Il primo rileva le particelle calde emesse dai componenti surriscaldati dell'apparecchiatura, particelle che spesso causano un incendio. In questo modo è possibile eliminare alla fonte una sorgente di fuoco (a volte è sufficiente spegnere un gruppo saldato per eliminare il rischio di incendio). Un secondo sistema viene utilizzato per attivare una serie di attività se si verifica l'inizio di un incendio. Questi sistemi sono dedicati anche ad una porzione del centro elaborazione dati. Abbinato a ottime porte tagliafuoco e altri dispositivi di contenimento, è possibile controllare l'incendio e spegnerlo senza intaccare il resto dell'edificio.
I sistemi antincendio convenzionali sono dannosi per i componenti elettronici quanto il fuoco, motivo per cui sono stati sviluppati metodi alternativi. Alcuni usano azoto , Argonite , FM-200 o FK-5-1-12 (Novec 1230), mentre altri ricorrono all'emissione di particelle fini di acqua ultrapura (questa acqua non è elettricamente conduttiva, il che non danneggia l'elettronica componenti).
Anche la sicurezza è essenziale per il funzionamento di tali centri. L'accesso fisico a questi centri è limitato al personale autorizzato, così come le videocamere consentono di seguire le persone in loco. Inoltre, le guardie di sicurezza assicurano che il centro sia grande o contenga informazioni ritenute essenziali.
In un centro di elaborazione dati, i convertitori e aria condizionata consumano la metà dell'energia del centro (l'inizio del XXI ° secolo). I server moderni (2012) possono resistere fino a 45 °C , ma richiedono una temperatura da 20 a 35 °C . Tuttavia, nonostante i progressi compiuti sui componenti più efficienti, i server tendono ad essere sempre più compatti e densi (per superficie).
L' efficienza energetica del server e del data center sono oggetto di miglioramenti, dalla loro progettazione al loro utilizzo, in particolare mediante adeguamento del fabbisogno alla potenza del server, e free-cooling ad acqua o ad aria.
Dalla fine degli anni 2000 al 2012 siamo passati dal 10% al 50% dei “server virtuali”; questi possono anche aiutare a ottimizzare la gestione dei flussi energetici.
Microsoft, sostenendo che la maggior parte della popolazione vive vicino alle coste mentre i server sono lontani da essa (il che allunga i tempi di latenza nelle connessioni), nel giugno 2018 ha testato un “data center sommerso” in mare (il “Natick Project”). Costruito dal Gruppo Navale (ex DCNS, francese), deve consumare il 5% dell'energia che sarebbe necessaria per lo stesso servizio a terra. Deve essere testato per un anno, anche se la struttura prevede di essere sommersa per cinque anni, con un primo server di capacità equivalente a qualche migliaio di singoli PC; abbastanza per memorizzare quasi cinque milioni di film digitalizzati. Il sistema è sommerso in un cilindro ormeggiato sul fondo dell'arcipelago delle Orcadi (nord della Scozia ). È gestito a distanza e la sua alimentazione proviene da energie marine rinnovabili.
Spazzatura nei server, le calorie che vengono estratte sono recuperabili, ad esempio per il riscaldamento delle case , degli uffici , delle serre, delle colture di alghe...
Le comunicazioni all'interno di un centro sono ormai quasi esclusivamente Internet Protocol . Contiene quindi router , switch e qualsiasi altra apparecchiatura che consenta la comunicazione tra i server e il mondo esterno. La ridondanza si ottiene talvolta facendo uso di più apparecchiature di rete di marche diverse.
Alcuni server vengono utilizzati per fornire agli utenti aziendali i servizi Internet e Intranet di base di cui hanno bisogno: email , proxy , DNS , file , ecc.
Sono presenti anche apparecchiature per la sicurezza della rete: firewall , VPN , sistemi di rilevamento delle intrusioni , ecc. così come i sistemi per il monitoraggio della rete e di alcune applicazioni.
I server tendono ad essere virtualizzati . In Francia, un terzo dei server ospitati nei data center sarebbe virtualizzato e un quinto ad alta densità nel 2011. Si prevede che questi tassi raddoppieranno entro il 2013.
Lo scopo principale di un data center è eseguire applicazioni che elaborano dati essenziali per il funzionamento di un'azienda. Queste applicazioni possono essere progettate e sviluppate internamente dal cliente aziendale o da un fornitore di software di gestione aziendale. Questo può essere tipicamente ERP e CRM .
Spesso, queste applicazioni sono distribuite su più computer, ciascuno dei quali esegue una parte dell'attività. I componenti più comuni sono i sistemi di gestione del database , il file server , l' application server e il middleware .
L'usabilità di un data center può essere limitata da diversi parametri. A lungo termine, i principali limiti che gli operatori incontreranno saranno la superficie utile, quindi la potenza disponibile.
Nella prima fase del suo ciclo di vita un data center vedrà una crescita più rapida della sua superficie occupata rispetto all'energia consumata.
Con il costante addensamento delle nuove tecnologie hardware informatiche, il fabbisogno di energia diventerà preponderante, bilanciando poi il fabbisogno di superficie (seconda e terza fase del ciclo).
Lo sviluppo e la molteplicità dei dispositivi connessi, le esigenze di archiviazione ed elaborazione dei dati fanno sì che le esigenze dei data center crescano sempre più rapidamente. È quindi importante definire una strategia di sviluppo per il data center prima di andare “con le spalle al muro”. Il ciclo di decisione, progettazione e costruzione è di diversi anni. È quindi importante avviare questa riflessione strategica quando il data center raggiunge il 50% dell'energia consumata.
L'occupazione massima di un data center deve stabilizzarsi intorno all'85% sia in termini di energia che di superficie occupata. Le risorse così risparmiate, infatti, serviranno da spazio di manovra per gestire le sostituzioni di attrezzature e consentiranno così la temporanea convivenza tra vecchie e nuove generazioni.
Se questo limite viene superato per lungo tempo, non diventa più possibile sostituire le apparecchiature, il che porta inesorabilmente al soffocamento del sistema informativo.
Il data center è una risorsa a sé stante del Sistema Informativo (SI), con propri vincoli temporali e gestionali (durata 25 anni ), deve quindi essere preso in considerazione nell'ambito dei piani dei mezzi. (tra 3 e 5 anni ).
Nel 2011 c'erano 2.087 centri di elaborazione dati in tutto il mondo. Il Group of Electrical Equipment, Instrumentation and Control Industries ( Gimélec ) stima il numero di centri di elaborazione dati dei fornitori in Francia a 130, di cui il 40% nella regione di Parigi. A livello globale, i centri di cura sono sparsi sul territorio con aree di concentrazione in parte collegate alla rete urbana nei dipartimenti di Parigi, Île-de-France (principalmente Hauts-de-Seine, Seine-Saint-Denis), Nord e Bouches -du-Rhône. Anche l'ovest e la regione del Rodano-Alpi sono zone privilegiate.
I reparti IT delle grandi aziende sono generalmente dislocati in centri di elaborazione dati, dedicati o condivisi. I maggiori centri al mondo sono quelli di giganti di Internet come Google , che utilizza le infrastrutture modulari, container-based che può ospitare fino a 1.160 server (vedi Google Platform ), o Facebook, che ha esteso la sua. Trattamento dei data center di Prineville in Oregon . Amazon ha anche localizzato il suo centro di elaborazione in Oregon, dato il basso costo dell'energia in quello stato. Apple ha costruito il suo hub più grande a Maiden , nella Carolina del Nord , per supportare la sua strategia di sviluppo iCloud .
Nel 2019, il sito danese datacentermap.com ha elencato 4.798 centri di elaborazione dati in 122 paesi in tutto il mondo, di cui 1.756 negli Stati Uniti e 149 in Francia .
Nel 2018, le prime cinque società globali per capitalizzazione di mercato sono Apple , Amazon , Alphabet , Microsoft e Facebook , che superano i titani del petrolio e del gas Shell ed ExxonMobil (nel 2019, l' IPO di Saudi Aramco è un punto di svolta , poiché la capitalizzazione di questa società supera 2000 miliardi di dollari a dicembre). Questi nuovi giganti e i GAFAM in generale contribuiscono al riscaldamento degli ambienti e al riscaldamento globale attraverso l' energia incorporata che consumano. Questa tendenza dovrebbe crescere con lo sviluppo globale di Internet, video online , telefonia wireless , oggetti connessi , big data e tecnologia blockchain . Un rapporto del 2017 dell'Agenzia internazionale per l'energia atomica sul digitale e l'energia stima che la quantità di dati che devono essere archiviati e gestiti dai data center dovrebbe triplicare tra il 2014 e il 2020, il che dovrebbe indurli a gestirli con la massima vigilanza; inizialmente l'ottimizzazione energetica dovrebbe consentire di limitare l'aumento dei consumi al 3% tra il 2014 e il 2020, ma né il quantum computing né la bioinformatica sembrano sufficientemente maturi per consentire un salto tecnologico.
Nel 2018 sono stati necessari 200 terawattora (TWh) per il funzionamento dei data center, ovvero l'1% della domanda globale di energia elettrica, equivalente alla produzione di circa la metà dei reattori nucleari in Francia (379,1 TWh nel 2017, perdite di linea escluse) . L'aumento della loro efficienza annullerà ulteriormente fino al 2028 l'aumento dei consumi indotto da un aumento del traffico, secondo Dale Sartor (responsabile del Center of Expertise on Energy Efficiency in Data Centers presso il Lawrence National Laboratory-Berkeley , DOE ), ma quindi la domanda di elettricità dovrebbe aumentare di nuovo rapidamente.
Due sfide sono quindi ridurre il consumo globale di energia da parte del computer e potenziare il suo recupero di calore .
Il solo raffreddamento dell'hardware del computer contribuisce direttamente allo 0,3% delle emissioni totali di carbonio, mentre tutti i computer emettono il 2% di tutte le emissioni globali, esclusa l' energia incorporata . Si prevede che l' impronta di carbonio dell'IT aumenterà in modo significativo, così come la sua impronta idrica (nel 2014 i data center americani hanno consumato 100 miliardi di litri di acqua nelle torri di raffreddamento). È probabile che il consumo energetico globale dell'IT supererà il 20% del totale globale entro il 2030, di cui un terzo solo per i data center. La prospettiva resta delicata in ambito informatico, dove l'innovazione è veloce, ma se cryptomonnaie (come Bitcoin o Ethereum ) e blockchain o IA crescono senza decarbonizzare senza risparmiare energia, soprattutto in un contesto di spreco di energia e obsolescenza programmata , la domanda di energia e l'elettricità sarà molto più alta.
Anders Andrae, esperto di ICT sostenibile presso Huawei Technologies a Kista , Svezia, stima che senza grandi sforzi, il consumo energetico dei data center potrebbe essere moltiplicato per 15 tra il 2015 e il 2030, per raggiungere l'8% della domanda globale di elettricità, ma questa cifra è controversa.
Un'ipotesi inversa è che parte dei dati verrà archiviata e utilizzata su milioni di computer secondo il principio di un data center distribuito (vedi sotto ), anche se i data center sicuri rimarranno a priori necessari per i dati sensibili. , economici, militari , intelligenza, salute e personale in particolare.
Il basso costo dell'energia negli anni 2000-2010, reso possibile dallo shale gas e dalla crisi del 2008 , così come l'assenza di una carbon tax o tassa generale sulle attività inquinanti dei data center, non hanno incoraggiato il risparmio energetico, ma si stanno facendo progressi fatto.
Molti server eseguono anche attività non necessarie; Così Jonathan Koomey ha osservato nel 2018 che quasi un quarto di un campione di 16.000 piccoli server installati negli armadi, nei condotti e negli scantinati delle aziende svolgevano compiti obsoleti come tecnici o software come gli "zombi". Secondo uno studio del Berkeley National Laboratory , trasferire l'attività dell'80% dei server dei piccoli data center americani in centri molto grandi più efficienti farebbe risparmiare il 25% del loro consumo energetico.
Bitcoin, nato nel 2008, consumava già 20 TWh di elettricità all'anno nel mondo nel 2018, l'equivalente di poco meno del 10% del consumo dei data center, secondo Alex de Vries (consulente dati presso PwC ), ma potrebbe non crescere tanto quanto sperano i suoi promotori, o migrare verso tipi di blockchain umani o meno assetati di potere, o potrebbe alla fine non soddisfare le esigenze di fiducia nelle transazioni. L'uso diffuso della blockchain da parte degli scambi sarebbe più preoccupante.
Secondo Frédéric Bordage , esperto di IT sostenibile e sobrietà digitale , contrariamente alla credenza popolare, derivante da una certa copertura mediatica, l'impatto ambientale dei data center, certamente significativo, rappresenta solo il 15% circa dell'impatto ambientale nel 2019. digitale tecnologia su scala globale, molto indietro rispetto alle apparecchiature utente (più di due terzi) e alla rete.
L' impronta ecologica complessiva dei data center sta crescendo rapidamente, ma avrebbe potuto essere ridotta dall'ottimizzazione e dalla condivisione delle risorse (di circa il 25% nel 2010) e potrebbe ancora esserlo (vedi sotto).
Gli impatti ambientali si concentrano durante:
La produzione concentra l'inquinamento e l'esaurimento delle scorte di risorse non rinnovabili . L'utilizzo determina principalmente emissioni di gas serra (legate alla produzione di energia consumata dal data center) ed emissioni da rifiuti di apparecchiature elettriche ed elettroniche (RAEE).
Due fattori che possono essere meglio controllati e/o valorizzati sono:
Nonostante i guadagni in efficienza energetica dei processori e in termini di ottimizzazione della rete ed efficienza energetica delle apparecchiature informatiche, a causa dell'esplosione dei bisogni, i grandi centri di elaborazione dati sono sistemi fisici e cibernetici ( Cyber-Physical System ) che consumano grandi e crescenti quantità di elettricità . Secondo Qarnot Computing In Francia, nel 2013, più di duecento data center hanno consumato più del 7% dell'elettricità del paese. Un data center di 10.000 m 2 consumerebbe quanto una città di 50.000 abitanti e un grande data center consuma 100 MW ad esempio 1/ 10 esimo della produzione di una centrale termoelettrica.
“A livello europeo, la Commissione ha stimato nel 2008 che i data center hanno consumato 56 TWh , metà dei quali utilizzati per il raffrescamento degli edifici” .
Una delle principali metriche utilizzate per valutare l'efficienza energetica di un data center è l' indicatore di efficienza energetica o PUE (per Power Usage Effectiveness ). Questo indicatore valuta il consumo di elettricità in eccesso dovuto a tutte le apparecchiature non IT nel data center. Un data center ideale avrebbe un indicatore di efficienza energetica pari a 1, ovvero tutto il consumo energetico del data center sarebbe consumato dalle apparecchiature IT.
I data center sono responsabili dello 0,3% delle emissioni globali di gas serra .
Due leve per migliorare la carbon footprint sono il risparmio energetico da un lato e l' eco-design con recupero delle calorie prodotte dall'altro. Delle misure compensative ( carbon offset ) sono considerate o utilizzate anche da alcuni attori. Nel 2011, il centro GrenoblIX è diventato il primo data center "ecologico" in Francia.
Per rispondere a queste tre sfide e dopo che l'esperienza SETI@home ha mostrato l'interesse per il " calcolo distribuito " (in questo caso utilizzando personal computer connessi a Internet), alcuni operatori come AMD hanno pensato di decentralizzare i propri centri di elaborazione dati in un ambiente distribuito rete proposta dalle unità (piccoli centri di elaborazione dati ciascuno munito di una turbina eolica, ingranati tra loro da fibre ottiche ).
Installatori e proprietari di data center e produttori di energia potrebbero in futuro unire i loro investimenti in una rete elettrica intelligente , possibilmente integrata nell'"Internet dell'energia" che Jeremy Rifkin propone nel suo concetto di " Terza rivoluzione industriale ".
Il cloud potrebbe quindi evolversi in un modello completamente decentralizzato richiede una "gestione dinamica del raffreddamento" (raffreddamento dove serve e quando è necessario e il più passivamente possibile), e un diverso approccio alla sicurezza dei server e dei loro dati, gestione distribuita dei dati , la gestione dell'energia e la capacità delle reti di data center di autoadattarsi alle fluttuazioni dei bisogni, ma anche dell'energia disponibile. Le loro risposte devono essere più elastiche , senza un aumento complessivo dei consumi energetici, nel quadro di una nuvola verde che resta da inventare.
All'inizio degli anni 2000 è apparsa una soluzione complementare alle precedenti, che poteva essere riservata a dati da mettere in sicurezza. Si tratta di sviluppare reti di server in gran parte virtuali (o più precisamente condivisi e distribuiti, utilizzando parte delle risorse dei computer familiari e aziendali o utilizzandoli quando i loro proprietari non li utilizzano o li sottoutilizzano, il che richiede anche un ripensamento della sicurezza informatica ). Per questo, i sistemi per l'allocazione sicura delle risorse e la distribuzione dei compiti (eventualmente differiti quando non sono urgenti) devono ancora essere testati e validati su larga scala. In tutti i casi, ricerca e sviluppo devono essere sviluppati.
Radiatori digitali : è uno pseudo radiatore elettrico (irradia il calore fatale del computer sotto forma di calore utile. Sono le schede madri e i loro processori che sostituiscono in tutto o in parte l'elemento riscaldante ad effetto Joule.
Il 5 giugno 2018, nell'ambito del Natick Project, Microsoft e Naval Group hanno immerso il loro primo datacenter al largo della costa delle Orcadi in Scozia, operando in modo completamente indipendente con energie rinnovabili.
L' Uptime Institute ha definito una certificazione dei data center in quattro categorie, denominate "Tier" .