Le leggi di Moore sono leggi empiriche che riguardano l'evoluzione della potenza di calcolo dei computer e la complessità dell'hardware .
La prima di queste leggi fu emanata dall'ingegnere Gordon E. Moore nel 1965, quando postulò una continuazione del raddoppio della complessità dei semiconduttori ogni anno a costo costante. Dieci anni dopo Moore aggiustò la sua previsione al raddoppio del numero di transistor su un chip a microprocessore ogni due anni. Questo secondo postulato si rivelò particolarmente corretto e rese popolare il termine "legge di Moore", tanto che quest'ultimo finì per estendersi al raddoppio di qualsiasi capacità in un dato tempo.
Il primo microprocessore ( Intel 4004 ) è stato inventato nel 1971 . Era un'unità di calcolo a 4 bit , con clock a 740 kHz e che integrava 2300 transistor. La capacità di integrazione dei transistor e l'aumento della finezza dell'incisione hanno migliorato le prestazioni dei processori.
L'errata interpretazione della legge di Moore sulla frequenza di clock è stata più o meno verificata dal 1973 , e teoricamente avrebbe dovuto continuare fino al 2015 prima che ci si imbattesse negli effetti del rumore parassitario ( effetti quantistici , decadimenti alfa ). Dal 2004 la frequenza dei processori tende a ristagnare a causa delle difficoltà di dissipazione termica, che impediscono un aumento di frequenza nonostante le dimensioni ridotte dei componenti. Nel 2016, le frequenze del processore si sono avvicinate alla soglia dei 5 GHz . Il record di 500 GHz viene battuto da IBM (in collaborazione con Georgia Tech ) con un transistor dotato di un chip a base di silicio-germanio che, per l'occasione, è stato raffreddato a -269 ° C con elio liquido. Questo transistor funziona ancora a 350 GHz a temperatura ambiente. Nel 2018, Intel ha superato la soglia dei 7,5 GHz con il suo processore Core i9-9900K ottimizzando l'uso dell'azoto liquido per il sistema di raffreddamento .
Tuttavia, la seconda legge di Moore è sempre rispettata, grazie alla capacità di integrazione dei processori, che è ancora in corso, che consente di bypassare il ristagno della frequenza raddoppiando su un chip il numero di transistor, frequenza rimanente per il suo parte invariata (Dual PowerPC nel 2002 , Dual IA nel 2004 , Intel Core Duo nel 2006 ).
Inoltre, stiamo sperimentando chip funzionano in modalità totalmente asincrona . L'idea dei circuiti asincroni non è nuova poiché fu sperimentata nel 1951 con lo IAS e nel 1952 con l'ORDVAC. Vediamo infatti che la semplice trasmissione del segnale di clock a tutti i componenti può consumare metà dello spazio e della potenza elettrica dei microprocessori dell'anno 2000.
L'uso dell'elaborazione parallela è diventato, durante gli anni 2000, necessario affinché la legge di Moore rimanesse valida. Per anni, i fondatori di processori sono stati in grado di fornire aumenti della frequenza di clock e miglioramenti del set di istruzioni nel parallelismo, in modo tale che le applicazioni single-threaded funzionino molto più velocemente su una macchina di nuova generazione di processori senza che sia necessaria alcuna modifica. Ora, per gestire al meglio la potenza dissipata (direttamente collegata alla frequenza di clock), i fondatori prediligono architetture multi-core. Ciò ha un impatto estremamente grande sul software che deve essere scritto e adattato appositamente per sfruttare l'hardware.
Un altro fattore può rallentare il progresso delle prestazioni del processore, che questa volta non ha nulla di fisico, ma finanziario . Anche il costo delle linee di produzione sta aumentando in modo esponenziale, a tal punto che anche giganti concorrenti come IBM e Siemens hanno dovuto unire i loro investimenti per riuscire a tenere il passo.
La redditività delle nuove generazioni di macchine dipende da un futuro a dir poco incerto (molti utenti di PC, ad esempio, stanno iniziando a prendere come criterio prioritario di scelta non più la velocità di un PC, ma il suo livello di rumorosità ) e potrebbe sia che in queste condizioni sia una decisione economica, e non fisica, che pone fine alla legge di Moore.
Macchine sempre più potenti messe a disposizione degli sviluppatori hanno effetti perversi. Ai tempi dei processori "lenti" degli anni '80 e '90 , gli sviluppatori investivano molto tempo nell'ottimizzazione dei programmi e ogni riga di codice che poteva essere salvata, risparmiava cicli di clock e quindi aumentava rapidamente. I computer attuali offrono un comfort di lavoro che ha l'effetto di ridurre la vigilanza degli sviluppatori. Inoltre, i vincoli economici ci costringono a produrre sempre in fretta e il tempo precedentemente impiegato per l'ottimizzazione del codice è stato sacrificato. Quindi oggi ci troviamo di fronte a un paradosso: i computer sono sempre più veloci, ma il software sempre più pesante e lento (vedi legge di Wirth ).
Infine, l'utente non ha la sensazione di un reale aumento della velocità, soprattutto per le attività di base come l' elaborazione di testi . Molti utenti rimpiangono persino i computer più "rustici" che, privato di tutti i gadget di cui oggi si caricano i sistemi, potrebbe rivelarsi più efficiente in termini di produttività .
Un altro fattore spiega senza dubbio meglio la mancanza di sensazione di progresso: gli altri componenti dei computer non si sono necessariamente evoluti con la stessa rapidità. In un computer moderno con dischi rigidi meccanici, sono questi il fattore limitante dell'esperienza dell'utente. Un computer è un sistema come una catena: il componente più lento decide la velocità del tutto. L'aggiunta di RAM o l'installazione di una memoria SSD in un sistema obsoleto o di fascia bassa consente un guadagno in reattività (avvio macchina, lancio programmi, arresto) spesso più apprezzato dall'utente rispetto a una maggiore velocità del processore.
La legge di Moore potrebbe anche essere di interesse economico nel controllo della domanda mediante la distribuzione dell'offerta distillata. Infatti, la miniaturizzazione progredisce in linea di principio grazie a scoperte e ottimizzazioni occasionali, una realtà che difficilmente si conforma alla regolarità dell'evoluzione esponenziale specificata dalla legge di Moore. Controllando la diffusione nel tempo di nuove applicazioni tecnologiche, è possibile che gli stessi colossi dei semiconduttori definiscano un modello stabile di consumo , e garantire così una corrispondenza tra i loro sforzi di innovazione e i desideri di rinnovamento dei loro clienti. La fornitura autolimitante obbligherebbe quindi i consumatori ad aggiornare regolarmente le loro apparecchiature. Per essere efficace, sarebbe tuttavia necessario che una siffatta autolimitazione dell'offerta possa fare affidamento su una forte cartellizzazione del mercato.
In questo caso, abbastanza comune nella storia del capitalismo , le leggi di mercato favorirebbero il contenimento dell'innovazione per garantire una rendita a tutto il settore interessato
La legge di Moore si è dimostrata sorprendentemente accurata fino agli inizi del XXI ° secolo.
Nel 1999 , il cosiddetto transistor CMOS "definitivo" sviluppato al CEA-Leti di Grenoble ha spinto il principio del transistor MOSFET ai suoi "limiti" con una sezione di 18 nanometri (la dimensione di circa 70 atomi affiancati), cioè sette volte più piccolo del più piccolo transistor industriale del 2002 (123 nm nel 2002, 83 nm nel 2003, 65 nm nel 2005, 45 nm nel 2008, 32 nm nel 2010, 22 nm nel 2012, 14 nm nel 2016, 7 nm nel 2019). Ha consentito un grado teorico di integrazione di sette miliardi di giunzioni su una moneta da un euro. Ma questo era solo un semplice esperimento di ricerca per studiare come funzionano le tecniche CMOS quando ci si avvicina alla dimensione molecolare.
Il costo della tecnica che consente la produzione di chip che incorporano sempre più transistor sta aumentando in proporzioni vertiginose. Un'altra regola empirica della Silicon Valley , Rock's Law , afferma che il costo di produzione di una fonderia di chip raddoppia ogni quattro anni perché il processo di produzione utilizzato da quarant'anni, la fotolitografia , si avvicina sempre più ai suoi limiti fisici. Così, nel 2004, Intel ha annunciato un investimento di oltre due miliardi di dollari nel suo stabilimento Fab12 in Arizona per la produzione di chip da wafer di 300 mm di diametro, che hanno sostituito i wafer da 200 mm alla fine del 2005 .
Per produrre transistor sempre più piccoli, viene utilizzata la radiazione di lunghezza d'onda sempre più corta e la corsa alla miniaturizzazione porterà alla fotolitografia nello spettro dei raggi X sempre più aspro (radiazione UV, quindi raggi X, ecc.). Ma in questa gamma di lunghezze d'onda diventa difficile, se non impossibile, concentrare i raggi in modo efficace. A metà degli anni 1990 , si è ritenuto che non fosse in grado di produrre industrialmente transistor di meno di 400 atomi (100 nm ) in sezione trasversale con un tale processo. Nell'industria del silicio, questo limite è chiamato " the Wall ".
Nel 2021 si ritiene che la legge di Moore si avvicini al suo limite. Fino ad allora, il numero di transistor a microprocessore è progredito perché sempre più piccoli grazie all'aumento della finezza dell'incisione, ma non potranno scendere al di sotto di un certo valore. Per continuare ad aumentare il numero di transistor sulla stessa superficie, è prevista la costruzione verticale di chip 3D. I transistor non saranno più piccoli, ma il loro numero aumenterà come se la loro dimensione fosse stata ridotta.
Alcuni commentatori mettono in dubbio la rilevanza della legge di Moore per la sostenibilità :
Le nuove esigenze ( informatica "verde" , riduzione delle dimensioni dei computer con netbook e tablet, ecc.) Sono espresse meno in termini di milioni di transistor per mm² che in termini di prestazioni per energia consumata.
Inoltre, è interessante ridurre l'elaborazione di un'attività interattiva da 20 secondi a 2 secondi, quindi a 200 ms . Quindi abbassarlo a 20 ms non aggiunge necessariamente nulla, e certamente nulla se questo compito è isolato. Mentre le esigenze industriali richiedono sempre più potere, lo stesso non si applica indefinitamente a quelle degli individui.
Stiamo assistendo all'emergere delle esigenze degli stakeholder aziendali, che esigono che si tenga conto degli impatti ambientali e sociali della loro attività in termini di sviluppo sostenibile .
Un rapporto informativo del Senato francese sulle nuove tecnologie dell'informazione menziona la legge di Moore come la principale accelerazione tecnica degli ultimi decenni. Questo rapporto sottolinea la necessità di definire un sistema di valori nella nuova società dell'informazione, che eviti lo scientismo .
In questo contesto, dobbiamo valutare le prestazioni per watt .
La lista Green500 classifica i TOP500 lista supercomputer in termini di efficienza energetica . Questo è misurato in FLOPS per watt .
Il produttore di IT Bull ha abbandonato la legge di Moore nei suoi obiettivi e ora mantiene il rapporto prestazioni / energia nei suoi piani IT verdi .
Alcuni produttori come ARM introducono processori che non cercano più di seguire la legge di Moore. I suoi processori del 2009 a volte hanno 100.000 transistor, che è meno di un processore Intel 286 12 MHz del 1982 , ma consumano solo un quarto di watt , equipaggiando nel 2009 una dozzina di modelli di netbook con Linux o altri sistemi operativi .
La creazione nel 2007 della Climate Savers Computing Initiative , che si è posta l'obiettivo di dimezzare il consumo di energia dei computer, ha probabilmente firmato la condanna a morte della legge di Moore.
Quando la Legge di Moore avrà raggiunto i suoi limiti, un cambio di paradigma consisterà nel passaggio dalla microelettronica alle nanotecnologie , vale a dire un insieme di tecniche radicalmente diverse, complementari o concorrenti, come l'uso di nanotubi nei transistor molecolari, i computer del DNA , il informatica quantistica ... Tecnologie comunemente raggruppate sotto il termine " nano-computer " che in particolare introduce i sistemi onnipresenti e il calcolo pervasivo.
Al Intel Developer Forum insettembre 2007, Gordon Moore predisse che la sua legge di raddoppiare il numero di transistor in un chip ogni due anni non sarebbe stata valida tra dieci o quindici anni. In effetti, l'industria si sta avvicinando sempre di più ai limiti fisici della microelettronica, dove i transistor saranno costituiti solo da pochi atomi e li isoleranno l'uno dall'altro. L'industria dovrà quindi cercare metodi completamente nuovi, come l'impilamento di transistor in tre dimensioni.
Nel febbraio 2016, la fine della legge di Moore è annunciata dall'International Technology Roadmap for Semiconductors (ITRS) che approva ufficialmente l'abbandono di questa legge, il ritmo semplicemente non è più sostenibile. In questa occasione, l'ITRS cambia nome e strategia, si chiama ora International Roadmap for Devices and Systems . La sua nuova roadmap si intitola More than Moore in riferimento all'abbandono della strategia More Moore che ha permesso di fissare gli investimenti del settore a un livello che ha consentito la validità della Legge di Moore.
(Indicato da Gordon Bell nella sua presentazione " Leggi informatiche ")
Secondo la legge di Moore:
Sebbene la legge di Moore sia molto spettacolare, non dovrebbe oscurare altri progressi che a volte sono superiori ad essa: