Elaborazione centralizzata

Il computer centralizzato o architettura centralizzata riunisce le risorse necessarie per il trattamento di una centrale host , generalmente utilizzando terminali che sono collegati a un computer centrale . Questo computer può controllare direttamente tutte le periferiche (se sono fisicamente collegate ad esso) oppure possono essere gestite da un terminal server . Se i terminali hanno la capacità, potrebbero essere in grado di connettersi al mainframe direttamente da una rete di computer . Il computer centrale può essere un server centrale nel caso di un'architettura client-server . I terminali possono essere passivi o attivi, possono visualizzare ambienti CLI , TUI o GUI , può essere ad esempio una console di sistema , una stampante di un thin client o un client più grande.

Questo computing centralizzato offre una maggiore sicurezza rispetto all'architettura distribuita perché tutta l'elaborazione è controllata in una posizione centrale. Inoltre, se un terminale si interrompe, l' utente può semplicemente andare su un altro terminale e accedere di nuovo, e tutti i suoi file saranno nuovamente accessibili. A seconda del sistema, questa architettura potrebbe persino essere in grado di riprendere una sessione dal punto in cui era stata interrotta, come se nulla fosse accaduto.

Tuttavia, questo tipo di disposizione presenta anche alcuni inconvenienti. Il computer o il server centrale esegue le funzioni del computer e i comandi per i terminali remoti. Questo sistema è totalmente basato su un computer o server centrale, se questo fallisce , l'intero sistema "andrà giù" (cioè sarà tagliato fuori dalla maggior parte dei suoi servizi).

Un altro svantaggio è che l'elaborazione centralizzata dipende fortemente dalla qualità dell'amministrazione e dalle risorse fornite ai suoi utenti. Se il computer o il server centrale non è sufficientemente supportato, l'utilizzo del sistema può presentare vari problemi (dimensioni della directory troppo grandi, malfunzionamenti relativi alla sua amministrazione, ecc.). Tuttavia, la situazione opposta (ovvero un sistema che supporta meglio le tue esigenze) è uno dei principali vantaggi dell'elaborazione centralizzata.

Storia

Il ritorno dell'informatica centralizzata

Con il cloud computing vi è un significativo ritorno dell'elaborazione centralizzata.

Diversi produttori e i loro successori hanno prodotto computer mainframe dalla fine degli anni '50 fino all'inizio del 21 ° secolo, con una graduale diminuzione della quantità sul mercato e un graduale passaggio alla simulazione su chip Intel piuttosto che sul proprietario dell'hardware. Il gruppo di produttori americani fu inizialmente conosciuto come "IBM and the Seven Dwarfs", con i principali concorrenti Burroughs , UNIVAC , NCR, Control Data , Honeywell , General Electric e RCA. Dopo le partenze di General Electric e RCA, "IBM and the Seven Dwarfs" si affermò gradualmente nel suo mercato e divenne noto come IBM e BUNCH. Il dominio di IBM si è sviluppato dalla serie 700/7000 e, successivamente, attraverso lo sviluppo dei mainframe della serie 360. Quest'ultima architettura ha continuato ad evolversi negli attuali mainframe zSeries che, insieme ai mainframe Burroughs e Sperry (ora Unisys ) basati su MCP e OS1100, sono tra le poche architetture mainframe rimaste che possono far risalire le loro radici a questo periodo. Sebbene zSeries di IBM possa ancora eseguire codice System / 360 a 24 bit , i server CMOS zSeries a 64 bit e System z9 non hanno nulla in comune con i sistemi precedenti (sistema non retrocompatibile).

Al di fuori degli Stati Uniti, i principali produttori erano Siemens e Telefunken in Germania , ICL nel Regno Unito , Olivetti in Italia e Fujitsu , Hitachi , Oki e NEC in Giappone . Anche l' Unione Sovietica e i paesi del Patto di Varsavia hanno realizzato copie ravvicinate dei computer mainframe IBM durante la Guerra Fredda; la serie BESM e Strela sono esempi di computer sovietici progettati in modo indipendente.

Il calo percepito della domanda e la forte concorrenza hanno cominciato a scuotere il mercato all'inizio degli anni '70, in particolare attraverso acquisizioni e dismissioni aziendali, rimodellando il mercato mainframe. RCA è stata venduta a UNIVAC e GE ha venduto le sue attività a Honeywell . Tra il 1986 e il 1990 Honeywell è stata rilevata da Bull e UNIVAC è diventata una divisione di Sperry , che poi si è fusa con Burroughs per formare Unisys Corporation nel 1986. Durante gli anni '80, i sistemi basati su minicomputer sono diventati più sofisticati e sono stati in grado di sostituire dei computer mainframe. Questi computer, a volte chiamati computer aziendali, erano caratterizzati dal DEC VAX.

Nel 1991, AT&T Corporation ha posseduto per breve tempo NCR . Durante lo stesso periodo, le aziende hanno scoperto che i server basati sulla progettazione di microcomputer potevano essere distribuiti a una frazione del costo di proprietà e fornire agli utenti locali un controllo molto maggiore sui propri sistemi, date le politiche e le pratiche IT del tempo. I terminali utilizzati per interagire con i sistemi mainframe sono stati progressivamente sostituiti dai personal computer. Di conseguenza, la domanda è crollata rapidamente e le nuove installazioni mainframe sono state limitate principalmente ai servizi finanziari e al governo.

All'inizio degli anni '90, gli analisti del settore erano generalmente d'accordo sul fatto che il mainframe fosse un mercato in via di estinzione, con le piattaforme mainframe che venivano gradualmente sostituite da reti di personal computer. Stewart Alsop di InfoWorld ha purtroppo previsto che l'ultimo mainframe sarebbe stato scollegato nel 1996; nel 1993, ha citato Cheryl Currid, un'analista del settore informatico, dicendo che l'ultimo mainframe "cesserà di funzionare il 31 dicembre 1999", un riferimento al problema previsto per l'anno 2000.

Questa tendenza ha iniziato a invertirsi alla fine degli anni '90, quando le aziende hanno trovato nuovi usi per i loro computer mainframe esistenti e il prezzo delle reti di dati è crollato nella maggior parte del mondo, favorendo una tendenza verso un'elaborazione più centralizzata. La crescita del commercio elettronico ha anche aumentato notevolmente il numero di transazioni elaborate dal software mainframe, nonché le dimensioni e il rendimento dei database. L'elaborazione in batch, come la fatturazione, è diventata ancora più importante con la crescita dell'e-commerce e i mainframe sono particolarmente esperti nell'elaborazione in batch su larga scala. Un altro fattore che sta attualmente aumentando l'uso dei mainframe è lo sviluppo del sistema operativo Linux , che è arrivato ai mainframe da IBM nel 1999 e che tipicamente gira in punteggi o fino a circa 8.000 macchine virtuali su un singolo mainframe. Linux consente agli utenti di sfruttare il software gratuito combinato con l'hardware RAS per i mainframe. La rapida espansione e sviluppo nei mercati emergenti, in particolare nella Repubblica popolare cinese, sta anche guidando grandi investimenti nell'elaborazione centrale per risolvere problemi di elaborazione eccezionalmente difficili, ad esempio fornendo database per l'elaborazione dei dati.Transazioni online unificate e ad altissimo volume miliardi di consumatori in più settori ( bancario , assicurativo, solvibilità, servizi governativi, ecc.)

Alla fine del 2000, IBM ha introdotto z / Architecture a 64 bit, ha acquisito diverse società di software come Cognos e ha introdotto questi prodotti software nel mainframe. I rapporti trimestrali e annuali di IBM negli anni 2000 hanno generalmente riportato un aumento dei ricavi del mainframe e delle consegne di capacità. Tuttavia, l'attività mainframe di IBM non è stata immune dalla recente recessione generale nel mercato dei server o dalla modellizzazione degli effetti del ciclo. Ad esempio, nel quarto trimestre del 2009, i ricavi dell'hardware System z di IBM sono diminuiti del 27% anno su anno. Ma le spedizioni MIPS (milioni di istruzioni al secondo) sono cresciute del 4% all'anno negli ultimi due anni. Alsop ottiene la sua foto scattata in 200.

Note e riferimenti

(fr) Questo articolo è parzialmente o interamente tratto dall'articolo di Wikipedia in inglese intitolato Calcolo centralizzato  " ( vedere l'elenco degli autori ) .
  1. Robert Jeansoulin, "  Back to centralized computing in the heroic years ... but you can't see  " , on france-science.org , Mission for Science and Technology,10 marzo 2009(accessibile il 1 ° marzo 2017 )