Il Cloud Integrator

Managed CloudQualche giorno fa ho avuto il piacere di partecipare al Cisco Cloud Connections Event dove ho avuto modo di confrontarmi con i Cloud Provider presenti ed, ovviamente, con i System Integrator presenti. Tra i vari interventi ho particolarmente apprezzato alcuni spunti di riflessione riportati da Nicola Fracassi in relazione al comportamento che queste due entità – Provider ed Integrator – devono adottare per fare Business in un mercato che si è pesantemente spostato verso la nuvola.

Per prima cosa qualche dato di fatto:

I System Integrator, per loro struttura e mission, tendono ad instaurare un rapporto di fidelizzazione con i loro clienti, al contrario i Cloud Provider spingono (o almeno dovrebbero) verso l’automazione riducendo sensibilmente il rapporto diretto con il cliente.

I Cloud Provider tendono a verticalizzare le propri skills, tecniche e commerciali, su logiche molto simili a quelle del commercio di “prodotti”: il servizio proposto segue degli standard e talvolta è poco flessibile per sua natura, il cliente compra qualcosa di “pronto all’uso”, che è realmente utilizzabile immediatamente ma che è così come lo si vede (poco o per nulla custom). Al contrario i System Integrator vendono il know-how dei propri specialisti da utilizzare in attività molto meno standardizzate tanto da richiedere un processo operativo che comprenda una fase di analisi, una di progettazione ed una di implementazione per realizzare integrazioni “cucite” sulle esigenze del cliente.

In questi anni abbiamo osservato diversi tentativi di “invasione di campo” tra le due entità, evidentemente per raccogliere un Business tendenzialmente non congruo con la propria struttura. Anche lato “end users” la diversità delle due entità non è sempre molto chiara o si preferisce comunque far riferimento all’entità con cui si è creato il rapporto fiduciario (il System Integrator) anche per chiedere l’erogazione di servizi tipicamente Cloud, magari da integrare con la propria infrastruttura.

Non oso asserire che i Cloud Provider non debbano fare consulenza o che i System Integrator non debbano ingegnerizzare servizi per i propri clienti, è comunque ragionevole pensare che il System Integrator è particolarmente abile nelle attività di integrazione mentre il Cloud Provider è altrettanto abile nella gestione di servizi strutturati, di solito non è vero il contrario.

L’evoluzione comportamentale di queste entità dovrebbe essere – oggi – abbastanza chiara:

  • i Provider devono continuare ad ingegnerizzare e proporre nuovi servizi relativamente standardizzati, che garantiscano prestazioni, affidabilità e costi certi/misurabili/prevedibili
  • gli Integrator devono aiutare i propri clienti a valutare le soluzioni Cloud più adatte a loro (non può essere tutto on-premise, non è efficiente), comprendere cosa portare in cloud e cosa no e trovare un metodo di gestione di un’infrastruttura che sarà sempre più ibrida (hydrid-cloud è il presente)

Il System Integrator assume un nuovo ruolo e lo si potrebbe definire un (Hybrid) Cloud Integrator laddove i suoi clienti avranno un’infrastruttura Private Cloud, una o più Public Cloud (forse su provider differenti per assolvere a differenti esigenze) e, perché no, anche qualche servizio in Full Outsoucing presso il Datacenter dell’integrator stesso… non bisogna farsi mancare nulla.

Cooperare in questa direzione dovrebbe portare una certa efficienza nella proposta di servizi, consulenza ed assett necessari alle attività di integrazione dei clienti. Mi piacerebbe vedere quindi i Provider darsi battaglia sui programmi di canale e gli Integrator stringere rapporti con diversi Provider.

Personalmente sono attivo in questa direzione, mi appunto di tirare qualche somma a fine 2015.

Veeam Cloud Connect

veeam_logoVeeam credo sia un nome ben noto nel mondo della virtualizzazione, è sicuramente uno dei software più utilizzati per la gestione dei backup di infrastrutture virtuali in salsa VMware vSphere e MS Hyper-V. Qualche mese fa, con il lancio della versione 8.0, sono state presentate nuove funzionalità molto interessanti, alcune delle quali sono particolarmente orientate al mondo dei servizi cloud. Una su tutte è Veeam Cloud Connect, la soluzione che consente di mettere in comunicazione la propria istanza di Veeam con un backup server remoto in grado di ricevere ed archiviare i dati della propria server farm.

Questa funzionalità si rivolge evidentemente ai cloud provider che vogliono mettere a disposizione una repository Veeam in cloud a cui più infrastrutture “on premise” possono inviare i propri dati durante le sessioni di backup. Gli addetti ai lavori (IT Manager e System Integrator) possono quindi implementare nuove policy di backup con destinazione la cloud repositry di Veeam.

cloud_connect_overview

Chi dispone già di una licenza Veeam v8 non avrà costi aggiuntivi a livello software, gli unici oneri sono quelli relativi all’acquisto di un servizio “Veeam Cloud Connect” compatibile presso uno dei provider che si sono dotati di questa infrastruttura ed all’eventuale consulenza di integrazione della propria infrastruttura locale con la cloud repository. Chi utilizza altri software per la gestione dei backup della propria virtual server farm può comunque utilizzare tale servizio una volta dotatosi di un nuovo backup server con Veeam B&R v8 e le relative licenze software; in questo caso è sicuramente opportuno valutare un passaggio completo a Veeam sia per il backup locale (su disco o su LTO) che per il backup in cloud.

La nuova funzionalità avvicina un vasto bacino di aziende ai vantaggi del cloud backup, un paradigma che consente di:

  • ridurre i costi di gestione e manutenzione della componente backup storage in luogo di un canone di servizio dimensionato secondo l’effettiva esigenza di spazio
  • rendere il servizio di backup facilmente scalabile per volumi di dati e tempo di retention senza nuovi investimenti
  • disporre di una ulteriore copia di backup off-site in caso di “disastro”
  • (per i fun del “tutto in cloud”) una sensibile diminuzione degli effort di gestione del sistema di backup

Fino a non molto tempo fa portare il dato archiviato al di fuori delle mura aziendali non era assolutamente una cosa banale. Servizi di cloud backup e cloud storage sono diffusi già da qualche anno, ma un’integrazione specifica per prodotti di così alta penetrazione sul servato (vSphere, Hyper-V, Veeam B&R) mancava. Per come è studiata l’infrastruttura non parlerei di Disaster Recovery in senso stretto, è comunque un fatto la possibilità di eseguire il recovery della propria server farm nella sua totalità in caso di gravi fault della stessa.

Concludo suggerendovi una buona lettura per comprendere gli scenari di implementazione: il white paper scritto da un volto noto del mondo della virtualizzazione e del backup.

Hybrid Cloud con Cisco Intercloud

cisco-logoLo so, ho abusato della parola “cloud” nel titolo ma visto che ormai il termine è stagionato, oltre che inflazionato, ce lo possiamo permettere. Il concetto di Hybrid Cloud è invece ancora poco adottato sul panorama italico ma è indubbiamente uno dei temi da affrontare nel 2015 così come lo sta affrontando il resto del mondo. Temo che con questa frase mi ripeterò: la diffusione della virtualizzazione è totale, la diffusione di infrastrutture Private Cloud è elevatissima e sempre più spesso gli IT Manager si rivolgono a Cloud Provider per gestire la crescita impulsiva del workload degli ambienti che gestiscono.

Il tema tecnologico da affrontare è: come far dialogare il mio Private Cloud, ad esempio un ambiente VMware vSphere, con il mio Public Cloud in Amazon EC2? Fin quando siamo nell’ambito dello stesso Brand la questione è semplice, VMware come Citrix mettono a disposizione dei propri clienti il loro “cloud connector” per mettere in comunicazione la propria infrastruttura con la propria nuvola, ma tra infrastrutture che riportano “sigle” differenti la faccenda si complica.

Cisco ha qualcosa da dire in proposito e propone la sua soluzione: Cisco Intercloud. Il concetto che sta alla base del software è semplice quanto funzionale e tale ritengo sarà l’approccio anche di altri Brand di settore sul tema; Cisco Intercloud ha la capacità di dialogare con diverse tipologie di cloud environments, come i citati vSphere ed EC2, al fine di movimentare ambienti virtuali da una nuvola all’altra con davvero poche semplici operazioni.

cisco-intercloud

Perché guardare al cloud ibrido?

Domanda lecita. L’ipotesi su cui si basa questo paradigma è relativa alla – già citata – crescente necessità di gestire impulsivamente elevati carichi computazionali. Volendo offrire sempre adeguate performance ai propri utenti/clienti le aziende si troverebbero a dover dimensionare il proprio Private Cloud in relazione alla potenza di picco richiesta dai propri sistemi. Questo trend andrebbe di fatto ad annullare una parte dei benefici che ci ha regalato la virtualizzazione con il consolidamento delle risorse fisiche.

Disporre di un ambiente Cloud esterno eviterebbe l’investimento in asset per la gestione di nuovi workload e per questo motivo già oggi il Public Cloud piace molto alle aziende. Se una piattaforma nasce per essere gestita all’interno del Private Cloud aziendale, doversi poi trovare a spostarla/migrarla/estenderla in Public Clound potrebbe richiedere un certo effort operativo (ammesso che le tecnologie scelte in origine lo consentano). In questo scenario tornerà utile disporre di uno strumento come Cisco Intercloud per la gestione del proprio cloud ibrido.

Personalmente vedo il cloud ibrido come una “droga”: una volta che si cominciano ad apprezzare i benefici operativi di questo paradigma diventa difficile farne a meno. Senza per il momento toccare i temi dell’IOT non è raro dover gestire impulsive crescite delle proprie infrastrutture, poterlo fare sfruttando – anche solo temporaneamente – un servizio a canone rispetto ad un immediato investimento potrebbe effettivamente portare dei vantaggi notevoli sia operativi che economici.

Il tema deve toccare non solo gli utilizzatori/consumatori di cloud ma anche e soprattutto i provider. Da consulente che lavora per un system integrator posso solo apprezzare uno scenario di infrastrutture cloud magliate tra i diversi provider. L’utilizzatore finale avrebbe così a disposizione una sorta di market place di infrastrutture cloud da utilizzare a seconda dell’esigenza. Come ho letto da qualche parte “tomorrow starts here“.

R.T.O. zero, R.P.O. zero

Prima di addentrarci nel tema del post ecco i link a wikipedia per i due acronimi in titolo (R.T.O. e R.P.O.) che, se uguali a “zero”, descrivono il paradigma della Business Continuity (BC) dove, in caso di disastro, i servizi informatici erogati da un sito primario non più disponibile tornano immediatamente fruibili all’utenza attraverso un sito secondario non impattato dal disastro e senza perdita di dati.

Con la maturità raggiunta in campo di virtualizzazione, storage replica e networking era quanto meno attesa una o più soluzioni in grado di restituire una BC in modo semplice, facile da implementare e gestire. Oggi spendo due parole per una soluzione software su cui sto lavorando e che suggerirei di prendere in considerazione ai miei colleghi informatici: Zerto. Non mi metto a ripetere tutto quello che il produttore scrive sul sito, faccio solo il sunto di alcune funzionalità che rendono il prodotto assolutamente degno di considerazione.

Solo software

Zerto è un software che lavora a livello hypervisor (vSphere e Hyper-V) a prescindere dalla tipologia di storage che abbiamo utilizzato nei due siti. Se un tempo una soluzione di DR/BC richiedeva due storage dello stesso Vendor in replica/mirror di volumi (es: una coppia di NetApp o EMC in replica sincrona) oggi non è più necessario ed il “lavoro” di replica è affidato ad una virtual appliance che lavora direttamente con i server ESXi (nel caso di vSphere), analizzando i dati inerenti le scritture ed inviando le modifiche alla virtual appliance sul secondo sito, la quale si occuperà di scrivere le modifiche sui vDISK replicati. (la figura è estremamente esplicativa)

zerto-data-replica

 

Verticale

Poche cose fatte bene. L’essersi concentrati su una particolare esigenza di servizio ha permesso a Zerto di rilasciare un prodotto verticale che fa molto bene il suo lavoro: la replica è effettivamente molto efficiente, la GUI molto semplice, la soluzione non invasiva. La validità del prodotto è tale che, al netto del prezzo, lo potrebbe rendere preferibile alla soluzione di VMware stessa (Site Revovery Manager) per diversi motivi: non è da poco potersi slegare dai vincoli inerenti la scelta dello storage Vendor, se non altro per un tema di ottimizzazione dei costi laddove il sito primario ha storage di fascia alta mentre il sito di DR/BC può essere tranquillamente dotato di storage di fascia più bassa senza specifiche funzionalità di replica.

Facile e versatile

Obbiettivamente è veramente semplice da implementare ed utilizzare e non vi sono differenze sostanziali tra l’utilizzo del prodotto tra due siti di propria competenza ed un sito che dialoga con un cloud provider che implementa la soluzione Zerto. Fatto sicuramente da tener da conto in occasione di una valutazione d’investimento di questo tipo volendo non precludersi eventuali rivalutazioni future (oggi in cloud e domani in campus o vice versa).

Mie prime impressioni

Ho scoperto il prodotto pochi mesi fa ed i test che ho condotto mi hanno soddisfatto. Al momento lo tengo in considerazione qualora vi sia un’esigenza di DR/BC con R.T.O. ed R.P.O. molto bassi. In altri casi ripiego su Veeam – prodotto sul quale mi sono ripromesso di scrivere qualcosa – non perché sia meno valido ma perché lo ritengo più appropriato in ambito backup che per gestire un DR/DC plan (di fatto tale è il suo principale ruolo).

VMware vSphere 6

vmware-logo-metro-150x150Ad inizio febbraio è stata rilasciata la versione 6.0 del celeberrimo vSphere (qui alcune delle novità). In questo breve post vorrei fare il focus su due funzionalità che ritengo particolarmente interessanti vista la direzione in cui stiamo andando in termini di availability e redundancy.

vMotion Enhancements

La nuova versione consente di eseguire il vMotion di una virtual machine anche in presenza di latenze molto alte (100 ms). L’utilità di questa funzionalità è palese a chi si trova a dover gestire più Datacenter in comunicazione tra loro e non necessariamente interconnessi tramite una prestante dorsale in fibra ottica. Questa agevolazione va a supporto delle aziende che manifestano l’esigenza di movimentare il workload del proprio Virtual Datacenter tra più siti senza affrontare investimenti considerevoli in infrastruttura WAN, è comunque necessario considerare che 100 ms non sono neanche una connessione ADSL, si tratta pur sempre di link con una cerca efficienza ma i passi avanti rispetto alla versione 4.1 sono enormi  anche in virtù delle attuali prestazioni degli storage su replica e mirrorig dei volumi. Insomma, un punto in più per il lo stretched cluster.

Multi-processor Fault Tollerance

Questa funzionalità la aspettavamo un po’ tutti credo. FT già permetteva di implementare un sistema di business continuity di una Virtual Machine all’interno di un cluster VMware vSphere con il vincolo di poter assegnare alla macchina guest una sola vCPU. Secondo la mia esperienza questo vincolo ha spessissimo comportato il non utilizzo di questa funzionalità in quanto le macchine Business Critical sono spesso anche quelle che hanno una certa esigenza prestazionale. Una possibile soluzione era creare più guest in bilanciamento di carico al fine di potervi assegnare 1 vCPU ed attivare quindi la FT, soluzione che però vanifica di per se l’utilizzo della FT in quanto si potrebbe ottenere una Business Continuity semplicemente distribuendo le macchine in balancing su diversi hosts grazie ad una regola di anti-affinity.

Con vSphere 6 la funzionalità è utilizzabile su guest fino a 4 vCPU, resta quindi un vincolo ma è decisamente più facile applicare FT con queste condizioni e per ambienti che richiedono effettive prestazioni maggiori torna utile il trick dello scale-out di carico utilizzando diverse istanze virtuali.

In generale

Oltre alle due funzionalità citate, che io ho particolarmente apprezzato, VMware ha pesantemente aumentato i massimali di configurazione. Da notare la forte spinta verso funzionalità abilitanti per infrastrutture sempre più lanciate verso il cloud ibrido (hybrid-cloud), i Datacenter che mettono a disposizione infrastrutture vCloud Director mature sono molti (anche in Italia ho il piacere di lavorare con soddisfazione con queste realtà) e la penetrazione sul mercato di VMware è indiscutibilmente alta, è difficile trovare un’azienda che non abbia almeno un piccolo cluster vSphere. Ancora una volta “we have the tecnology”, basta applicarla.

Smart working: un punto di vista tecno-pragmatico

smart-workingInnanzi tutto a cosa mi riferisco con questo bel termine: smart working. Possiamo definirlo come un modello organizzativo che delega al dipendente/collaboratore l’organizzazione di alcuni aspetti della propria vita lavorativa. Orari, location, strumenti di comunicazione, ecc… elementi che sono solitamente gestiti e dettati dall’azienda diventano onere organizzativo di chi li utilizza. Questo modello, secondo molti studi, sarebbe estremamente vincente dal punto di vista della produttività e gratificherebbe il dipendente che diventerebbe autonomo da un punto di vista organizzativo migliorando la propria qualità della vita.

In questo post non voglio ovviamente occuparmi degli aspetti sociologici di questo trend (che a me personalmente piace), bensì degli aspetti tecnico-informatici che devono essere valutati per supportarlo. Lo stesso Osservatorio sullo smart working ha condotto, nel corso del 2014, una ricerca che verte su quattro ambiti, uno dei quali è (cito testualmente):

Tecnologie Digitali che, in funzione della loro qualità e diffusione, possono ampliare e rendere virtuale lo spazio di lavoro, abilitare e supportare nuovi modi di lavorare, facilitare la comunicazione, la collaborazione e la creazione di network di relazioni professionali tra colleghi e con figure esterne all’organizzazione

Ovvero le aziende devono in qualche modo dotarsi di infrastruttura e/o servizi in grado semplificare logistica e comunicazione del dipendente che può così essere produttivo a prescindere dal luogo di lavoro (ufficio, treno, casa, bar, ecc.), dal device (laptop, smartphone, tablet, calcolatrici scientifiche) e dagli orari. Quello che conta è l’obbiettivo, il task, il progetto, la missione… non da dove lavori e quante ore lavori. Come detto tralasciamo il tema socio-psico-eco-politico, non è questa la sede. Il tema da affrontare è: come fanno le aziende e gli IT manager ad andare in questa direzione?

Evidentemente il concetto della decentralizzazione estrema di applicazioni e dati non funziona e nascono nuove esigenze:

  1. diventa indispensabile (non solo un vantaggio) dotarsi di uno strumento che controlli tutti i device che si connettono alla rete aziendale sia localmente che remotamente
  2. diventa indispensabile adottare policy e protocolli di accesso al dato che ne tutelino la riservatezza: non è pensabile che se un dipendente perde il suo smartphone ha perso anche dei dati aziendali o, peggio, li ha messi a disposizione di altri
  3. diventa indispensabile mettere a disposizione gli strumenti aziendali (CRM, ERP, documentazione, circolari, tutto) ad utenti mobile
  4. diventa indispensabile dotare azienda e dipendenti di strumenti di comunicazione efficienti e veloci

Questo elenco di quattro punti l’ho scritto di getto pensando a quello che vorrei io, nella mia funzione operativa, in un contesto di smart working. Sono esigenze molto banali, ovvie, eppure richiedono l’adozione di diverse tecnologie, prodotti, infrastrutture, servizi. Ragionando sul tema ho voluto prendere in considerazione lo scenario nel suo insieme e non punto per punto. Ritengo che la soluzione che risolve tutti gli aspetti sia un’utopia ma le tecnologie di oggi ci aiutano quanto meno a raggruppare alcune esigenze. Ancora una volta ritengo che le soluzioni (o servizi) VDI possano rispondere in buona parte alle esigenze tecniche, e ancora una volta mi riferisco al VDI in senso “ampio”, non solo virtualizzazione del desktop ma anche delle applicazioni.

A prescindere dalla tecnologia che si desidera adottare (tema trattato qui anche se solo in parte) dovrebbe essere lampante come avere a disposizione una server farm che mette a disposizione degli utenti, ovunque essi siano e qualsiasi sia il device in uso, il proprio desktop e le applicazioni aziendali è un vantaggio enorme. Lato IT manager vengono centralizzati diversi aspetti legati al provisioning ed al management degli end-point che, svincolati dall’utilizzare applicazione e dati residenti localmente, diventato degli oggetti di puro supporto all’operatività. Questo significa che cambiare device non comporta rallentamenti operativi, non richiede il supporto on-site del team tecnico, non fa perdere tempo (una volta si diceva che il tempo è denaro, mi permetto di aggiungere che – proprio come il denaro – non basta mai).

Risolto il problema dei device e dell’accesso a dati e applicazioni resta il tema della comunicazione. Personalmente vorrei poter comunicare con i miei colleghi e collaboratori in tutte le forme che la tecnologia oggi mi mette a disposizione: telefonicamente, visivamente, via chat, via email, ecc… e mentre lo faccio vorrei poter condividere con loro documenti, slide, presentazioni, il mio desktop, ecc… e tutto ciò vorrei farlo in due, ma anche in tre o quattro o, perché no, in conferenza… e, ovviamente, non voglio 10 prodotti diversi ma una suite consolidata… anzi, voglio un servizio a canone.

E’ chiaro che mi sto riferendo alle suite di Unify Communication e Collaboration che alcuni nomi noti stanno proponendo sul mercato. Inutile dire che i costi sono di un certo tipo ma si devono mettere a confronto con il potenziale risparmio in termini di logistica ed efficienza che deriva da queste soluzioni. Inoltre i Service Provider che propongono funzionalità di Collaboration in Cloud sono una realtà, ottimi per razionalizzare le spese diminuendo gli investimenti e spostandosi su soluzioni a canone.

Insomma, le soluzioni esistono ed esistono anche le modalità di acquisto che le rendono particolarmente alla portata. In questo post ho voluto semplicemente dare una visione di insieme di come un tema che in Italia pare utopistico sia in realtà assolutamente affrontabile utilizzando gli strumenti giusti.

Desktop Virtualization: l’approccio di VMware

La virtualizzazione dei Desktop è un tema che incontra molte resistenze. Si va dallo scetticismo nei confronti di una tecnologia ancora poco diffusa (in Italia) a problemi concreti di infrastruttura, passando per temi inerenti il costo della soluzione stessa in rapporto ai – a parer mio non ben compresi – benefici.

E’ ovvio che implementare un’infrastruttura VDI per 10 utenti potrebbe comportare un rapporto costo/beneficio svantaggioso, mettiamo quindi da parte i casi limite e prendiamo ad esempio la tipica media impresa italiana. Sappiamo che i numeri che caratterizzano la media impresa italiana (ma anche quella europea) sono molto diversi da quelli che troviamo negli U.S.A., di fatto parliamo di strutture con 50 – 200 dipendenti circa. In questo taglio di impresa è facile trovare infrastruttura di rete abbastanza articolare:

  • è presente una server farm (per quanto piccola possa essere) per i servizi dipartimentali (archivio documentazione, posta, ecc)
  • sono presenti delle postazioni PC, talvolta tante quanti sono i dipendenti dell’azienda
  • sono presenti device mobili come table e smart phone, talvolta di proprietà degli utenti

Inoltre aziende come queste spesso hanno utenti che operano localmente e utenti che operano fuori dall’azienda sfruttando le potenzialità dei device mobili.

lan- example

L’IT manager ha quindi il suo bel da fare per garantire l’erogazione dei servizi “dipartimentali” agli utenti, qualsiasi sia il device utilizzato, qualsiasi sia la location dell’utente. E’ ovvio che integrare tutto, per quanto possibile, non è semplice e le esigenze tipiche sono oramai abbastanza note:

  • sincronizzazione dei dati tra device (es: tra Laptop e Tablet)
  • accesso alla mailbox da qualsiasi dispositivo abbia un indirizzo di rete (dal PC alla lavatrice)
  • accesso alla rete dai propri dispositivi personali (Smart Phone ma anche il proprio PC di casa)
  • utilizzo di sistemi operativi diversi (Android, OSX, iOS, Linux, MS Windows)

Anche l’IT manager ha le sue esigenze di gestione:

  • protezione del dato
  • accesso sicuro alla rete aziendale dall’esterno
  • gestione delle periferiche in caso di guasti o malfunzionamenti
  • controllo accessi e policy di sicurezza
  • patching dei sistemi
  • distribuzione del software aziendale

E’ quindi inevitabile che più il “dato” e la “gestione” è decentralizzata e più l’IT manager deve correre ai ripari per garantire la qualità del servizio erogato sino ad arrivare a situazioni insostenibili a causa della quantità di oggetti da gestire e la loro eterogeneità. Ho personalmente visto IT manager dedicare intere giornate lavorative a risolvere problemi di sincronizzazione e accesso ai dati nella speranza che nessuno perda il proprio dispositivo mobile ed i dati in esso contenuti. Diventa così evidente lo sbilanciamento che vi è tra la comodità di introdurre nuovi device in azienda e l’effort di gestione che ne deriva se non si utilizza uno strumento dedicato allo scopo. Non è pensabile, sopra certi volumi, di gestire tutti i device “alla vecchia maniera” mantenendo alta la qualità e la sicurezza del servizio.

Il desktop va nel Virtual Data Center
VMware, come anche altri Big della virtualizzazione, ha maturato una soluzione che oggi si chiama Horizon View ed ha l’obiettivo si semplificare la gestione dei device cambiando alla base i paradigmi di accesso al proprio ambiente Desktop. In parole povere il Desktop stesso, ovvero l’ambiente in cui gli utenti sono abituati a lavorare, diventa una macchina virtuale all’interno dei Virtual Data Center ormai quasi sempre presenti nelle aziende (la diffusione della virtualizzazione è ormai ben avviata anche in Italia). Una volta centralizzato il Desktop è possibile farvi accedere qualsiasi device gli utenti abbiano a disposizione semplicemente dotandoli di un software di collegamento: il View Client.

vdi-example

Questo approccio porta ad una serie di vantaggi sia per l’utenza che per l’IT manager, in particolari gli utenti ne guadagneranno in sicurezza e versatilità:

  • qualsiasi sia il dispositivo di accesso, l’utente utilizzerà il proprio ambiente desktop con le proprie applicazioni e personalizzazioni, da casa come dall’ufficio
  • i dati, una volta centralizzati, saranno fruibili da tutti i dispositivi, così come le applicazione Windows Based potranno essere utilizzate anche attraverso il proprio iPad o il proprio Tablet Android
  • in caso di guasto o smarrimento del device nulla è perso, sarà sufficiente collegarsi al proprio desktop con un altro device
  • grazie al servizio di accesso Horizon Gateway è possibile accedere al proprio desktop anche da un dispositivo non di proprietà dell’utente e semplicemente con un browser che supporti HTML5

I vantaggi dell’IT manager risiedono nei meccanismi di gestione del sistema:

  • i desktop potranno essere delle VM dedicate all’utente (Full Clone) o delle VM create all’occorrenza da un’immagine “matrice” (Linked Clone) dove i dati relativi all’utente vengono mantenuti su dei “delta-disk” separati portando ad un notevole risparmio di spazio storage
  • le applicazioni potranno essere distribuite tramite ThinApp (eseguibili utilizzabili direttamente da una share) o tramite RemoteApp messe a disposizione da una RDS Farm o simili
  • l’aggiornamento di software e O.S. è eseguibile massivamente semplicemente distribuendo una nuova ThinApp o impostando una nuova immagine come VM matrice per i desktop Linked Clone, così come immediato è il roll-back in caso di problemi
  • le workstation posso essere sostituite da Thin Client e/o Zero Client abbattendo drasticamente i costi di acquisto e gestione del parco macchine desktop
  • i dati degli utenti che operano remotamente restano all’interno dei sistemi aziendali aumentando il livello di controllo sul dato stesso

A questi vantaggi si affiancano quelli portato dalla suite Horizon View che comprende altre componenti come Horizon Mirage. Questa componente permette di gestire le postazioni fisiche (es: i Laptop) come fossero delle macchina virtuali: sui sistemi viene installato un agente che sincronizza i dischi fisici del Laptop con lo storage del Virtual Data Center creando un’immagine up-to-date dell’ambiente fisico.

Grazie a questa procedura l’utente può, in caso di problemi sul proprio Laptop, accedere al proprio desktop in forma virtuale; una volta terminata la sessione le modifiche verranno sincronizzate con il Laptop in modo da mantenere i due ambienti allineati. Oppure, in caso di smarrimento o sostituzione del Laptop, la VM può essere ripristinata su un nuovo hardware azzerando i tempi di preparazione della nuova macchina e restituendo all’utente il desktop così come lo aveva lasciato.

Quelli presentati sono una parte delle agevolazioni che la suite porta, ve ne sono altre che vorrei trattare in un futuro approfondimento delle funzionalità che le tre diverse edizioni del software rilasciano. In questo primo post era mia intenzione far presente quali sono i vantaggi di una soluzione VDI basandomi sulla suite di VMware, si tratta comunque di vantaggi talvolta comuni anche ad altre suite sul mercato.

VMware vShield e Sophos antivirus

sophosNel mondo della virtualizzazione è abbastanza ovvio che dover installare un agente antivirus per ogni VMs è del tutto anacronistico. Gli ambienti guest sono concentrati in pochi hosts, i dati solo archiviati su storage centralizzati e, così come molti aspetti della server farm vengono gestiti centralmente, anche altre esigenze di protezione possono essere ulteriormente razionalizzate e centralizzate.

Nel passato (neanche tanto lontano) gli agenti antivirus venivano installati sui server da proteggere, oggi molti produttori di software antivirus mettono a disposizione soluzioni da integrare con l’ambiente di virtualizzazione per semplificare il provisioning degli agenti antivirus e per migliorare l’efficienza delle scansioni stesse.

Negli ambienti VMware vSphere esiste una soluzione nata per centralizzare le esigenze di sicurezza e protezione degli ambiente: VMware vShield. Grazie alla collaborazione di VMware ed i produttori di software antivirus oggi possiamo far lavorare assieme la componente VMware vShield Endpoint e le appliance antiviris di molti brand.

Personalmente ne ho viste un po’ all’opera e, senza nulla togliere alle diverse soluzioni che ho provato tra cui la sempre eccellente Symantec, sono approdato su Sophos verso la quale faccio una menzione d’onore dopo aver visto un paio di scelte molto azzeccate dalla software house che rendono il sistema molto efficiente e di limitatissimo impatto a livello di performance (comunicazione a livello hypervisor, caching, gestione intelligente delle schedulazioni evitando sovrapposizioni).

La questione delle performance è un tema caldo nel mondo delle scansioni antivirus, tema che si è complicato con l’impiego della virtualizzazione in quanto la condivisione delle risorse fisiche, se gestita in modo poco opportuno, rischia di allungare i tempi di scansione per banale overload di CPU e Disk I/O sulle macchine sulle quali risiede l’agente antivirus. Lavorare a livello hypervisor riduce sensibilmente tale impiego di risorse grazie ai vantaggi intrinseci della tecnologia, dovrebbe quindi essere naturale il passaggio a VMware vShield Endpoint per chi lavora in ambiente VMware (opzione disponibile già dalla versione Essentials Plus).

sophos-prestazioniSophos espone dati interessanti sulle prestazioni; allego qua a fianco uno delle immagini che pubblicano sul sito. Dalle prove che ho fatto devo dire che i dati raccolti sembrano dar ragione ai grafici propagandistici ed uno dei principali motivi è sicuramente la gestione intelligente delle schedulazioni. Il sistema di gestione delle scansioni fa in modo che il numero di eventi di scansione simultanei sia limitato così da evitare consumi di risorse concentrati nello stesso momento. Un piano di questo tipo è possibile anche su altri prodotti ma bisogna agire manualmente impostando orari di scansioni differenti per differenti gruppi di VMs… se ci pensa il software in autonomia è più comodo.

E’ ovvio che in un ambiente virtualizzato è preferibile avere un sistema che “spalma” il carico generato dalle scansioni antivirus nel tempo. Questo approccio riduce sensibilmente i picchi di carico a livello I/O e CPU e di conseguenza riduce l’impatto che questo carico può avere a livello infrastrutturale  (vMotion, Storage vMotion, CPU ready time elevato, ecc).

Approfondirò meglio i prodotti Sophos nel prossimo periodo, non solo a livello di protezione antivirus.

Scale Computing: una black-box per la virtualizzazione

Scale_LogoRecentemente ho avuto il piacere di essere invitato ad una presentazione, organizzata dagli amici di Achab s.r.l., dei nuovi prodotti di Scale Computing (http://www.scalecomputing.com/), in particolare della serie HC3: un prodotto ingegnerizzato per semplificare il Private Cloud delle aziende che si rivolgono alla virtualizzazione per consolidare i propri sistemi informativi.

Il prodotto ha una mission chiara: semplificare l’implementazione e la gestione della propria Virtual Server Farm. Per raggiungere questo obbiettivo gli ingegneri di Scale hanno realizzato una vera e propria black-box che mette a disposizione il set di funzionalità tipico delle infrastrutture di virtualizzazione ma con un’interfaccia molto semplice da usare, con poche ed essenziali possibilità di configurazione dell’infrastruttura. Anche a livello di startup dell’impianto ci sono poche semplici azioni da eseguire per trovarsi con una server farm pronta all’uso in pochi minuti (letteralmente in pochi minuti). Tutti temi che hanno sicuramente risvolti positivi come il risparmio di tempo sia in implementazione che in gestione, ma che vanno messi a confronto con le altre soluzioni sul mercato (es: VMware).

Cenni sull’architettura e le funzionalità
Il prodotto Scale ingloba le tre componenti base degli impianti di virtualizzazione in un’unica soluzione grazie all’impiego di componenti software integrate tra loro. Gli hypervisor sono basati su KVM, clustering e networking sono gestiti a livello software, così come la componente storage è di tipo software grazie ad una sorta di File System distribuito sui nodi del cluster (anche questo un software ideato e scritto da Scale).

cluster

La base di partenza di un cluster richiede l’acquisto di tre hosts che, una volta avviati, garantiscono le funzionalità di clustering (con massimo un failover host), live migration delle VMs, gestione delle virtual network, gestione degli snapshot a livello VMs.

L’interfaccia di gestione, interamente web based, risiede sugli stessi hosts ed è di conseguenza ridondata. Non esiste un sistema centralizzato di gestione (in stile VMware vCenter Server), tutti gli hosts metto a disposizione l’interfaccia di gestione ed i dati sono allineati real-time.

Per evitare problemi di compatibilità tra il software e le diverse famiglie di server e loro componenti, Scale fornisce sia il software che le macchine in tre diverse classi di potenza. Questo permette di ottenere una soluzione che difficilmente darà sorprese una volta implementata.

SCALE-price

Il prodotto mette, inoltre, a disposizione un sistema di Disaster Recovery molto semplice. E’ sufficiente avere a disposizione due cluster Scale in comunicazione a livello IP ed abilitare la replica tra i due siti.

Nel suo complesso la soluzione è estremamente agile e semplice da utilizzare, il rovescio della medaglia è una certa carenza sul piano delle funzionalità messe a disposizione in confronto ai Big del mercato della virtualizzazione.

Cosa manca
Sul piano delle funzionalità ci sono alcuni grandi assenti:

  • non esiste un automatismo di bilanciamento del carico
  • non esiste uno strumento di backup, ne a livello VM ne a livello Storage
  • non esiste un’entità logica per la gestione delle reti (es: i Virtual Switch di VMware)

A questo è da aggiungere una grave – a parer mio – mancanza architetturale ereditata dalla soluzione di software storage utilizzata da Scale: in caso di fail di un host il sistema necessità di un certo periodo di tempo per “riorganizzare” i dati a livello software e tornare in una situazione di integrità. Questa necessità fa si che il cluster sia in grado di sopportare il failt di un host alla volta. Tale vincolo è forse accettabile in infrastrutture “modeste”, ma a livello enterprise è impensabile avere un cluster con decine di hosts la cui disponibilità è garantita solo se si rompono uno per volta.

Ma quanto costa?
Al momento sono disponibili, sul sito del produttore, i prezzi di listino delle soluzioni a tre nodi e gli eventuali nodi aggiuntivi. Invito gli interessati a fare un esercizio molto banale, ovvero di mettere a paragone i prezzi esposti da Scale con i costi di una classica soluzione VMware vSphere Standard o  Essential Plus con le componenti hardware con cui siete abituati a lavorare (personalmente lavoro molto con Dell ed IBM).

In base alla mia esperienza ed alle soluzioni che ho trattato negli ultimi anni non ho visto particolari vantaggi economici nella soluzione di Scale. Mi spiego meglio: il prodotto mi sembra valido ma se paragonato a livello di funzionalità con i vari competitor ed ai loro costi non evinco una reale competitività di Scale. C’è da dire che la semplicità di implementazione e gestione della soluzione Scale abbatte sicuramente i costi di startup e maintenance di un cluster, ma la sensazione è stata comunque quella di una soluzione costosetta rispetto al mercato.

In questo post non voglio mettere un’ultima parola, resto in attesa di scoprire lo sconto sulla base listino Scale. Potrebbe rivelarsi una vera sorpresa nel caso in cui gli sconti rendano la soluzione aggressiva, a livello di prezzo, sul mercato.

DaaS, VDI e simili

vdi-logoNei mesi scorsi ho avuto modo di discutere con diversi IT Manager (poi diventati clienti) il tema della Desktop Virtualizzation e, più in generale, il Desktop a Servizio: DaaS.

La mia predilezione per i prodotti made in VMware è nota, ma è doveroso portare all’attenzione il fatto che nel mercato delle PMI italiane la proposta VMware Horizon View potrebbe risultare troppo impegnativa economicamente. Per questo target di clienti ho trovato “conforto” nella soluzione che propone Microsoft: Remote Desktop Services (RDS) in salsa Windows Server 2012 R2.

I punti di forza che mi hanno permesso di discutere, proporre ed infine implementare questa soluzione anche quando il budget a disposizione era limitato sono essenzialmente tre:

  • la semplicità di integrazione con ambienti Microsoft spesso già presenti nelle aziende
  • l’efficienza dei costi anche in scenari con poche decine di postazioni
  • la possibilità di lavorare sia con sessioni Desktop che con Virtual Machine dedicate

Il III punto è fondamentale: è evidente che mettere in piedi un cluster VMware vSphere per pochi Virtual Desktop potrebbe non essere efficiente a livello di costi, disporre invece di un’infrastruttura che eroga sessioni di un Desktop create su una macchina shared (fisica o virtuale che sia) è efficiente anche in scenari di modeste dimensioni. Inoltre esiste il tema delle RemoteApp, ovvero la possibilità di eseguire lo streaming di un’applicazione in esecuzione all’interno della RDS Farm.

Di fatto alcune di queste funzionalità mancano completamente nella soluzione enterprise di VMware che, non a caso, con la versione 6 di Horizon View integra proprio facendo lavorare assieme una RDS Farm ed un VDI Cluster basato di vSphere. In questo documento VMware illustra i vantaggi di questo interessante binomio. In soldoni si tratta di avere a disposizione tutte le potenzialità della Desktop Virtualizzazioni di VMware sommate alle funzionalità messe a disposizione dalla SessionMode e da RDS di Microsoft Windows 2012. Il tutto centralmente gestito da Horizon View grazie ad un apposito agent da installare sui server RDS.

Ovviamente avere tutto ciò ha un costo che deve essere giustificato dalle esigenze del cliente. Questo scenario è sicuramente utile a chi deve gestire centinaia di postazioni anche con esigenze diverse. Ma visto il grado di integrazione raggiunto nulla ci vieta di partire, in piccolo, con una o l’altra soluzione per poi integrarle nel caso vi sia una crescita nella quantità delle workstation da consolidare.

Cloud? Perché no. Che si basi su una o l’altra soluzione i provider possono pensare (e c’è chi lo fa da diversi mesi) di mettere a disposizione queste tecnologie tramite servizio a canone (per sessione o per desktop), così da consentire alle aziende di avere a disposizione desktop sempre aggiornati, prestanti, gestiti e disponibili da qualsiasi sede e da qualsiasi device.

Tema marginale? Assolutamente no. Ho personalmente lavorato in tal senso con diversi clienti i quali hanno espresso assoluto apprezzamento per queste funzionalità che di fatto consentono di:

  • utilizzare in streaming qualsiasi applicazione del proprio ambiente desktop, anche da remoto e su device mobile
  • utilizzare lo stesso desktop da diverse postazioni in azienda
  • ottimizzare la gestione del parco macchine grazie all’uso dei Thin Client
  • dar seguito alle policy di patching ed upgrading degli ambienti desktop in modo estremamente rapido
  • fruire di un servizio granulare che consente di pagare solo per i desktop in uso

Moltissime potenzialità. Tema ancora poco noto e da diffondere.