venerdì 10 aprile 2015

vGPU in vSphere 6.0/Horizon 6.1 con NVIDIA GRID K1 K2

Recentemente ho implementato un ambiente vsphere 6.0 + Horizon View 6.1 con delle NVIDIA GRID GPU. Con questa feature, diamo la possibilità a diverse VM di utilizzare una scheda grafica NVIDIA (K1 o K2) installata su di un host,  sfruttando il driver NVIDIA  sviluppato per macchine fisiche, i guests utilizzeranno queste vGPU condivise nello stesso modo in cui utilizzerebbero una GPU riservata (Pass-through) ottenendo un completo supporto applicativo.

Le 2 schede grafice supportate sono:
GRID K1: 4 GPU con 4GB DDR3 e 192 CUDA cores per ogni GPU (equivalente ad una Kepler k600 GPU)
GRID K2: 2 GPU con 4GB DDR5  e 1536 CUDA cores per ogni GPU (equivalente ad una  Kepler k5000 GPU)


Ogni  guest che utilizza una vGPU verrà acceso in un host del cluster che abbia a bordo una scheda grafica con delle GPU disponibili per quel guest. All'interno di un singolo host, i guests vengono distribuiti su tutte le GPU fisiche disponibili.
La condivisione avviene attraverso l'assegnazione di profili, ogni profilo assegna una quantità di RAM ed un numero di diaply massimo per ogni VM, ecco l'elenco dei profili attualmente disponibili:



INSTALLAZIONE:

1) installazione del NVIDIA GRID vGPU Manager in ogni server ESXi del cluster:
Il download del VIB viene fatto dalla pagina dei download di NVIDIA, selezionando:

per installare i VIB, dopo aver messo l'host in maintenance mode, ci si connette in SSH e si lancia il comando:
esxcli software vib install --no-sig-check -v /<path>/ NVIDIA-vgx-VMware-346.27-1OEM.600.0.0.2159203.x86_64.VIB
Al termine dell'installazione, anche se non esplicitamente richiesto, dobbiamo operare un reboot dell'host.

2) in vcenter creare un cluster che ospiterà con tutti i server con una scheda GRID

3)  nel cluster creare un nuova windows VM a cui aggiungiamo uno SHARED PCI DEVICE di tipo NVIDIA GRID VGPU ed assegnamo il profilo desiderato:



4) Al power on della VM, verrà assegnata una vGPU utilizzando in toto o in parte una GPU fisica. Ora è il momento di installare i drivers all'interno del guest. Faacendo sempre riferimento all'area download del sito invidia, scarichiamo e successivamente installiamo i drivers corretti per il guest OS


5) Volendo utilizzarla come master image di un pool view (sia linked che full clone) basterà spegnerla, ricavarne una snapshot od un template e nella creazione del pool impostare:
Default Display Porotocol = PCOIP
Allow User to choose Protocol = NO
3D Render = NVIDIA GRID VGPU


Chiaramente queste VM sono legate al device PCI (GPU) e quindi non supportano il vMotion ma possono essere spostate a freddo su un host che contine GPU dello stesso tipo.

Qui sotto potete vedere un filmato relativo ad una VM che sta ultilizzando una vGPU con profilo k260q, la console della VM è raggiungibile con protocollo PCOIP da un thin client Praim A9050

video




Nessun commento:

Posta un commento