Corso Ceph: gestione completa di cluster e storage distribuito

Durata: 10 ore o 15 ore

icona web
Live Online
in presenza
In presenza
icona web
Live Online
in presenza
In presenza

Ceph: Storage Open Source

Il corso Ceph offre un percorso intensivo di 10 ore focalizzato sulla progettazione e gestione di infrastrutture di Software-Defined Storage. La formazione parte dall’analisi dei requisiti hardware e dei pilastri tecnologici per esplorare nel dettaglio l’architettura e i componenti core di un cluster (MON, OSD e MGR). I partecipanti impareranno a eseguire il deploy automatizzato e la configurazione di un ambiente di storage distribuito pienamente operativo, approfondendo l’utilizzo pratico dei protocolli RBD, CephFS e RGW per la gestione di block, file e object storage.

Il metodo didattico fonde rigore teorico e laboratori applicativi su scenari reali, orientando ogni sessione all’acquisizione di tecniche essenziali di troubleshooting, monitoraggio e ottimizzazione delle performance.

Il percorso è estendibile con 5 ore di moduli avanzati focalizzati su scenari critici di Disaster Recovery e replica multi-zona RGW. Questa estensione porta la durata complessiva del corso a 15 ore, garantendo una preparazione completa sulle soluzioni di storage più resilienti e scalabili del mercato.

icona live

Sessioni live interattive

Lezioni in diretta con spazio per domande e confronto.
icona pratico

Approccio pratico

Esercitazioni e casi reali per mettere in pratica ciò che impari.

Cosa imparerai

  • Comprendere i concetti fondamentali di Ceph e software-defined storage
  • Conoscere l’architettura e i componenti principali di un cluster Ceph (MON, OSD, MGR)
  • Installare e configurare un cluster Ceph funzionante
  • Utilizzare RBD, CephFS e RGW in scenari pratici
  • Eseguire operazioni di base di troubleshooting e monitoraggio

L’approfondimento tramite i moduli avanzati, consente ai partecipanti di:

  • Configurare scenari di Disaster Recovery con RBD e CephFS mirroring
  • Gestire failover e failback in ambienti replicati
  • Implementare replica multi-zona RGW e testare la consistenza dei dati
  • Applicare procedure di recovery e gestione di fault in cluster distribuiti

I vantaggi della formazione Nexsys

icona trainer

Trainer esperti e certificati

Formatori con esperienza concreta in ambito aziendale.
icona aggiornamento

Contenuti sempre aggiornati

Materiale sempre in linea con le novità del settore.
icona open badge

Open Badge digitale

Un certificato digitale, verificabile e condivisibile online.
icona esercitazioni

Esercitazioni guidate

Attività pratiche con il supporto diretto del docente.
icona registrazione

Registrazioni disponibili

Rivedi le lezioni quando vuoi per 3 mesi.
icona supporto

Supporto post-corso

Assistenza anche dopo la fine del corso, per chiarimenti e approfondimenti.

Personalizza la tua formazione

Il corso può essere riprogettato su misura delle esigenze formative della tua azienda o di un gruppo di lavoro. Contenuti, durata e modalità sono personalizzabili per garantire coerenza con i tuoi obiettivi, tempi e budget.

Programma del Corso

Modulo 1: Concetti di base Ceph

  • Cos’è Ceph
  • Software Defined Storage
  • Object / Block / File
  • Scalabilità e fault tolerance
  • Casi d’uso reali

Modulo 2: Componenti Ceph e deploy di un cluster

  • MON, OSD, MGR
  • Quorum
  • PG e CRUSH (base)
  • Replica
  • Overview cephadm
  • Architettura cluster tipo

Modulo 3: Configurazione cluster + RBD

  • Bootstrap cluster (cephadm)
  • Creazione OSD
  • Creazione pool replicated
  • Pool RBD
  • Creazione image
  • Mapping e test

Modulo 4: CephFS – deploy e utilizzo

  • MDS
  • Metadata pool / data pool
  • Creazione filesystem
  • Mount kernel / FUSE
  • Snapshot (overview)

Modulo 5: RGW – deploy e utilizzo base

  • Cos’è RGW
  • S3 / Swift (concetti)
  • Deploy RGW
  • Creazione user
  • Test accesso (s3cmd / awscli)

Modulo 6: Troubleshooting di base

  • ceph status
  • Health warning comuni
  • OSD down / out
  • Recovery e backfill
  • Log principali

Moduli avanzati aggiuntivi

Modulo 7: Disaster Recovery con RBD Mirroring

  • RBD journaling vs snapshot-based
  • Active / Passive
  • Split-brain
  • Failover e failback
  • Configurazione mirroring
  • Peer cluster
  • Test failover
  • Recovery dopo fault

Modulo 8: Disaster Recovery con CephFS Mirroring

  • Concetti di mirroring CephFS
  • Limiti e requisiti
  • Configurazione mirroring
  • Test replica
  • Verifica consistenza

Modulo 9: Replica multi-zona RGW

  • Zone, zonegroup, realm
  • Metadata vs data
  • Active / Active
  • Consistency model
  • Creazione realm
  • Configurazione zone
  • Test replica oggetti
  • Simulazione fault

Requisiti

Per partecipare al corso è richiesta una preparazione tecnica di base, in particolare:

  • conoscenze di base di sistemi Linux
  • concetti fondamentali di networking
  • familiarità con l’amministrazione di server e storage

I moduli avanzati sono indicati per chi ha già esperienza pratica su Ceph o ha frequentato il corso base.

Prezzo per formazione dedicata online

Seleziona il numero di partecipanti:
One to One
2
3
Più di 3

€ 850 + IVA a partecipante

A chi è rivolto

    • System Administrator e Linux Administrator
    • IT Engineering e System Engineering
    • Professionisti che gestiscono infrastrutture storage o ambienti cloud privati
    • MSP e System Integrator che desiderano offrire soluzioni storage basate su Ceph

Open Badge digitale

Con i nostri corsi non ricevi un semplice attestato in PDF, ma un badge digitale riconosciuto a livello internazionale, conforme allo standard Open Badge.

È verificabile, condivisibile su LinkedIn e integrabile nel tuo CV, per valorizzare le competenze acquisite in modo moderno, trasparente e affidabile.

ethical hacker open badge web

Corsi correlati

Preferisci compilare il modulo? Scrivi i tuoi dati qui sotto

Il servizio telefonico è attivo dal lunedì al venerdì dalle 8:00 alle 18:00 al numero 0452456669. Puoi anche compilare il modulo sottostante:

Promo ×