Corso AI Security: Proteggere gli LLM e l'Intelligenza Artificiale aziendale
Durata: 1 giorno
Live Online
In presenza
Live Online
In presenza
Cybersecurity e AI
L’adozione dell'IA Generativa ha creato un vuoto di sicurezza critico: le difese perimetrali tradizionali sono inefficaci contro vulnerabilità logiche e semantiche che agiscono direttamente su token e pesi del modello. Non è più una questione di codice, ma di manipolazione del contesto.
Questo corso intensivo seziona l’AI Attack Surface moderna. Andremo oltre la teoria dell'OWASP Top 10 per affrontare i rischi reali delle architetture agentiche: vedremo come la natura probabilistica degli LLM esponga il RAG ad attacchi di Indirect Prompt Injection e come l’integrazione di server MCP e framework come OpenClaw espanda esponenzialmente il perimetro di rischio.
L’approccio è metodologico e pragmatico. Analizzeremo le tecniche di System Prompt Hardening e la gestione dell'Insecure Output Handling, fornendo un framework di testing solido nonostante i limiti attuali degli strumenti di difesa. L'obiettivo è trasformare l'IA da vulnerabilità latente a asset resiliente, garantendo la piena conformità ai nuovi standard NIST AI RMF e EU AI Act.
Sessioni live interattive
Lezioni in diretta con spazio per domande e confronto.Approccio pratico
Esercitazioni e casi reali per mettere in pratica ciò che impari.Cosa imparerai
- Mappare la Superficie di Attacco AI: Analizzare tecnicamente perché le difese tradizionali (WAF, Firewall) falliscono contro attacchi semantici come il Jailbreaking e la Prompt Injection
- Securing Agentic Workflows: Comprendere e mitigare i rischi specifici degli agenti autonomi, focalizzandosi su vettori di attacco per server MCP e integrazioni di terze parti
- Ingegneria della Difesa: Implementare tecniche avanzate di Input/Output filtering e System Prompt Hardening per ridurre drasticamente la probabilità di leak e manipolazioni
- Testing & Red Teaming AI: Applicare metodologie di testing strutturate, imparando a utilizzare e valutare i principali AI Testing Frameworks sul mercato
- Compliance Strategica: Tradurre i requisiti normativi dell'EU AI Act e del NIST AI RMF in controlli tecnici e documentali (AI-BOM)
I vantaggi della formazione Nexsys
Trainer esperti e certificati
Formatori con esperienza concreta in ambito aziendale.Contenuti sempre aggiornati
Materiale sempre in linea con le novità del settore.Open Badge digitale
Un certificato digitale, verificabile e condivisibile online.Esercitazioni guidate
Attività pratiche con il supporto diretto del docente.Registrazioni disponibili
Rivedi le lezioni quando vuoi per 3 mesi.Supporto post-corso
Assistenza anche dopo la fine del corso, per chiarimenti e approfondimenti.Personalizza la tua formazione
Il corso può essere riprogettato su misura delle esigenze formative della tua azienda o di un gruppo di lavoro. Contenuti, durata e modalità sono personalizzabili per garantire coerenza con i tuoi obiettivi, tempi e budget.
Programma del Corso
Modulo 1: AI & Machine Learning Essentials
- Breve storia dell'Intelligenza Artificiale
- Introduzione al Machine Learning
- Introduzione alle Reti Neurali
- La necessità del Deep Learning
- Applicazioni pratiche nella Cybersecurity
Modulo 2: Large Language Models (LLMs)
- Tokenizzazione
- Architettura Transformer
- Training Pipeline
- RAG (Retrieval-Augmented Generation)
- Context Window, Temperature and System Prompt
Modulo 3: Attacchi ad LLM e rischi di sicurezza
- OWASP LLM Top 10 risks
- Prompt injection
- System prompt leaks
- Jailbreaking
- Indirect prompt injection
- Insecure Output Handling
- Vettori di attacco per server MCP
- Analisi rischi scenari agentici (OpenClaw)
Modulo 4: Mettere in sicurezza sistemi di AI
- AI self-hosted con Open Web
- UIMetodologia di testing AI
- System prompt hardening
- Input and Output filters
- AI Testing Frameworks
- MCP server hardening
Modulo 5: Governance and Compliance for AI
- AI-BOM
- NIST AI Risk Management Framework
- The EU AI Act
Requisiti
Per trarre il massimo valore dalle 8 ore di formazione, è consigliabile che i partecipanti possiedano i seguenti requisiti:
- Conoscenze di base di cybersecurity: Familiarità con i concetti di vulnerabilità, exploit, OWASP Top 10 (standard) e principi di difesa delle infrastrutture IT.
- Fondamentali di Programmazione/Scripting: Conoscenza base di Python (molto utile per comprendere le integrazioni LLM e i framework di testing) e capacità di navigare in ambienti a riga di comando (CLI).
- Networking e Web Architecture: Comprensione del funzionamento delle chiamate API (REST), dei protocolli HTTP/HTTPS e della gestione dei dati JSON.
- Esperienza con strumenti AI: Conoscenza pregressa nell'utilizzo di tool di IA Generativa (es. ChatGPT, Claude) e una comprensione elementare di cosa sia un "Prompt".
- Ambiente di lavoro: Per le parti dimostrative, è utile avere familiarità con ambienti Docker o macchine virtuali (specialmente per i moduli su Open WebUI e self-hosting).
Prezzo per formazione dedicata online
€ 790 + IVA a partecipante
A chi è rivolto
-
- Security Specialist
- Penetration Tester
- Sviluppatori Software
- Responsabili IT
- E chiunque deve integrare o proteggere soluzioni di Intelligenza Artificiale in contesti enterprise
Open Badge digitale
Con i nostri corsi non ricevi un semplice attestato in PDF, ma un badge digitale riconosciuto a livello internazionale, conforme allo standard Open Badge.
È verificabile, condivisibile su LinkedIn e integrabile nel tuo CV, per valorizzare le competenze acquisite in modo moderno, trasparente e affidabile.
Corsi correlati
Preferisci compilare il modulo? Scrivi i tuoi dati qui sotto
Il servizio telefonico è attivo dal lunedì al venerdì dalle 8:00 alle 18:00 al numero 0452456669. Puoi anche compilare il modulo sottostante: