Generative AI (in)Security
Il “lato oscuro” della Intelligenza Artificiale Generativa
In tempi recenti, grazie anche a tools quali ChatGPT, Claude, Midjourney ecc. la Generative AI ha catalizzato l’attenzione del pubblico, anche non specialistico, e molti commentatori fin da subito hanno amplificato le possibili mirabolanti applicazioni e gli “inevitabili” impieghi di successo di tale tecnologia negli ambiti più svariati della vita quotidiana.
Al di là del clamore mediatico, ad oggi l’unico “caso d’uso” efficacemente (e drammaticamente) reso concreto della Intelligenza Artificiale Generativa ha a che fare con le minacce informatiche che essa rende possibile.
Attacchi informatici basati su Deep Fakes e Voicefakes contribuiscono a elevare gli attacchi di phishing sofisticato, quali lo spear phishing a livelli finora inediti, che pongono in seria discussione l’efficacia delle misure di prevenzione tradizionali.
Così come l’utilizzo inconsapevole di strumenti di Conversational AI possono elevare i rischi di data leakage di vari ordini di grandezza, rendendo persino difficile valutare in maniera adeguata il livello di rischio associato a tali minacce.
Per questo è importante comprendere non solo le caratteristiche costitutive alla base della tecnologia che dà vita alla Generative AI, ma anche comprendere quali utilizzi impropri può contribuire ad abilitare, minando potenzialmente in maniera sostanziale le ordinarie misure di protezione attualmente adottate.
Questa serie di lectures ha quindi l’obiettivo di gettare luce sulla “dark side”, il lato oscuro della AI Generativa, al fine di elevare il livello di consapevolezza necessario per gestire una tecnologia che rischia di trasformarsi in via prioritaria in un vettore di attacco prima ancora che una leva di successo per chi la adotta.
A chi si rivolge
Responsabili IT, operatori del diritto, in generale tutti coloro interessati agli espetti di sicurezza, privacy e tutela della proprietà intellettuale
Indice dei Contenuti
-
Introduzione alla Generative Artificial Intelligence
- Le diverse forme di Apprendimento Automatizzato (Machine Learning)
- L’avvento dei Transformers e loro addestramento
- Dalle Reti Neurali Artificiali (ANN) alle Reti Antagoniste (GAN)
- Generative AI (GenAI) e Large Language Models (LLMs)
- Natural Language Generation
-
GenAI Security Landscape
- La GenAI per il Business
- Evoluzione delle minacce
- Gli scenari di rischio per il Business
- GenAI threats model
-
GenAI exploitation: tecniche di attacco
- Prompt engineering e Fine Tuning exploits
- Data poisoning e Model subversion
- Bypassare i controlli di sicurezza dei prompt
- Attacchi alle API di terze parti
-
Attaccare è semplice, la sfida è difendersi
- Scenari di “attacco generativo” sempre più attuali
- Il “pixel della morte”
- Se il bonifico lo decide il chatbot
- Vedere non è più credere
- Tutto ciò chiedere potrà essere usato contro di te
- Dove sono, Chi sono, Quanti sono?
-
Valutare e gestire il rischio cyber della Generative AI
- Quali metriche per gli attacchi generativi
- Definire la superficie d’attacco della GenAI
- Gli strumenti e le procedure da adottare
-
GenAI Data Protection
- Data preprocessing e Secure Processing
- Secure Data Transmission
- La sicurezza delle API
- Securing Data Provenance
-
Costruire un programma di resilienza e sicurezza per la GenAI
- GenAI Security Policies
- Risk Management per la GenAI
- GenAI Security Procedures
- Operational Security Procedures
© Innovation-Exploited.com - All rights reserved
Vietato l'uso dei contenuti per l'addestramento di Intelligenze Artificiali Generative