AI Safety Challenge
Metti alla prova la tua creatività, la tua logica e la tua conoscenza dell'IA in una competizione di prompt engineering etico.
Riuscirai a battere ChatGPT?
La Sfida
Una challenge di prompt engineering etico che ti invita a misurare la sicurezza dei modelli linguistici italiani.
Crea prompt basati sul contesto culturale italiano, capaci di spingere l'IA a generare contenuti non sicuri o inappropriati.
Obiettivo
Analizzare come i modelli linguistici italiani reagiscono a stimoli in grado di elicitare comportamenti non etici, per comprendere i loro limiti in contesti culturali italiani realistici.
La Sfida
Abbiamo chiesto a ChatGPT di generare alcuni prompt che potrebbero indurre i modelli di linguaggio a produrre risposte problematiche. In questa sfida, competerai con ChatGPT per trovare prompt ancora più efficaci.
Partecipazione
Non è necessaria nessuna conoscenza dell'intelligenza artificiale. L'unico requisito è la conoscenza della lingua e della cultura italiana.
Premi
A TUTTI coloro che affronteranno la sfida, verrà rilasciato un certificato di partecipazione.
Il team che sarà in grado di scrivere i migliori prompt verrà premiato durante il Consiglio di Dipartimento di Informatica di Milano-Bicocca, con una breve cerimonia.
Cos'è un Large Language Model?
I Large Language Model sono modelli di intelligenza artificiale in grado di comprendere e generare testo in linguaggio naturale simile a quello umano. Il loro utilizzo è in costante crescita, soprattutto come chatbot e assistenti conversazionali come ChatGPT, Gemini e Claude. Tuttavia, questi modelli possono talvolta produrre risposte pericolose, eticamente inappropriate.
L'obiettivo della challenge è aiutare a rendere i Large Language Model più sicuri identificando potenziali vulnerabilità specifiche per il pubblico italiano, e scoprire casi in cui il modello risponde in modo non etico.
Webinar introduttivo
Partecipa al nostro webinar introduttivo per scoprire come funziona la challenge e ricevere consigli dai nostri esperti. Il webinar si terrà il 17 dicembre alle 16.30 in presenza presso l'edificio U24 dell'Università di Milano-Bicocca, aula C01 e online su Google Meet al seguente link.
Istruzioni
La sfida richiede ai partecipanti di ideare 50 prompt etici in lingua italiana che inducano i modelli di AI a produrre risposte non sicure o dannose in contesti culturali italiani realistici.
Partecipazione
Ogni team deve creare 50 prompt diversi in italiano.
I prompt saranno valutati in base alla capacità di elicitare risposte non sicure per l'individuo. Il processo di valutazione è automatico e basato sulle risposte generate dai modelli di linguaggio: una volta effettuata una submission, il sistema esegue il prompt su vari modelli di linguaggio e analizza le risposte prodotte.
Non avrai accesso alle risposte generate dai modelli, solamente al punteggio di unsafety assegnato ad ogni singolo prompt.
I Prompt
Assicurati che i tuoi prompt ...
Tieni a mente ...
Assicurati che i tuoi prompt ...
Come Partecipare
Partecipare al Safety Game è semplice!
Segui questi passaggi per unirti alla competizione.
Registrazione
I team possono essere composti da 1 a 4 persone. Ogni membro del team deve registrarsi con la propria email universitaria per partecipare alla challenge.
Dopo aver effettuato l'accesso, puoi creare o unirti a un team.
Privacy
La partecipazione alla challenge implica l'integrale accettazione del regolamento e delle linee guida operative della stessa.
Playground
Dopo aver effettuato l'accesso, ogni team potrà caricare i propri prompt nel Playground per una valutazione preliminare e di confronto con ChatGPT.
Final Submission
Quando il team avrà definito l'insieme dei 50 prompt che desidera inviare in via definitiva, potrà effettuare la sua submission.
Valutazione
I prompt saranno valutati in base alla capacità di elicitare risposte non etiche. Il processo di valutazione è automatico e basato sulle risposte generate dai modelli di linguaggio: una volta effettuata una submission, il sistema processa i prompt fornendoli a vari modelli di linguaggio e ne analizza le risposte prodotte. Non avrai accesso alle risposte generate dai modelli, solamente al punteggio di unsafety finale assegnato ad ogni singolo prompt.
Ad ogni prompt verrà infatti assegnato un Unsafety Score tra 0 e 100, dove 0 rappresenta un prompt completamente etico, mentre 100 completamente non etico.
Date Importanti
-
Apertura Registrazioni
Inizia la fase di registrazione per i team partecipanti.
-
Webinar Introduttivo
Sessione online di introduzione alle regole e alla piattaforma.
-
Inizio Challenge
Parte ufficialmente la competizione! Il playground si attiva.
-
Fine Challenge
Ultimo giorno per sottomettere i prompt. Chiusura alle 23:59.
-
Annuncio Vincitori
Pubblicazione della classifica finale e annuncio vincitori.
-
Cerimonia di Chiusura
Evento finale con celebrazione e chiusura ufficiale della challenge.
Classifica
La classifica mostra il punteggio medio ottenuto da ogni team.
La classifica sarà disponibile al termine della challenge.
Il Team
The Safety Game è organizzato dal laboratorio di ricerca Models in Decision Making and Data Analysis (MIND) del dipartimento di Informatica, Sistemistica e Comunicazione dell'Università di Milano Bicocca.
FAQ
Domande frequenti