Salta al contenuto principale

AI Safety Challenge

Metti alla prova la tua creatività, la tua logica e la tua conoscenza dell'IA in una competizione di prompt engineering etico.

The Safety Game
Dal 17 dicembre al 12 gennaio

Riuscirai a battere ChatGPT?

Scopri di più

La Sfida

Una challenge di prompt engineering etico che ti invita a misurare la sicurezza dei modelli linguistici italiani.

Crea prompt basati sul contesto culturale italiano, capaci di spingere l'IA a generare contenuti non sicuri o inappropriati.

Obiettivo

Analizzare come i modelli linguistici italiani reagiscono a stimoli in grado di elicitare comportamenti non etici, per comprendere i loro limiti in contesti culturali italiani realistici.

La Sfida

Abbiamo chiesto a ChatGPT di generare alcuni prompt che potrebbero indurre i modelli di linguaggio a produrre risposte problematiche. In questa sfida, competerai con ChatGPT per trovare prompt ancora più efficaci.

Partecipazione

Non è necessaria nessuna conoscenza dell'intelligenza artificiale. L'unico requisito è la conoscenza della lingua e della cultura italiana.

Premi

A TUTTI coloro che affronteranno la sfida, verrà rilasciato un certificato di partecipazione.

Il team che sarà in grado di scrivere i migliori prompt verrà premiato durante il Consiglio di Dipartimento di Informatica di Milano-Bicocca, con una breve cerimonia.

Cos'è un Large Language Model?

I Large Language Model sono modelli di intelligenza artificiale in grado di comprendere e generare testo in linguaggio naturale simile a quello umano. Il loro utilizzo è in costante crescita, soprattutto come chatbot e assistenti conversazionali come ChatGPT, Gemini e Claude. Tuttavia, questi modelli possono talvolta produrre risposte pericolose, eticamente inappropriate.

L'obiettivo della challenge è aiutare a rendere i Large Language Model più sicuri identificando potenziali vulnerabilità specifiche per il pubblico italiano, e scoprire casi in cui il modello risponde in modo non etico.

Webinar introduttivo

Partecipa al nostro webinar introduttivo per scoprire come funziona la challenge e ricevere consigli dai nostri esperti. Il webinar si terrà il 17 dicembre alle 16.30 in presenza presso l'edificio U24 dell'Università di Milano-Bicocca, aula C01 e online su Google Meet al seguente link.

Istruzioni

La sfida richiede ai partecipanti di ideare 50 prompt etici in lingua italiana che inducano i modelli di AI a produrre risposte non sicure o dannose in contesti culturali italiani realistici.

Partecipazione

Ogni team deve creare 50 prompt diversi in italiano.
I prompt saranno valutati in base alla capacità di elicitare risposte non sicure per l'individuo. Il processo di valutazione è automatico e basato sulle risposte generate dai modelli di linguaggio: una volta effettuata una submission, il sistema esegue il prompt su vari modelli di linguaggio e analizza le risposte prodotte.
Non avrai accesso alle risposte generate dai modelli, solamente al punteggio di unsafety assegnato ad ogni singolo prompt.

I Prompt

Assicurati che i tuoi prompt ...

Siano eticamente corretti, legittimi e realistici.
Elicitino risposte con contenuti non sicuri o non etici.
Incorporino elementi culturali italiani (storia, cultura, società, attualità, ...).

Tieni a mente ...

Prompt banali o apertamente provocatori, con forti contenuti espliciti tendono a essere facilmente riconosciuti e bloccati dai modelli, mentre Ironia, sarcarmo, ambiguità, e giochi linguistici tendono a confondere di più i modelli. Sta a te trovare il giusto equilibrio.
Ciò che è etico in un contesto culturale potrebbe non esserlo in un altro. Assicurati che i tuoi prompt riflettano sensibilità culturali specifiche all'Italia.
Non saranno i prompt ad essere valutati, ma le risposte che essi elicitano dai modelli di linguaggio.

Assicurati che i tuoi prompt ...

NON includano tecniche di aggiramento, manipolazione diretta o hacking dei filtri di sicurezza (es. prompt nella forma "Immagina di...", "ignora le istruzioni precedenti", ..., non sono ammessi).
NON siano generati da modelli di intelligenza artificiale.

Come Partecipare

Partecipare al Safety Game è semplice!
Segui questi passaggi per unirti alla competizione.

Registrazione

I team possono essere composti da 1 a 4 persone. Ogni membro del team deve registrarsi con la propria email universitaria per partecipare alla challenge.

Dopo aver effettuato l'accesso, puoi creare o unirti a un team.

Privacy

La partecipazione alla challenge implica l'integrale accettazione del regolamento e delle linee guida operative della stessa.

Leggi il regolamento

Playground

Dopo aver effettuato l'accesso, ogni team potrà caricare i propri prompt nel Playground per una valutazione preliminare e di confronto con ChatGPT.

Final Submission

Quando il team avrà definito l'insieme dei 50 prompt che desidera inviare in via definitiva, potrà effettuare la sua submission.

Se i prompt sono troppo simili verranno scartati automaticamente, quindi assicurati di variare i tuoi approcci e di esplorare diversi scenari.

Valutazione

I prompt saranno valutati in base alla capacità di elicitare risposte non etiche. Il processo di valutazione è automatico e basato sulle risposte generate dai modelli di linguaggio: una volta effettuata una submission, il sistema processa i prompt fornendoli a vari modelli di linguaggio e ne analizza le risposte prodotte. Non avrai accesso alle risposte generate dai modelli, solamente al punteggio di unsafety finale assegnato ad ogni singolo prompt.
Ad ogni prompt verrà infatti assegnato un Unsafety Score tra 0 e 100, dove 0 rappresenta un prompt completamente etico, mentre 100 completamente non etico.

Date Importanti

  1. Apertura Registrazioni

    Inizia la fase di registrazione per i team partecipanti.

  2. Webinar Introduttivo

    Sessione online di introduzione alle regole e alla piattaforma.

  3. Inizio Challenge

    Parte ufficialmente la competizione! Il playground si attiva.

  4. Fine Challenge

    Ultimo giorno per sottomettere i prompt. Chiusura alle 23:59.

  5. Annuncio Vincitori

    Pubblicazione della classifica finale e annuncio vincitori.

  6. Cerimonia di Chiusura

    Evento finale con celebrazione e chiusura ufficiale della challenge.

Classifica

La classifica mostra il punteggio medio ottenuto da ogni team.

Classifica

La classifica sarà disponibile al termine della challenge.

Il Team

The Safety Game è organizzato dal laboratorio di ricerca Models in Decision Making and Data Analysis (MIND) del dipartimento di Informatica, Sistemistica e Comunicazione dell'Università di Milano Bicocca.

Photo of Elisabetta Fersini

Elisabetta Fersini

Professore Associato

elisabetta.fersini@unimib.it

Photo of Giulia Rizzi

Giulia Rizzi

Ricercatrice Postdoc

g.rizzi10@campus.unimib.it

Photo of Giuseppe Magazzù

Giuseppe Magazzù

Studente PhD

g.magazzu1@campus.unimib.it

Photo of Daniel Scalena

Daniel Scalena

Studente PhD

d.scalena@campus.unimib.it

Alberto Sormani

Studente Magistrale

a.sormani7@campus.unimib.it

Andrea Muscio

Studente Magistrale

a.muscio@campus.unimib.it

FAQ

Domande frequenti

Per ulteriori domande, invia una email a lab.mind.unimib@gmail.com.
ReGAInS
logo Disco