OpenAI ha annunciato che assumerà membri di un “red team” a livello globale per esplorare potenziali problematiche e rischi di sicurezza nei suoi sistemi di intelligenza artificiale.
Come molte altre aziende di sicurezza informatica che utilizzano un red team per identificare vulnerabilità nei loro sistemi, OpenAI vuole reclutare talenti esterni per sottoporre i suoi sistemi AI a rigorosi test di sicurezza.
Red team di OpenAI
L’obiettivo è assicurarsi che l’intelligenza artificiale di OpenAI, che include modelli linguistici avanzati, sia sicura e non possa essere utilizzata per scopi dannosi. I membri dei red team esploreranno potenziali problematiche in aree come: scienze cognitive, chimica, biologia, fisica, informatica, scienze politiche, psicologia, persuasione, economia, antropologia, sociologia, allineamento, istruzione, assistenza sanitaria, legge, sicurezza dei minori, cybersecurity, finanza, disinformazione/informazione, uso politico, privacy, biometria, lingue e linguistica.
Prima del rilascio pubblico, i principali modelli di OpenAI sono sempre sottoposti a revisioni di sicurezza interne. Questa iniziativa estende il concetto assumendo talenti con competenze diversificate da tutto il mondo.
I partecipanti ai red team dovranno firmare accordi di non divulgazione per mantenere riservati i dettagli del lavoro finché la tecnologia non verrà presentata ufficialmente.
Secondo alcune indiscrezioni, OpenAI starebbe accelerando lo sviluppo di modelli linguistici multimodali per competere con alternativi sistemi AI di aziende come Google. Presto potrebbe rilasciare GPT-Vision, seguito da un più avanzato modello chiamato Gobi.
Modelli linguistici multimodali: cosa sono e a che servono?
Il modello linguistico multimodale è una forma di intelligenza artificiale in grado di comprendere e generare linguaggio utilizzando input e output di modalità diverse, come testo, immagini, audio e video. Funziona integrando diversi tipi di reti neurali, ognuna addestrata su una specifica modalità, per creare un sistema unificato.
Ad esempio, il modello può combinare una rete neurale testuale (per comprendere e generare linguaggio scritto) con una rete neurale visiva (che analizza immagini e video) e una rete neurale vocale (per trascrivere e sintetizzare audio).
Durante l’inferenza, il modello multimodale è in grado di contestualizzare meglio il significato combinando le informazioni provenienti dalle diverse modalità. Ad esempio, può generare didascalie per immagini utilizzando sia il contenuto visivo che il contesto testuale.
Rispetto ai modelli linguistici “unimodali” che utilizzano solo testo, i modelli multimodali sono più potenti e flessibili grazie alla loro capacità di comprendere informazioni da più canali di input e produrre contenuti multimediali coerenti.
La multimodalità è una frontiera chiave per lo sviluppo dell’IA. Tra gli ambiti di immediata applicazione del modello linguistico modale:
- assistenti virtuali intelligenti – possono interagire con gli utenti comprendendo sia voce che immagini/video, fornendo risposte multimediali coerenti.
- robotica e automazione – i robot possono essere addestrati tramite input multimodali per interagire con gli ambienti in modo più naturale.
- traduzione multilingue – un modello multimodale può tradurre da una lingua all’altra utilizzando sia testo che voce.
- sintesi di contenuti – generazione automatica di contenuti multimediali come video, e-book, presentazioni a partire da input testuali.
- rilevamento di fake news – analizzando sia il testo che le immagini di una notizia è possibile determinarne l’affidabilità.
- diagnostica medica – diagnosi più accurate analizzando contemporaneamente testi, immagini diagnostiche, registrazioni audio dei pazienti.
- identificazione biometrica – riconoscimento delle persone tramite voce, immagini facciali e altri segnali multimediali.
- recupero di informazioni – ricerca di contenuti rilevanti da database multimediali combinando testo, immagini e metadati.
- gaming interattivo – personaggi dei videogiochi con IA più credibili grazie alla comprensione multimodale dell’ambiente di gioco.
Conclusione
Grazie all’assunzione di esperti di sicurezza globali, OpenAI vuole assicurarsi che i suoi prossimi sistemi siano affidabili e che i potenziali rischi siano identificati e mitigati rapidamente.
Per chi è interessato entrare a fare parte del red team, può compilare il modulo messo a disposizione da OpenAI.