Innovazione responsabile nell’era dell’IA generativa
Di Dana Rao
03-21-2023
Oramai è difficile che passi un giorno senza leggere o sentire parlare di IA generativa. Il ritmo con cui questa nuova tecnologia è entrata nella coscienza pubblica è sbalorditivo, anche se effettivamente giustificato. Digita “rendering 3D di un drago di carta, foto professionale” e ti troverai immediatamente di fronte a molteplici versioni del ritratto di una feroce creatura origami; oppure unisci alcuni punti dati a semplici istruzioni, e un chatbot “sputerà” un’accattivante e-mail di marketing. È facile comprendere come questa tecnologia possa offrire nuove opportunità sia ai singoli creatori che alle aziende. L’IA generativa abbatte le barriere tra l’immaginazione e la pagina bianca, consentendo ai creatori di generare contenuti nel modo in cui li hanno immaginati; rende i flussi di lavoro precisi, potenti, semplici e veloci, dando alle persone la possibilità di concentrarsi sugli aspetti più strategici o creativi del proprio lavoro; può editare il copy in modo che corrisponda al tone of voice desiderato, creare variazioni di messaggi o riassumere testi in pochi secondi.
L’IA generativa apre le porte a una miriade di nuove possibilità a livello di lavoro, gioco, creatività e comunicazione, ma pone anche nuovi quesiti su etica e responsabilità nell’era digitale. Mentre Adobe e altri produttori sfruttano la potenza di questa tecnologia all’avanguardia, dobbiamo creare una sinergia trasversale a tutti i settori per sviluppare, implementare e rispettare una serie di linee guida che ne dettino uno sviluppo e un utilizzo responsabile.
Etica e responsabilità
Qualsiasi produttore di strumenti di IA generativa dovrebbe partire da un quadro di riferimento etico dell’IA. Una serie di principi etici di IA concisi e attuabili e un processo di revisione formale integrato nella compagine di un’azienda possono garantire lo sviluppo di tecnologie di IA (anche generativa) nel rispetto dei clienti e in linea con i valori aziendali. Il fulcro di questo processo sono la formazione, l’auditing e, se necessario, la supervisione umana.
L’IA generativa, come qualsiasi altra forma di intelligenza artificiale, ha la stessa qualità dei dati su cui viene addestrata. Ma anche in presenza di ottimi dati, potremmo comunque ritrovarci con un’IA distorta, capace, suo malgrado, di discriminare o denigrare le persone, facendole sentire meno apprezzate. La riduzione di output dannosi inizia con la creazione e formazione su set di dati sicuri e inclusivi. Per esempio, Firefly, il modello di IA generativa di Adobe, viene addestrato su immagini di Adobe Stock, contenuti con licenza aperta e contenuti di dominio pubblico con copyright scaduto. Se i modelli vengono addestrati su set di dati curati e filtrati per rimuovere i contenuti violenti, dispregiativi e inappropriati, non apprenderanno da quel tipo di contenuto. Ma la questione non riguarda solo ciò che entra in un modello, ma anche ciò che ne esce. Noi testiamo regolarmente i nostri modelli per confermare che siano sicuri e privi di errori e forniamo meccanismi di feedback agli utenti per la segnalazione di eventuali problemi, in modo da poterli risolvere. Oltre alla formazione e ai test, ci sono altre azioni che le aziende possono implementare per garantire che i loro modelli non replichino stereotipi dannosi o peggiorino errori esistenti, come l’utilizzo di liste di blocco e rifiuto per limitare l’occorrenza di determinate parole all’interno di un prompt.
Anche quando un’azienda sviluppa la propria IA generativa attraverso partnership e integrazioni, può comunque applicare i propri valori all’output dei modelli. E se l’output del modello è rivolto al pubblico, le aziende possono sempre includere un essere umano nel circuito, garantendo così un risultato all’altezza delle aspettative.
Oltre al fattore etico, le imprese possono volere garanzie anche sull’assenza di rischi giuridici nel modello di IA da loro utilizzato. Per queste aziende è importante la conferma che il loro partner AI abbia adottato le dovute misure di sicurezza per moderare i contenuti creati o, meglio ancora, possa garantire che il modello è stato anzitutto addestrato in maniera sicura. In questo modo si possono evitare problematiche quali questioni di copyright e brand, fino a immagini e testi di natura inappropriata.
Trasparenza vuol dire fiducia
I contenuti prodotti dai modelli di IA generativa devono essere anche trasparenti. Proviamo a sostituire il drago dell’esempio precedente con il discorso di un leader globale. L’IA generativa desta preoccupazioni circa la capacità di evocare contenuti sintetici e convincenti in un mondo digitale già sommerso dalla disinformazione. Dato l’aumento dei contenuti generati dall’IA, cresce anche l’importanza di fornire alle persone gli strumenti per inviare messaggi e attestarne la veridicità.
Adobe ha implementato questo livello di trasparenza nei prodotti con le Credenziali Contenuto, che consentono ai creatori di includere determinate informazioni all’interno di un contenuto, come il nome, la data e gli strumenti utilizzati per crearlo. Queste credenziali seguono il contenuto ovunque vada; in questo modo, quando qualcuno lo vede, può conoscerne esattamente la provenienza e il percorso. Ma non siamo soli in questo cammino: quattro anni fa abbiamo fondato la Content Authenticity Initiative per dare vita a questa soluzione in maniera aperta, cosicché chiunque possa incorporarla nei propri prodotti e piattaforme. Più di 900 membri provenienti da tutti i settori della tecnologia, dei media e della politica hanno fatto squadra per presentare al mondo questa soluzione.
In particolare, per quanto riguarda l’IA generativa, inseriamo automaticamente le Credenziali Contenuto per indicare quando qualcosa è stato creato o modificato con questo sistema di apprendimento automatico. In questo modo, gli utenti possono vedere in che modo un contenuto è stato creato e decidere con più consapevolezza se considerarlo affidabile.
Nel rispetto delle scelte e della volontà dei creatori
I creatori vogliono sapere se il loro lavoro viene utilizzato per addestrare l’IA generativa. Alcuni ne rifiutano l’integrazione nell’IA. Altri, invece, sono felici di vederlo utilizzato nei dati di formazione per favorire la crescita di questa nuova tecnologia, soprattutto se possono conservarne la paternità. Utilizzando la tecnologia di provenienza, i creatori possono inserire le credenziali “Do Not Train”, che accompagnano i contenuti ovunque. Con l’adozione industriale, ciò impedirà ai web crawler di utilizzare opere con credenziali “Do Not Train” come parte di un set di dati. Oltre ai tentativi sperimentali per la monetizzazione dello stile e dei contributi, tutti noi possiamo contribuire allo sviluppo di un’IA generativa che migliori non solo le esperienze dei creatori, ma anche i loro profili.
Un viaggio continuo
Finora abbiamo visto solo la punta dell’iceberg dell’IA generativa, mentre la tecnologia migliora di giorno in giorno. È inevitabile che, essendo in continua evoluzione, l’IA generativa generi nuove sfide; è quindi essenziale che industria, governi e comunità agiscano in sinergia per affrontarle. Condividendo le best practice e aderendo agli standard per uno sviluppo responsabile dell’IA generativa, possiamo sfruttare le infinite possibilità che ci vengono offerte e costruire uno spazio digitale più affidabile.