Le aziende e i loro fornitori di tecnologia continuano ad affannarsi per aggiungere funzionalità di intelligenza artificiale a strumenti e piattaforme. Tuttavia, muoversi troppo velocemente può esporre a rischi di conformità presenti e futuri, oltre che a potenziali responsabilità legali. Credito: Shutterstock / Kaspars Grinvalds Mentre, negli anni, l’IA si è fatta strada nel mondo del business con costanza, il suo sottoinsieme generativo non solo è diventato una forza rapida e improvvisa, ma è stato anche un acceleratore dell’intelligenza artificiale in generale. Non senza destare più di una preoccupazione. L’IA generativa ha la capacità di amplificare i rischi esistenti in relazione alle leggi sulla privacy che regolano le modalità di raccolta, utilizzo, condivisione e archiviazione dei dati sensibili. Può anche esporre le aziende a leggi future. La risposta, sebbene tardiva, è un maggiore controllo nei suoi confronti. L’Europa, per esempio, continua ad aggiornare la questione attraverso la sua legge sull’IA, che ora affronta la sua variante generativa, nonostante la normativa sia stata proposta prima del suo avvento. Poi ci sono le cause legali. Diversi vendor di intelligenza artificiale generativa, tra cui OpenAI, Microsoft, Midjourney, Stable Diffusion e altri, sono stati oggetto di diverse denunce, presentate da detentori di copyright che li accusano di aver addestrato le loro IA su dati, immagini, codici e testi protetti dalle leggi sul diritto d’autore. Negli Stati Uniti ci sono state petizioni e audizioni al Congresso per chiedere la sospensione dello sviluppo dell’intelligenza artificiale, compresa quella generativa. Tutte queste iniziative potrebbero potenzialmente esercitare pressioni sulle autorità di regolamentazione o sui legislatori affinché pongano dei limiti al suo utilizzo. Anche le singole città stanno entrando in azione. A luglio, per esempio, New York ha iniziato ad applicare nuove regole sull’uso dell’IA nelle procedure di assunzione, le quali prevedono che gli strumenti decisionali automatizzati siano sottoposti a verifiche sull’eventuale generazione di pregiudizi, e che i candidati al lavoro siano informati del loro utilizzo. Norme simili sono allo studio anche in New Jersey, Maryland, Illinois e California. “Si tratta di un argomento molto caldo”, afferma Eric Vandevelde, co-president della divisone IA e partner dello studio legale Gibson, Dunn & Crutcher. “Siamo bombardati da domande e richieste di clienti acquisiti e potenziali sui rischi dell’intelligenza artificiale”. Non sorprende, quindi che, secondo un sondaggio di KPMG realizzato a giugno, l’incertezza sul contesto normativo sia il principale ostacolo all’implementazione dell’intelligenza artificiale generativa. Infatti, il 77% dei CEO di grandi aziende ha dichiarato che questo aspetto influisce sulle loro decisioni di implementazione dell’IA generativa, e il 41% ha dichiarato di aver preso una breve pausa da tre a sei mesi per monitorare l’evoluzione del contesto normativo. Ecco quindi alcune delle strategie che le aziende stanno utilizzando per implementare l’intelligenza artificiale generativa in un contesto ancora così poco chiaro. La strada più lenta verso l’IA Alcune aziende, in particolare quelle che operano in settori regolamentati, sono caute nell’utilizzo dell’intelligenza artificiale e la impiegano solo nelle aree a minor rischio. “Sono stato davvero contattato da una società che ci ha proposto di caricare tutte le cartelle cliniche e le fatture dei nostri clienti per creare le lettere destinate agli avvocati”, racconta Robert Fakhouri, fondatore di The Fakhouri Firm, uno studio legale di Chicago specializzato in lesioni personali. L’idea è che, generando i documenti con l’intelligenza artificiale, ci sarà meno bisogno di dipendenti umani. “Ho scelto di non entrare nel merito”, spiega. “Ho già abbastanza timori per il fatto che stiamo memorizzando informazioni mediche. Non ho intenzione di caricare queste informazioni su un altro servizio. Il rischio è troppo alto”. L’azienda vieta, inoltre, al personale di utilizzare ChatGPT per scrivere lettere ai clienti. Ma c’è un caso d’uso a basso rischio in cui l’intelligenza artificiale è consentita. “Quando si parla di ChatGPT, l’unico utilizzo nel mio studio è il modo in cui creiamo la nostra strategia di marketing sui social media: raccogliere idee, generare script, vedere cosa ci può fornire come ispirazione per nuovi contenuti. Ma mi piacerebbe che venissero adottate più leggi e linee guida, soprattutto per le cartelle cliniche”. Data governance Nello sviluppo di applicazioni tradizionali, le aziende devono fare attenzione al fatto che gli utenti finali non possano accedere a dati per i quali non hanno il permesso. Per esempio, in un’applicazione HR, un dipendente potrebbe essere autorizzato a vedere le informazioni sul proprio stipendio e sui benefit, ma non quelle degli altri dipendenti. Se questo strumento viene integrato o sostituito da un chatbot HR dotato di intelligenza artificiale, dovrà avere accesso al database dei dipendenti per poter rispondere alle domande degli utenti. Ma come può una società essere sicura che l’IA non dica tutto quello che sa a chiunque glielo chieda? Questo aspetto è particolarmente importante anche per i chatbot rivolti ai clienti che potrebbero dover rispondere a domande sulle transazioni finanziarie o sulle cartelle cliniche dei clienti. La protezione dell’accesso ai dati sensibili è solo una parte del quadro della data governance. “È necessario sapere da dove provengono i dati, come vengono trasformati e quali sono i risultati”, osserva Nick Amabile, CEO di DAS42, una società di consulenza sui dati. “Le aziende in generale hanno ancora problemi con la loro governance “. Senza contare che con i modelli linguistici di grandi dimensioni (LLM), la governance dei dati è soltanto agli inizi. “Siamo ancora nella fase pilota della valutazione degli LLM”, precisa. “Alcuni vendor hanno iniziato a riflettere su come aggiungere funzioni di governance alle loro piattaforme. Formazione, distribuzione, operazioni, test: molte di queste feature non sono ancora disponibili”. Via via che le aziende maturano nella comprensione e nell’uso dell’intelligenza artificiale, dovranno mettere in atto misure di salvaguardia, dice Juan Orlandini, CTO per il Nord America di Insight, un integratore di soluzioni con sede a Tempe. Ciò può includere l’apprendimento su come verificare che siano stati effettuati i controlli corretti, che i modelli siano stati isolati e che siano stati utilizzati in modo appropriato. “Quando abbiamo creato la nostra policy sull’IA generativa, abbiamo anche dato vita alla nostra istanza di ChatGPT e l’abbiamo distribuita a tutti i 14.000 team a livello globale”, spiega. Per farlo, Insight ha utilizzato Azure OpenAI Service. La società sta anche formando i propri dipendenti su come utilizzare l’intelligenza artificiale in modo sicuro, soprattutto nell’impiego di strumenti non ancora verificati e approvati, richiedendo loro di trattare questi tool come se fossero una qualsiasi piattaforma di social media, dove chiunque potrebbe vedere ciò che si pubblica. “Mettereste le previsioni di vendita di un vostro cliente su Facebook? Probabilmente no”, aggiunge Orlandini. Livelli di controllo Non c’è garanzia che un modello di intelligenza artificiale non produca risultati distorti o pericolosi. Poiché sono progettati in modo da creare nuovi contenuti, una stessa richiesta può avere, ogni volta, un esito diverso. Ciò è molto differente da quanto avviene con il software tradizionale, dove un particolare insieme di input dà luogo a un insieme prevedibile di output. “I test mostrano solo la presenza di errori, non la loro assenza”, dichiara Martin Fix, direttore tecnologico di Star, una società di consulenza tecnologica. “L’intelligenza artificiale è una scatola nera. Tutto ciò che si ha a disposizione sono metodi statistici per osservare l’output e misurarlo, e non è possibile testare l’intera area di capacità dell’IA”. Questo perché gli utenti possono inserire in un LLM qualsiasi richiesta immaginabile e i ricercatori hanno trovato per mesi nuovi modi per indurre le intelligenze artificiali a eseguire azioni discutibili, un processo noto come “jailbreaking” delle IA. Alcune aziende stanno anche valutando la possibilità di utilizzare altre IA per testare i risultati di output rischiosi, o di utilizzare la prevenzione della perdita di dati e altri strumenti di sicurezza per evitare che gli utenti inseriscano dati sensibili nei prompt. “È possibile ridurre i rischi combinando diverse tecnologie, creando livelli di sicurezza e protezione”, aggiunge Fix. Ciò sarà particolarmente importante se un’intelligenza artificiale funziona all’interno di un’impresa e ha accesso ad ampie porzioni di dati aziendali. “Se un’IA ha accesso a tutti i dati, può rivelarli tutti”, tiene a precisare il manager. “Perciò bisogna essere molto più scrupolosi nella sicurezza del sistema e creare tutti i livelli necessari”. L’approccio open source I sistemi di IA commerciali, come ChatGPT di OpenAI, sono come le scatole nere descritte da Fix: le aziende hanno una scarsa conoscenza dei dati di addestramento che vi confluiscono, di come vengono messi a punto, di quali informazioni sono utilizzate per il loro training continuo, di come l’IA prende effettivamente le sue decisioni e di come, esattamente, tutti i dati coinvolti risultano protetti. In particolare, nei settori altamente regolamentati, alcune aziende potrebbero essere riluttanti nel rischiare con questi sistemi poco chiari. Una possibile alternativa è data dall’utilizzo di software open source. Attualmente, al pubblico ne sono disponibili numerosi, con varie licenze. A luglio, questo elenco è stato ampliato con il rilascio, da parte di Meta, di Llama 2, un LLM di livello enterprise disponibile in tre diverse versioni, con possibilità di uso commerciale e completamente gratuito per le aziende, almeno per le applicazioni con meno di 700 milioni di utenti attivi mensili. Le aziende possono scaricare, installare, mettere a punto ed eseguire Llama 2 in autonomia, sia nella sua forma originale che in una delle sue numerose varianti, oppure utilizzare sistemi di intelligenza artificiale di terze parti basati su di esso. Per esempio, la società medicale Aiberry utilizza modelli open-source personalizzati, tra cui Flan-T5, Llama 2 e Vicuna, racconta Michael Mullarkey, senior clinical data scientist dell’azienda. I modelli vengono eseguiti all’interno dell’infrastruttura di dati sicura di Aiberry e sono poi messi a punto per soddisfare le esigenze dell’impresa. “Sembra che stia funzionando bene”, dice. Aiberry dispone di un set di dati che utilizza per addestrare, testare e convalidare questi modelli che cercano di anticipare le esigenze dei medici e di fornire informazioni in anticipo sulla base delle valutazioni delle informazioni di screening dei pazienti. “Per altre parti dei nostri flussi di lavoro che non coinvolgono dati sensibili, utilizziamo ChatGPT, Claude e altri modelli commerciali”, aggiunge. L’esecuzione di software open source on-premise o in cloud privati può contribuire a ridurre i rischi, come quello della perdita di dati, e può aiutare le aziende a rispettare le normative sulla sovranità dei dati e sulla privacy. Ma il software open source comporta anche dei rischi, soprattutto con il moltiplicarsi dei progetti di IA nelle repository open source. Tra questi, spiccano quelli legati alla cybersicurezza. In alcuni settori regolamentati, le aziende devono fare attenzione al codice a sorgente aperta che eseguono nei loro sistemi, poiché potrebbero verificarsi violazioni dei dati, della privacy o portare a decisioni distorte o discriminatorie che potrebbero creare conseguenze a livello legale. Secondo il rapporto sulla sicurezza dell’open source di Synopsys pubblicato a febbraio, l’84% delle basi di codice open source in generale contiene almeno una vulnerabilità. “Il codice o le applicazioni a sorgente aperta sono stati sfruttati per causare molti danni”, assicura Alla Valente, analista di Forrester Research. Per esempio, la vulnerabilità Log4Shell, risolta con una patch alla fine del 2021, dopo un anno registrava ancora mezzo milione di richieste di attacco al giorno. Oltre alle fragilità, il codice open source mostra i suoi limiti anche per la possibilità che possa contenere codice dannoso e backdoor, senza contare che i modelli di intelligenza artificiale a sorgente aperta potrebbero essere potenzialmente addestrati o messi a punto su set di dati avvelenati. “Se sei un’azienda, sai bene che non puoi prendere qualcosa che hai trovato nell’open source e inserirlo nei tuoi sistemi senza alcun tipo di protezione”, sostiene Valente. Le aziende dovranno prevedere controlli per i modelli di IA simili a quelli già previsti per altri progetti software, e i team che si occupano di sicurezza delle informazioni e di conformità dovranno essere consapevoli di ciò che fanno i team di data science. Oltre ai rischi per la sicurezza, le aziende devono anche prestare attenzione alla provenienza dei dati di addestramento per i modelli, aggiunge Valente. “Sono stati ottenuti in modo legale ed etico?”. Un punto di riferimento per le aziende è la lettera che la FTC ha inviato a OpenAI quest’estate. Secondo un articolo del Washington Post, nel documento si chiede a OpenAI di spiegare come si procura i dati di addestramento per i suoi LLM, come controlla i dati e come verifica se i modelli generano affermazioni false, fuorvianti o denigratorie, o informazioni accurate e identificabili sulle persone. In assenza di un quadro normativo federale, questa lettera offre alle aziende un punto di partenza, afferma Valente. “E prefigura sicuramente quello che succederà se ci sarà una regolamentazione federale”. Se si utilizza uno strumento di IA per redigere una lettera sui dati finanziari o sulla storia medica di un cliente, la richiesta immediata contenente queste informazioni sensibili verrà inviata a un’intelligenza artificiale per essere elaborata. Con un chatbot pubblico come ChatGPT o Bard, è impossibile per un’impresa sapere dove esattamente questa richiesta verrà elaborata, incorrendo, potenzialmente, in problemi che riguardano i requisiti nazionali di data residency. Le imprese hanno già diversi modi per affrontare il problema, spiega Nick Amabile, CEO di DAS42, una società di consulenza sui dati che aiuta le aziende a risolvere i problemi di residenza dei dati. “Stiamo assistendo all’ingresso nel settore di molti vendor affidabili”, prosegue il top manager. “Invece di portare i dati all’IA, stiamo portando l’IA ai dati”. I fornitori di cloud, come AWS e Azure, offrono da tempo ai loro utenti infrastrutture basate sulla geografia. Il servizio Azure OpenAI di Microsoft, per esempio, consente ai clienti di archiviare i dati nella fonte e nel luogo da loro indicati, senza che vengano copiati nel servizio Azure OpenAI stesso. Anche vendor di dati come Snowflake e Databricks, che storicamente si sono concentrati sull’assistenza alle aziende per quanto riguarda la privacy, la residenza e altre implicazioni di conformità della gestione dei dati, stanno entrando nello spazio dell’intelligenza artificiale generativa. “Stiamo vedendo molti fornitori che offrono questo servizio in aggiunta alle loro piattaforme”, afferma Amabile. L’identificazione della protezione Alcuni vendor, comprendendo che le aziende sono diffidenti nei confronti dei modelli di IA a rischio, offrono meccanismi di protezione. Per esempio, le IA generative che si occupano di immagini, che hanno raggiunto la popolarità con qualche mese di anticipo rispetto ai modelli linguistici, sono state accusate di violare i diritti d’autore con i loro dati di addestramento. Mentre le cause sono in corso nei tribunali, Adobe, Shutterstock e altre piattaforme di tipo enterprise-friendly hanno implementato IA addestrate solo su dati con licenza completa o di pubblico dominio. Inoltre, a giugno, Adobe ha annunciato che fornirà alle imprese la protezione per i contenuti generati dall’IA, consentendo loro di distribuirli senza problemi all’interno della propria impresa. Anche altri vendor, tra cui Snowflake e Databricks, offrono vari gradi di protezione e indennizzo ai loro clienti. Nei suoi termini di servizio, per esempio, Snowflake promette di difendere i suoi clienti da qualsiasi reclamo che denunci una violazione dei diritti di proprietà intellettuale di terzi. “I fornitori esistenti con cui lavoro oggi, come Snowflake e Databricks, offrono protezione ai loro clienti”, dice Amabile. Quando un’azienda acquista i suoi modelli di IA attraverso i contratti esistenti con questi fornitori, rientra nelle loro stesse disposizioni di protezione. “Lavorare con fornitori consolidati e affidabili è davvero un vantaggio per l’impresa”, aggiunge. L’attenzione del top management Secondo Vandevelde di Gibson, Dunn & Crutcher, l’IA richiede un’attenzione anche agli alti livelli. “Non si tratta solo di un problema di CIO o di chief privacy officer”, osserva. “È una questione che riguarda l’intera società e che deve essere affrontata dal consiglio di amministrazione in giù”. È la stessa traiettoria che hanno seguito la cybersecurity e la privacy, e il settore è solo all’inizio del suo viaggio. “15 anni fa era strano che i consigli di amministrazione pensassero alla privacy, che avessero dei chief privacy officer, e che la privacy venisse progettata a livello di prodotti e servizi”, asserisce. “La stessa cosa accadrà con l’IA”. E potrebbe essere necessario che ciò avvenga più velocemente di quanto si stia facendo attualmente, aggiunge. “I nuovi modelli sono e si sentono molto diversi in termini di potenza, e la coscienza pubblica se ne accorge”, conclude. “Questo è emerso in tutti gli aspetti dei regolamenti, delle leggi e delle azioni governative. A prescindere dal fatto che sia giusto o meno, si è criticata l’eccessiva lentezza delle normative sulla privacy e sulla sicurezza dei dati, per cui le autorità di regolamentazione stanno cercando di muoversi molto più rapidamente per affermare se stesse e la propria autorità”. Contenuti correlati In primo piano Ecco come i CIO stanno ripensando alle strategie sul cloud Facendo tesoro e mettendo in pratica gli insegnamenti appresi dalle prime incursioni nel cloud, i leader IT stanno abbandonando i mantra platform-first a favore di strategie specifiche per i carichi di lavoro, in modo tale da poter decidere con pi&ug Di Paula Rooney 28 Feb 2024 7 minuti Edge Computing Cloud Computing Data Center In primo piano Composability, come costruire - mattone dopo mattone - un’azienda Agile La metodologia Agile è la risposta per i CIO che cercano flessibilità, business continuity e reattività ai cambiamenti. Per molti si tratta di un modello irrinunciabile nello sviluppo del software e della presenza digitale, in pa Di Patrizia Licata 26 Feb 2024 10 minuti Sviluppo Agile Gestione dei processi aziendali Trasformazione digitale In primo piano 4 rischi che possono nascondersi in una strategia cloud aziendale Ci sono difficoltà che hanno la capacità di presentarsi in modo inatteso al cospetto dei leader IT ignari o impreparati sui rischi insiti nelle normative emergenti o sulle carenze che caratterizzano l'approccio al cloud. Di Evan Schuman 21 Feb 2024 9 minuti Gestione del cloud Bilancio Cloud Computing In primo piano La convergenza tra IT e business: ecco come i CIO reinterpretano il loro ruolo con l’aiuto dell’IA Competenza tecnica e conoscenza del business permettono ai CIO di assumere un ruolo sempre più strategico che include il dialogo attivo con i fornitori. Dati, analytics, automazione e intelligenza artificiale sono le basi tecnologiche per il l Di Patrizia Licata 19 Feb 2024 11 minuti CIO Trasformazione digitale Intelligenza artificiale Podcast VIDEOS Risorse Eventi SUBSCRIBE TO OUR NEWSLETTER From our editors straight to your inbox Get started by entering your email address below. Inserisci un indirizzo e-mail valido Abbonarsi