Trovare l'armonia con innovazione, ChatGPT e sicurezza
CasaCasa > Blog > Trovare l'armonia con innovazione, ChatGPT e sicurezza

Trovare l'armonia con innovazione, ChatGPT e sicurezza

Nov 18, 2023

Di Zscaler |

Scopri perché l'architettura basata su proxy di Zscaler è costruita su un framework SSE leader del settore per offrire una sicurezza superiore per proteggere il business moderno di oggi.

Ormai hai familiarità con ChatGPT. È diventata una delle applicazioni consumer in più rapida crescita che il mondo avesse mai visto appena due mesi dopo il suo rilascio.

Grazie a questa attenzione, ogni organizzazione è giunta a conclusioni diverse riguardo all’uso di modelli linguistici di grandi dimensioni nei chatbot avanzati, sia sull’uso quotidiano della tecnologia sul lavoro sia anche sulle questioni sociali più ampie che sollevano.

Per molte organizzazioni, questi strumenti hanno suscitato un notevole interesse poiché cercano di sfruttarli per stimolare la produttività. Tuttavia, ha attirato l’attenzione anche delle autorità, visto il modo in cui raccoglie e produce dati. Oltre alle questioni relative alla conformità dei dati che vengono dibattute attivamente, qualcosa che deve essere considerato è la protezione della proprietà intellettuale aziendale o dei dati sensibili dei clienti dall’utilizzo in ChatGPT o altri progetti di intelligenza artificiale.

Zscaler ha identificato centinaia di strumenti e siti di intelligenza artificiale, incluso OpenAI ChatGPT, e ha creato una categoria URL chiamata "Applicazioni AI e ML". Le organizzazioni possono utilizzare questa categoria di URL per intraprendere alcune azioni diverse: bloccare completamente l'accesso a questi siti, estendere l'accesso basato su cautela, in cui gli utenti vengono istruiti sull'utilizzo di questi strumenti o consentirne l'uso, ma con guardrail, attraverso l'isolamento del browser per proteggere i dati .

Ora esamineremo più approfonditamente il modo in cui l’isolamento potrà contribuire a stimolare la produttività mantenendo al tempo stesso la sicurezza dei dati.

Innanzitutto è essenziale capire perché la sicurezza dei dati è così importante. L'Economist Korea ha dettagliato un avvertimento sulla sicurezza dei dati ChatGPT. Ad aprile, Samsung ha assistito a tre distinte fughe di dati aziendali sensibili tramite ChatGPT nella divisione semiconduttori. Un caso prevedeva l'utilizzo dello strumento per verificare il codice sorgente riservato, un altro dipendente ha richiesto l'"ottimizzazione del codice" e un terzo ha caricato la registrazione di una riunione per generare una trascrizione. Queste informazioni ora fanno parte di ChatGPT. Da parte sua, Samsung ha limitato l'uso dello strumento e potrebbe vietarlo o addirittura crearne una versione interna.

In Zscaler riceviamo notizie da organizzazioni su entrambi i lati della medaglia ChatGPT, quindi offriamo varie azioni per accedere a questi siti. L’isolamento può aiutare nei seguenti modi.

Bilanciare la sicurezza dei dati con l’innovazione

Sfruttando Zscaler Zero Trust Exchange, è possibile eseguire il rendering delle applicazioni di modelli linguistici di grandi dimensioni o delle destinazioni Internet AI nella categoria URL "Applicazioni AI e ML" in Zscaler Browser Isolation. Il vantaggio? Controlli potenti sulla modalità di gestione dei dati sensibili, sia file che informazioni sensibili specifiche.

Per cominciare, potresti bloccare tutti i caricamenti e i download (sui siti AI che li consentono) e limitare completamente l'accesso agli appunti ma, dato il desiderio di consentirne un certo utilizzo, consentire l'immissione di testo. Gli utenti possono comunque digitare query e giocare con gli approfondimenti generati.

Che dire dei rischi associati agli utenti che condividono dati sensibili nelle loro query di chat? Con l'isolamento del browser, tutti i dati sensibili digitati possono essere rilevati e protetti dall'invio da parte del motore DLP Zscaler. Inoltre, per una visibilità completa su come i dipendenti utilizzano questi siti, possiamo vedere e registrare le query che i dipendenti pongono a un luogo come ChatGPT, anche se le regole DLP non sono attivate.

Supponiamo, ad esempio, che un utente tenti di caricare molto testo, inclusi dati sensibili, in un prompt. Gli utenti possono inserire dati entro i confini dell'isolamento del browser, che viene attivato come contenitore effimero. Tuttavia, nessun dato sensibile potrà lasciare l'azienda: verrà bloccato nella sessione di isolamento del browser.

Che ne dici di evitare problemi di proprietà intellettuale assicurando che nessun dato possa essere scaricato sul computer di un utente? Ciò può essere evitato bloccando i download in modo isolato o utilizzando "archiviazione protetta" temporanea senza che tali dati arrivino all'endpoint o violando qualsiasi politica di caricamento/download dell'endpoint. Allo stesso modo, qualsiasi file di produttività di output, come .docx, .xlsx, ecc., può essere visualizzato come PDF di sola lettura all'interno dell'archivio protetto senza che questi vengano necessariamente scaricati sull'endpoint stesso.