L’utilizzo di ChatGPT può minare la sicurezza dei dati aziendali?

Dic 14, 2023 | Consulenza informatica

L’utilizzo di ChatGPT in ambito aziendale solleva questioni importanti sulla sicurezza dei dati sensibili. Se da un lato questo tipo di tecnologia basata sull’Intelligenza Artificiale può essere una preziosa alleata per velocizzare e migliorare alcuni aspetti aziendale, dall’altro è di fondamentale importanza tenere in alta considerazione tutte le misure di sicurezza per evitare potenziali minacce alla privacy e alla riservatezza dei dati aziendali.

Implementare protocolli di sicurezza robusti e gestire al meglio le informazioni può aiutare a utilizzare ChatGPT nella maniera più sicura ed etica.

In questo articolo vedremo:

Trasformazione Digitale

Utilizzo di ChatGPT in azienda

L’utilizzo di ChatGPT in azienda può variare in base al tipo di organizzazione e alle sue esigenze specifiche. Un suo uso molto utile è quello che lo vede integrato all’interno dei canali di assistenza per rispondere alle domande più frequenti e fornire informazioni base al fine di risolvere i problemi più comuni dei clienti.

Allo stesso modo ChatGPT può essere utilizzato per automatizzare risposte ad alcune email, o messaggi standardizzati, liberando così da queste incombenza il personale che potrà dedicarsi a questioni più complesse.

Lo strumento di IA può, inoltre, essere utile per realizzare bozze di contenuti utili ai profili social o ai blog, che dovranno poi essere controllate e finalizzate dal personale. Questo permette di accelerare l’intero processo creativo.

Un altro uso utile di ChatGPT è quello per l’analisi di grandi quantità di dati testuali, che possono essere riassunti, o utilizzati per estrapolare informazioni chiave e generare report.

Può essere, infine, utile implementare ChatGPT per aiutare i dipendenti a trovare informazioni all’interno della rete aziendale, o per supportarli nella fase iniziale di progetti.

Quali rischi può comportare l’utilizzo di ChatGPT in azienda

Nonostante tutti gli strumenti messi in campo da OpenAI per rendere più sicuro possibile l’utilizzo di ChatGPT, esistono ancora alcuni dubbi per quanto riguarda la protezione dei dati: è essenziale, infatti, che questo strumento rimanga sempre aggiornato sulle leggi che regolano l’utilizzo dell’Intelligenza Artificiale all’interno dei paesi in cui opera.

Sappiamo già che i malintenzionati stanno usando ChatGPT in maniera poco etica, per realizzare contenuti falsi, come possono essere le finte recensioni. L’applicazione è, inoltre, suscettibile al Prompt Injection, ovvero un sistema messo a punto dagli hacker che vede l’inserimento di comandi atti a portare il modello a scrivere codici malevoli, o sviluppare siti per il phishing.

Le aziende poi, non sempre, rivelano agli utenti l’utilizzo di ChatGPT per interagire con loro, aumentando il rischio di perdere la loro fiducia. In California, la legge prevede che, riguardo alcune conversazioni, ai consumatori deve essere chiaro che stanno dialogando con un bot e non una persona in carne e ossa.

Richiedendo l’accesso ed elaborando moltissimi dati, è importante che le aziende le quali utilizzano ChatGPT rispettino sempre tutte le normative sulla protezione dati, come il GDPR. Questo vuol dire che ogni organizzazione che decide di utilizzare questo tipo di applicazione deve sempre implementare adeguate misure di sicurezza per proteggere i dati sensibili.

La posizione del garante per la protezione dei dati personali

A inizio Aprile 2023 il Garante della Privacy ha dato lo stop a ChatGPT citando la raccolta illecita dei dati personali e l’assenza di una verifica dell’uso da parte dei minori. Questo dopo che il 20 marzo aveva subito una cospicua perdita di dati riguardanti conversazioni di utenti e informazioni relative al pagamento degli abbonati a un servizio.

In quella data il Garante aveva fatto sapere che vi era una sostanziale mancanza di informativa che giustificasse “la raccolta e la conservazione massiccia di dati personali, allo scopo di addestrare gli algoritmi sottesi al funzionamento della piattaforma”.

OpenAI, che non una sede nell’Unione Europea, ma un designato un rappresentante nello Spazio Economico Europeo ha, nel giro di 20 giorni, intrapreso tutte le misure necessarie affinché il Garante della Privacy potesse dare il nulla osta a ripartire.

In particolare, come si può leggere dal sito del Garante della Privacy, l’azienda ha, tra le altre cose:

  • Predisposto e pubblicato sul proprio sito un’informativa rivolta a tutti gli utenti e non utenti, in Europa e nel resto del mondo, per illustrare quali dati personali e con quali modalità sono trattati per l’addestramento degli algoritmi e per ricordare che chiunque ha diritto di opporsi a tale trattamento.
  • Ampliato l’informativa sul trattamento dei dati riservata agli utenti del servizio rendendola ora accessibile anche nella maschera di registrazione prima che un utente si registri al servizio.
  • Riconosciuto a tutte le persone che vivono in Europa, anche non utenti, il diritto di opporsi a che i loro dati personali siano trattati per l’addestramento degli algoritmi anche attraverso un apposito modulo compilabile online e facilmente accessibile.
  • Introdotto una schermata di benvenuto alla riattivazione di ChatGPT in Italia, con i rimandi alla nuova informativa sulla privacy e alle modalità di trattamento dei dati personali per il training degli algoritmi.
  • Chiarito, nell’informativa riservata agli utenti, che mentre continuerà a trattare taluni dati personali per garantire il corretto funzionamento del servizio sulla base del contratto, tratterà i loro dati personali ai fini dell’addestramento degli algoritmi, salvo che esercitino il diritto di opposizione, sulla base del legittimo interesse.
  • Implementato per gli utenti già nei giorni scorsi un modulo che consente a tutti gli utenti europei di esercitare il diritto di opposizione al trattamento dei propri dati personali e poter così escludere le conversazioni e la relativa cronologia dal training dei propri algoritmi.

Il Garante della Privacy ha, quindi, riconosciuto i passi avanti compiuti da OpenAi riguardo al trattamento dei dati di ChatGPt, augurandosi che l’azienda continui questo percorso di adeguamento alla normativa europea sulla protezione dei dati.

Accorgimenti di privacy da adottare

Per affrontare al meglio i rischi legati alla privacy di ChatGPT bisogna adottare alcune strategie utili per utilizzare l’applicazione in modo etico e soprattutto sicuro.

Il nostro consiglio per proteggere i propri dati sensibili dalla divulgazione non autorizzata è quello di applicare le tecniche più avanzate di anonimizzazione e crittografia. In questa maniera si andrà a proteggere l’identità degli utenti, facendo in modo che le loro informazioni personali rimangano private lungo tutto il periodo di utilizzo di ChatGPT.

Si possono, inoltre, adottare protocolli di sicurezza più avanzati che offrono un sempre maggiore livello di protezione da qualsiasi tipo di vulnerabilità.

Sei già cliente?
RICHIEDI ASSISTENZA

Share This