Trusted AI
Einstein Trust Layer: l’architettura di sicurezza che Salesforce ha sviluppato per rendere sicuro l’uso dell’AI generativa all’interno della piattaforma.
Permette alle aziende di usare l’AI generativa di Salesforce con fiducia, mantenendo il pieno controllo sui dati e rispettando sicurezza e governance.
Einstein Trust Layer: Sicurezza e Affidabilità nell’AI di Salesforce
L’Einstein Trust Layer è l’architettura di sicurezza integrata nella piattaforma Salesforce per garantire che l’uso dell’intelligenza artificiale generativa sia sicuro, responsabile e conforme agli standard di privacy aziendale. In un mondo dove i dati sono il cuore delle decisioni, questa tecnologia protegge le informazioni sensibili e assicura che l’AI lavori in modo trasparente e controllato.
Einstein Trust Layer
Una delle sue caratteristiche principali è il Dynamic Grounding, che consente all’AI di generare contenuti basati sui dati aziendali in tempo reale. Questo significa che le risposte non sono generiche, ma contestualizzate e pertinenti, riducendo il rischio di allucinazioni e migliorando la qualità delle interazioni.
Il Secure Data Retrieval garantisce che l’AI acceda solo ai dati autorizzati, rispettando i permessi utente e i controlli di accesso. Nessuna informazione viene utilizzata al di fuori dei limiti definiti dall’organizzazione.
Per proteggere la privacy, viene applicato il Data Masking: i dati sensibili come PII (Personally Identifiable Information) e PCI (Payment Card Information) vengono automaticamente mascherati prima di essere inviati ai modelli linguistici esterni. Una volta ricevuta la risposta, i dati possono essere demaskati per personalizzare l’output.
Un elemento chiave è la Zero Data Retention: i dati inviati ai modelli esterni non vengono conservati né utilizzati per addestrare l’AI. Questo assicura che le informazioni aziendali rimangano confidenziali e sotto controllo.
Infine, il sistema include meccanismi di Prompt Defense e un Toxicity Score, che analizzano i prompt e le risposte per rilevare contenuti inappropriati, offensivi o rischiosi. Se il punteggio di tossicità supera una soglia definita, l’output viene bloccato o revisionato.
