Microsoft Copilot for Security disponibile a partire dal 1° aprile 2024

Dotata di un'interfaccia localizzata in 25 lingue e capace di comprendere e rispondere a prompt in otto lingue, questa soluzione consente ai professionisti della sicurezza e dell'IT di ampliare le proprie competenze, collaborare in modo più efficace e avere una maggiore visibilità sulle minacce.

Autore: Redazione BitCity

Microsoft ha annunciato la disponibilità di Microsoft Copilot for Security a partire dal 1° aprile 2024. Si tratta della prima soluzione di AI generativa progettata per aiutare i professionisti della sicurezza e dell'IT a rilevare le minacce in modo più accurato e veloce. Microsoft Copilot for Security si basa su threat intelligence e dati su larga scala, tra cui più di 78 trilioni di alert di sicurezza elaborati da Microsoft ogni giorno, e viene abbinato a modelli linguistici all’avanguardia che offrono approfondimenti personalizzati. Secondo un recente studio di Microsoft relativo a Copilot for Security, è emerso che i professionisti della sicurezza hanno riscontrato numerosi vantaggi in termini di risparmio di tempo e accuratezza delle analisi: Grazie a Copilot, gli analisti di sicurezza hanno lavorato il 22% più velocemente Il livello di precisione di tutte le loro attività è stato più alto del 7% Il 97% ha espresso il desiderio di continuare ad utilizzare Copilot per le stesse attività Questa soluzione, dotata di un'interfaccia localizzata in 25 lingue e capace di comprendere e rispondere a prompt in otto lingue, consente ai professionisti della sicurezza e dell'IT di ampliare le proprie competenze, collaborare in modo più efficace e avere una maggiore visibilità sulle minacce, consentendo una risposta più rapida. Microsoft Copilot for Security includerà nuove funzionalità: Promptbooks personalizzati che consentono ai clienti di creare e salvare una serie di prompt utili in un linguaggio naturale Integrazione con Knowledgebase che permette di integrare Copilot for Security all’interno delle logiche e dei processi aziendali e di eseguire attività personalizzate Collegamento alla superficie di attacco esterna personalizzata da Defender EASM per gestire e proteggere la superficie di attacco esterna delle aziende, identificando e analizzando le informazioni più aggiornate sui rischi I registri di accesso e di diagnostica di Microsoft Entra forniscono ulteriori approfondimenti per le indagini di sicurezza e le analisi dei problemi IT dei log di audit relativi a un utente o a un evento specifico, riassunti in linguaggio naturale I report sull'utilizzo forniscono approfondimenti sul modo in cui i team sfruttano Copilot, in modo da poter identificare ulteriori opportunità di ottimizzazione. La piattaforma unificata per le operazioni di sicurezza integra Copilot in Defender per SIEM e XDR, guidando gli utenti nell'indagine e nella risposta alle minacce. Copilot automatizza la rilevazione dei dettagli, migliora l'efficienza con risposte guidate e fornisce analisi avanzate, inclusa la valutazione dei rischi. Inoltre, in Microsoft Entra, Copilot aiuta a prevenire la compromissione dell'identità e in Microsoft Purview fornisce report concisi degli alert, nonché insights e supporto in linguaggio naturale per prioritizzare gli alert critici. Copilot in Intune migliorerà invece la gestione degli endpoint consentendo decisioni più informate e la risoluzione dei problemi prima che questi si verifichino. L'introduzione di un numero sempre maggiore di servizi di intelligenza artificiale generativa sul mercato per tutte le funzioni aziendali, oltre a fornire infinite opportunità ha introdotto anche nuove sfide e rischi. Tenuto conto di questo e per agevolare le organizzazioni nella protezione e regolamentazione dell'uso dell'AI, Microsoft ha introdotto le seguenti esperienze nel proprio portfolio di soluzioni: Scoprire i rischi dell'AI: i team di sicurezza possono scoprire i potenziali rischi associati all'utilizzo dell'AI, come la fuga di dati sensibili e l'accesso degli utenti ad applicazioni ad alto rischio. Proteggere le applicazioni e i dati di AI: i team di sicurezza e IT possono proteggere le applicazioni di AI in uso e i dati sensibili che vengono elaborati o generati da esse, compresi i messaggi e le risposte. Gestire l'utilizzo: i team di sicurezza possono gestire l'utilizzo delle applicazioni di intelligenza artificiale conservando e registrando le interazioni con le applicazioni di intelligenza artificiale, rilevando eventuali violazioni delle normative o delle politiche organizzative durante l'uso di tali applicazioni e indagando su eventuali nuovi incidenti.

Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.