Questo annuncio non è stato ancora caricato, ma il tuo articolo continua di seguito.
Ci scusiamo, ma questo video non è stato caricato.
La società ha dichiarato martedì che gli ultimi strumenti di assistente AI di Microsoft – al gigante del software piace chiamarli Copilots – utilizzano il nuovo sistema linguistico GPT-4 di OpenAI e i dati per il dominio di sicurezza. L’idea è di aiutare i professionisti della sicurezza a vedere più rapidamente le connessioni tra le diverse parti di una violazione, come e-mail sospette, un file malware o parti compromesse del sistema.
Microsoft e altre società di software di sicurezza utilizzano da diversi anni tecniche di apprendimento automatico per sradicare comportamenti sospetti e scoprire vulnerabilità di sicurezza. Ma la più recente tecnologia di intelligenza artificiale consente un’analisi più rapida e aggiunge la possibilità di utilizzare semplici domande in inglese, rendendo più facile per i dipendenti che potrebbero non essere esperti di sicurezza o intelligenza artificiale.
Questo annuncio non è stato ancora caricato, ma il tuo articolo continua di seguito.
Questo è importante perché c’è una carenza di lavoratori con queste competenze, ha affermato Vasu Jakal, vicepresidente di Microsoft per la sicurezza, la conformità, l’identità e la privacy. Nel frattempo, gli hacker stanno diventando più veloci.
“Solo dopo la pandemia, abbiamo assistito a un’incredibile diffusione”, ha affermato. Ad esempio, “Un utente malintenzionato impiega in media 1 ora e 12 minuti per ottenere l’accesso completo alla tua casella di posta una volta che un utente fa clic su un collegamento di phishing. Qualcuno impiegava mesi o settimane”.
Il software consente agli utenti di porre domande come: “Come posso contenere i dispositivi che sono già stati compromessi da un attacco?” Oppure potrebbero chiedere al copilota di elencare chiunque abbia inviato o ricevuto un’e-mail con un collegamento pericoloso nelle settimane precedenti e successive all’hack. Lo strumento può anche generare più facilmente report e riepiloghi di incidenti e risposte.
Questo annuncio non è stato ancora caricato, ma il tuo articolo continua di seguito.
Microsoft inizierà dando a un piccolo numero di clienti l’accesso allo strumento e poi ne aggiungerà altri in seguito. Jackal ha rifiutato di dire quando sarà ampiamente disponibile o chi saranno i primi clienti. Security Copilot utilizza i dati delle agenzie governative e dei ricercatori Microsoft, che tengono traccia degli stati nazionali e dei gruppi di criminali informatici. Per agire, l’assistente lavora con i prodotti di sicurezza Microsoft e in futuro aggiungerà l’integrazione con il software di altre società.
Come per le precedenti versioni di AI quest’anno, Microsoft si sta impegnando per garantire che gli utenti siano ben consapevoli che i nuovi sistemi commettono errori. In una demo di un prodotto di sicurezza, un chatbot ha avvertito di un bug in Windows 9 – Prodotto non trovato.
Consigliato dalla redazione
Ma è anche in grado di imparare dagli utenti. Il sistema consente ai clienti di scegliere le proprie impostazioni sulla privacy e decidere quanto spesso desiderano condividere le informazioni che raccoglie. Se lo desiderano, i clienti possono consentire a Microsoft di utilizzare i dati per aiutare altri clienti, ha affermato Jakkal.
“Questo sarà un sistema educativo”, ha detto. “È anche un cambio di paradigma: ora gli umani sono gli investigatori e l’intelligenza artificiale ci fornisce i dati”.