― Advertisement ―

spot_img

QCon London: Netflix risparmia tempo e denaro con le notifiche basate sul server

Al QCon London 2024, Christopher Low ha spiegato come Netflix utilizza interfacce utente guidate da server per notifiche avanzateCiò fa risparmiare tempo agli sviluppatori...
HomeTechMicrosoft pubblica il primo report sulla trasparenza dell'intelligenza artificiale

Microsoft pubblica il primo report sulla trasparenza dell’intelligenza artificiale

dentro Rapporto sulla trasparenza dell’IA responsabile, che copre principalmente l’anno 2023, Microsoft pubblicizza i suoi risultati nell’implementazione sicura dei prodotti AI. Il rapporto annuale sulla trasparenza dell’intelligenza artificiale è uno degli impegni assunti dall’azienda dopo aver firmato un accordo volontario con la Casa Bianca nel luglio dello scorso anno. Microsoft e altre aziende hanno promesso di creare sistemi di intelligenza artificiale responsabili e di impegnarsi per la sicurezza.

Microsoft afferma nel rapporto di aver creato 30 strumenti di intelligenza artificiale responsabile nell’ultimo anno, di aver sviluppato il proprio team di intelligenza artificiale responsabile e di aver chiesto ai team di creare applicazioni di intelligenza artificiale produttive per misurare e mappare i rischi durante tutto il ciclo di sviluppo. L’azienda rileva di aver aggiunto credenziali di contenuto alle sue piattaforme di generazione di immagini, posizionando una filigrana sull’immagine, contrassegnandola come realizzata da un modello AI.

La società afferma di aver fornito ai clienti di Azure AI l’accesso a strumenti in grado di rilevare contenuti problematici come incitamento all’odio, contenuti di natura sessuale e autolesionismo, nonché strumenti per valutare i rischi per la sicurezza. Ciò include nuovi metodi per rilevare i jailbreak, che sono stati ampliati nel marzo di quest’anno per includere l’iniezione indiretta immediata in cui le istruzioni dannose fanno parte dei dati inseriti dal modello AI.

Inoltre ne amplia la portata Squadra rossa Sforzi, inclusi sia i team rossi interni che tentano intenzionalmente di aggirare le funzionalità di sicurezza nei loro modelli di intelligenza artificiale, sia le implementazioni dei team rossi per consentire test di terze parti prima di lanciare nuovi modelli.

READ  Gli schermi di Nest Smart Hub ricevono avvisi sull'alba e altro ancora

Tuttavia, le unità della Squadra Rossa hanno il loro bel da fare. I lanci di intelligenza artificiale dell’azienda non sono stati immuni da controversie.

Natasha Crampton, amministratore delegato di Microsoft responsabile dell’intelligenza artificiale, ha dichiarato in un’e-mail inviata a: il bordo La comprensione dell’intelligenza artificiale da parte dell’azienda è ancora in fase di elaborazione, ma lo è anche l’intelligenza artificiale responsabile.

“L’IA responsabile non ha un traguardo, quindi non considereremmo mai il nostro lavoro nell’ambito degli impegni volontari sull’IA. Ma abbiamo fatto grandi progressi da quando li abbiamo firmati e non vediamo l’ora di sfruttare il nostro slancio quest’anno”, afferma Crampton.