― Advertisement ―

spot_img
HomeTecnologiaAdobe guarda all'intelligenza artificiale per combattere le fake news

Adobe guarda all’intelligenza artificiale per combattere le fake news

Per notizie aziendali ed economiche più chiare e approfondite, iscriviti
Tendenza rialzista giornaliera le notizie. È completamente gratuito e ti garantiamo che imparerai qualcosa di nuovo ogni giorno.

Adobe sta lavorando a modo suo per combattere la disinformazione.

L’azienda tecnologica ha depositato una domanda di brevetto “Correzione della verità delle frasi in linguaggio naturale” Utilizzo di fogli di calcolo. Il metodo di Adobe utilizza più modelli di intelligenza artificiale per suddividere le frasi in parti per analizzarne l’accuratezza.

Innanzitutto, questo sistema “codifica” gli elementi della frase che vengono inseriti, suddividendoli in poche parole o frasi per l’analisi individuale. Utilizzando il primo di numerosi modelli di apprendimento automatico, viene quindi selezionato un “foglio di calcolo” contenente le informazioni rilevanti per quella contenuta nella frase. Questi fogli di calcolo possono essere “preelaborati” da un sistema di verifica dei fatti, il che significa che il sistema può essere modificato per affrontare argomenti specifici.

Utilizzando un secondo modello di apprendimento automatico, questo sistema decodifica se eventuali elementi simbolici nella frase la rendono falsa. Infine, le parole o le frasi identificate come false vengono poi “mascherate” e un terzo modello di intelligenza artificiale prevede una nuova parola o frase che renderebbe la frase più accurata.

Adobe sottolinea che determinare l’accuratezza delle notizie e identificare la disinformazione in ambienti come i social media può essere difficile. La rapidità con cui le cose si diffondono su queste piattaforme rende ancora più difficile fermare la disinformazione. “Le soluzioni esistenti presentano limitazioni e inconvenienti, poiché alcune agiscono solo come sistemi di verifica che possono solo indicare se un’affermazione è vera o falsa”, ha osservato Adobe.

Immagine tramite l’Ufficio brevetti e marchi degli Stati Uniti.

Le grandi aziende tecnologiche come Meta, Google e TikTok hanno ciascuna le proprie politiche per combattere la disinformazione. Ma gli algoritmi di intelligenza artificiale dietro queste piattaforme hanno anche contribuito a diffondere il problema della disinformazione, ha detto Brian B.. Green, direttore del dipartimento di etica tecnologica dell’Università di Harvard. Centro Markkula per l’etica applicata All’Università di Santa Clara.

Ha aggiunto che l’obiettivo di queste aziende di mantenere gli utenti connessi ha creato “una funzione oggettiva che dice di massimizzare il coinvolgimento degli utenti indipendentemente da ciò che è realistico o irrealistico, e hanno fatto molto nel promuovere la disinformazione e i contenuti estremisti”.

Ma questo brevetto proviene da Adobe, una società di software, non da una piattaforma che fornisce materiale infiammabile per diffondere disinformazione a macchia d’olio. A prima vista, l’interesse dell’azienda per questa tecnologia potrebbe non avere necessariamente senso. Tuttavia, Green ha detto: “Potrebbe essere la distanza effettiva tra loro e il problema che ha dato loro il desiderio e la motivazione per fare qualcosa del genere”.

Tuttavia, una tecnologia come questa potrebbe essere molto redditizia per l’azienda: Adobe potrebbe sicuramente concedere in licenza un sistema come questo ad altre piattaforme, o integrarlo per l’uso in un’applicazione PDF come Acrobat, creando un potente strumento di controllo dei fatti in grado di rilevare rapidamente gli errori. Tutto, dai documenti accademici ai file legali.

Inoltre, questa non è la prima volta che vediamo Adobe guardare a strumenti apparentemente altruistici. L’azienda ha depositato un brevetto per un dispositivo basato sulla visione artificiale “Verifica della diversità” uno strumento. Tuttavia, ciò che questi due brevetti hanno in comune sono le conseguenze indesiderate.

READ  Come spostare foto e video da Google Foto a iCloud

Come tutti i sistemi basati sull’intelligenza artificiale, sistemi come questo sono validi quanto lo sono i dati su cui sono costruiti e possono essere sfruttati per ottenere l’opposto delle loro intenzioni, ha affermato Green. “Le principali vulnerabilità, ovviamente, consistono innanzitutto nel garantire che i dati siano corretti, e poi nell’assicurarsi che i dati non vengano rubati o danneggiati ad un certo punto”, ha affermato.