Google spiega perché la funzione di creazione di foto di Gemini è eccessivamente corretta per la diversità

Google spiega perché la funzione di creazione di foto di Gemini è eccessivamente corretta per la diversità

Dopo Promettendo di risolvere Funzionalità di generazione di immagini Gemini e poi Spegnilo completamenteGoogle ha pubblicato a Post sul blog Fornire una spiegazione del motivo per cui la tecnologia corregge eccessivamente la diversità. Prabhakar Raghavan, vicepresidente senior per la conoscenza e l'informazione dell'azienda, ha spiegato che gli sforzi di Google per garantire che il suo chatbot generasse immagini che mostrassero un'ampia gamma di persone “non hanno preso in considerazione i casi in cui chiaramente non dovrebbe mostrare una gamma”. Inoltre, il suo modello di intelligenza artificiale è diventato “più cauto” nel tempo e si è rifiutato di rispondere a richieste che non fossero di natura offensiva. “Questi due fattori hanno portato il modello a compensare eccessivamente in alcuni casi e a conservare eccessivamente in altri, risultando in immagini scomode e sbagliate”, ha scritto Raghavan.

Google ha assicurato che il suo processo di creazione delle immagini dei Gemelli non può creare immagini violente o sessualmente esplicite di persone reali e che le immagini che produce includeranno persone di razze diverse e con caratteristiche diverse. Ma se l’utente gli chiede di creare immagini di persone che presumibilmente appartengono a una certa razza o genere, dovrebbe essere in grado di farlo. Come hanno scoperto di recente gli utenti, Gemini si rifiuterà di fornire risultati per richieste che richiedono specificamente persone bianche. Afferma “Crea un'istantanea glamour di [ethnicity or nationality] Ad esempio, “coppia” funzionava per le richieste “cinesi”, “ebrei” e “sudafricane”, ma non per le richieste che richiedevano una foto di bianchi.

I Gemelli hanno anche problemi nel produrre immagini storicamente accurate. Quando gli utenti richiedevano immagini di soldati tedeschi durante la seconda guerra mondiale, Gemini generava immagini di uomini neri e donne asiatiche che indossavano uniformi naziste. Quando l’abbiamo testato, abbiamo chiesto al chatbot di generare immagini dei “Padri fondatori d’America” e dei “Papi attraverso i secoli” e ci ha mostrato immagini che raffiguravano persone di colore nei ruoli. Quando le ho chiesto di rendere le sue immagini del Papa storicamente accurate, si è rifiutata di giungere a qualsiasi conclusione.

READ  Thyssenkrupp vende anche la sua divisione Factory Technology | Sedruep

Google non intendeva che Gemini si rifiutasse di creare immagini per un gruppo particolare o di creare immagini storicamente inaccurate, ha detto Raghavan. Ha anche ribadito la promessa di Google di migliorare la generazione di immagini di Gemini. Ciò comporta “test approfonditi”, quindi potrebbe passare del tempo prima che l'azienda riattivi la funzionalità. Attualmente, se un utente tenta di convincere Gemini a creare una foto, il chatbot risponde quanto segue: “Stiamo lavorando per migliorare la capacità di Gemini di creare foto di persone. Ci aspettiamo che questa funzionalità ritorni presto e te lo faremo sapere nella versione si aggiorna quando sì, lo fa.”

Fino Neri

"Guru del cibo. Fanatico del bacon. Appassionato di tv devoto. Specialista di zombi. Appassionato di cultura pop freelance."

Related Posts

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Read also x