DALL · E mini ha una misteriosa mania per le donne con saria

Come la maggior parte delle persone estremamente online, lo sceneggiatore brasiliano Fernando Mares è affascinato dalle immagini create dal modello di intelligenza artificiale (AI) DALL · E mini. Nelle ultime settimane, il sistema di intelligenza artificiale è diventato virale, creando immagini basate su query degli utenti apparentemente casuali e bizzarre, come “Lady Gaga nei panni del Joker»,«Elon Musk ha citato in giudizio il capibara“e altro ancora.

Mares, un veterano anti-attivista, ha iniziato a utilizzare DALL · E mini all’inizio di giugno. Ma invece di digitare il testo per una query specifica, ha provato qualcos’altro. ha lasciato il campo vuoto. Ammirato dai risultati apparentemente casuali, Mares ha condotto una ricerca vuota ancora e ancora. Proprio in quel momento Mares notò qualcosa di strano. Quasi ogni volta che faceva una domanda vuota, la DALL · E mini creava ritratti di donne con la pelle marrone. sariUn tipo di abbigliamento comune nell’Asia meridionale.

Mares ha chiesto a DALL · E mini migliaia di volte di inserire un comando vuoto per scoprire se fosse solo una coincidenza. Ha quindi invitato i suoi amici ad accendere a turno il suo computer, creando immagini su cinque schede del browser contemporaneamente. Ha detto che ha continuato per circa 10 ore senza interruzioni. Ha creato un grande repository di oltre 5.000 immagini uniche e ha condiviso 1,4 GB di dati grezzi DALL · E mini. Il resto del mondo.

La maggior parte di queste immagini contiene immagini di donne con la pelle marrone in sari. Perché la DALL-E mini è così ossessionata da questo particolare tipo di immagine? Secondo i ricercatori di intelligenza artificiale, la risposta potrebbe essere correlata a un’etichettatura scadente e a set di dati scadenti.

DALL · E mini è stato sviluppato dall’artista AI Boris Daima և ed è stato ispirato da DALL · E 2, un programma OpenAI che crea immagini artistiche iperrealistiche և dall’input di testo. Dai gatti meditanti ai dinosauri robot che combattono monster truck sul Colosseo, le immagini hanno scioccato tutti, e alcuni le hanno definite una minaccia per gli illustratori umani. Riconoscendo il potenziale abuso, OpenAI ha limitato l’accesso al suo modello solo a un gruppo selezionato di 400 ricercatori.

Daiman era affascinato dalla grafica prodotta da DALL · E 2, “voleva avere una versione open source che fosse accessibile e migliorata per tutti”, ha detto. Il resto del mondo. Quindi è andato avanti e ha creato una versione open source del modello chiamata DALL · E mini. Lo ha lanciato nel luglio 2021 e da allora il modello nella regione ha migliorato i suoi risultati.


DALL.E mini

DALL · E mini è ora un fenomeno Internet virale. Le immagini che crea non sono così nitide come le immagini di DALL · E 2 և hanno una notevole distorsione և sfocatura, ma le immagini selvagge del sistema sono tutto da Demogorgone da: Cose più strane: tenendo un pallone da basket spettacolo pubblico A Disney World – ha creato un’intera sottocultura con subcredito և Gestisce Twitter: si dedica a combinare le sue immagini. Ha ispirato un cartone animato in: Newyorkese La rivista Twitter Wird Dall-E Creations ha più di 730.000 follower. Dayman ha detto Il resto del mondo Il modello genera circa 5 milioni di richieste al giorno e sta attualmente lavorando per invertire il crescente interesse degli utenti. (DALL.E mini non ha nulla a che fare con OpenAI Open, secondo OpenAI, ha ribattezzato il suo modello open source Craiyon il 20 giugno).

Dayman ammette di essere perplesso sul motivo per cui il sistema crea immagini di donne con la pelle marrone in sari per query vuote, ma sospetta che ciò abbia qualcosa a che fare con il database del programma. “È piuttosto interessante, non sono sicuro del motivo per cui sta accadendo”, ha detto Dayman Il resto del mondo dopo aver visionato le immagini. “È possibile che questo tipo di immagine sia ampiamente rappresentato nel database, forse anche con brevi didascalie”, ha affermato Dayman. Il resto del mondo. Il resto del mondo Ha contattato il creatore di OpenAI, DALL · E 2, per vedere se avevano qualche idea ma non avevano ancora sentito la risposta.

I modelli di intelligenza artificiale, come il DALL-E mini, imparano a disegnare immagini analizzando milioni di immagini da Internet con relative didascalie. Il modello DALL · E mini si basa su tre set di dati principali. Concept 12M, che contiene 12 milioni di immagini և coppia di titoli, և Il corpo di OpenAI di circa 15 milioni di immagini. Pedro Cuenka, coautore di Dayma և DALL · E mini, ha affermato che il loro modello è stato anche addestrato utilizzando dati non raffinati su Internet, il che apre la porta a pregiudizi sconosciuti e inspiegabili che possono derivare da modelli di creazione di immagini.

Dayma non è il solo a dubitare della base del database և modello di formazione. Alla ricerca di risposte, Mares si è rivolto al popolare forum di discussione Hugging Face, dove è ospitato DALL · E mini. Lì ha riflettuto la comunità informatica, alcuni membri hanno offerto ripetutamente spiegazioni credibili. L’IA potrebbe essere addestrata su milioni di immagini di persone nel sud e nel sud-est asiatico che non sono “etichettate” nel corpus di dati educativi. Dayman contesta questa teoria perché ha affermato che nessuna immagine del set di dati è senza titolo.

“Di solito i sistemi di apprendimento automatico hanno il problema opposto. In effetti, non contengono abbastanza foto di persone non bianche”.

Michael Cook, che attualmente sta studiando l’intersezione tra intelligenza artificiale, creatività e game design alla Queen Mary University di Londra, ha contestato la teoria secondo cui il database contiene troppe immagini di persone dell’Asia meridionale. “Di solito i sistemi di apprendimento automatico hanno il problema opposto. “Non includono davvero abbastanza foto di persone non bianche”, ha detto Cook.

Cook ha la sua teoria sui risultati confusi di DALL · E mini. “Una cosa che mi è successa durante la lettura di questo è che molti di questi set di dati rimuovono il testo che non è in inglese; eliminano le informazioni su persone specifiche, come i nomi propri”, ha detto Cook.

“Quello che possiamo vedere è uno strano effetto collaterale di questo filtro o pre-elaborazione, in cui, ad esempio, è meno probabile che le immagini di donne indiane vengano filtrate dall’elenco dei divieti o il testo che descrive le immagini viene rimosso; sono state aggiunto al set di dati: senza etichette allegate. ” Ad esempio, se le didascalie sono in hindi o in un’altra lingua, il testo potrebbe essere ingombra di elaborazione dati, lasciando l’immagine senza titolo. “Non posso dirlo con certezza, è solo una teoria che mi è venuta mentre studiavo i dati”.

I sistemi di intelligenza artificiale sono di parte e anche iniziative Big Tech ben finanziate come il chatbot di Microsoft Tay e lo strumento di reclutamento dell’IA di Amazon sono state prese di mira. In effetti, il modello text-to-image di Google, Imagen և OpenAI’s DALL.E 2, rivela chiaramente che i loro modelli hanno il potenziale per creare stereotipi dannosi, come fa DALL.E mini.

Cook era un critico vocale ciò che vede come un intorpidimento crescente, scoperte inosservate che evitano i pregiudizi come una parte inevitabile dei modelli in evoluzione dell’intelligenza artificiale. Egli ha detto Il resto del mondo Sebbene sia lodevole che la nuova tecnologia consenta alle persone di divertirsi molto, “Penso che ci siano seri problemi culturali e sociali con questa tecnologia che non apprezziamo davvero”.

Dayma, il creatore del DALL · E mini, ammette che il modello è ancora in lavorazione e che l’entità del suo pregiudizio deve ancora essere completamente documentata. “Il modello ha generato molto più interesse di quanto mi aspettassi”, ha detto Daiman Il resto del mondo. Vuole che il modello rimanga open source in modo che il suo team possa esplorare più rapidamente i suoi limiti e pregiudizi. “Penso che sia interessante per il pubblico essere consapevole di ciò che è possibile in modo da poter sviluppare un atteggiamento critico nei confronti dei media che ricevono come immagini, così come i media come articoli di notizie”.

Nel frattempo, il mistero rimane senza risposta. “Imparo molto vedendo le persone usare il modello”, ha detto Daiman Il resto del mondo. “Quando è vuoto, è grigio, quindi [I] “Deve ancora essere studiato in modo più dettagliato”.

Mares ha affermato che le persone potrebbero essere consapevoli dei potenziali danni dei divertenti sistemi di intelligenza artificiale come il DALL-E mini. Il fatto che anche Dayman non riesca a capire perché il sistema stia sputando su queste immagini rafforza ulteriormente le sue preoccupazioni. “È quello che hanno la stampa և i critici [been] dicendo da anni. “Queste cose sono imprevedibili, non possono controllarlo.”

Leave a Comment

Your email address will not be published.