La ricerca sull’IA è un incendio spazzatura, անցկ Google conduce le partite

Il mondo della ricerca sull’IA è traballante. Dagli accademici che danno priorità a schemi facili da monetizzare a rivoluzionari, all’élite della Silicon Valley che usa la minaccia della perdita di posti di lavoro per promuovere ipotesi aziendali, il sistema è un disastro.

E Google merita la parte del leone della colpa.

Come è iniziato

Nel 2000, a livello globale sono stati pubblicati circa 85.000 articoli di ricerca AI/ML. Avanti veloce fino al 2021, quasi il doppio solo negli Stati Uniti.

Dire che c’è stata un’esplosione sul campo sarebbe un enorme eufemismo. Questo flusso di nuove idee da parte dei ricercatori ha portato l’apprendimento approfondito a diventare una delle tecnologie più importanti al mondo.

Tra il 2014 e il 2021, l’alta tecnologia ha completamente abbandonato i suoi principi “web first” e “mobile first”, adottando la strategia “AI First”.

Ora, nel 2022, i programmatori di intelligenza artificiale և ricercatori sono più richiesti (: retribuzione più elevata) rispetto a quasi tutti gli altri lavori tecnologici al di fuori della C-suite.

Ma questo tipo di crescita sfrenata ha i suoi lati negativi. Nella lotta per soddisfare la domanda del mercato di beni e servizi basati su una formazione approfondita, il campo diventa difficile e instabile come lo sport professionistico.

Negli ultimi anni, abbiamo visto Ian Goodfellow di GANfather passare da Google ad Apple, Timnit Gebrun և altri rimossi da Google per polemiche sull’efficacia della ricerca և un torrente virtuale di IA discutibile. i documenti possono in qualche modo chiarire la revisione tra pari.

La marea di talenti che seguì l’esplosione di una formazione approfondita portò a una valanga di scarsa ricerca, frode e avidità aziendale.

Come va?

Google, più di ogni altra azienda, è responsabile del moderno paradigma dell’IA. Ciò significa che dobbiamo dare a G un punteggio elevato per sviluppare il linguaggio naturale և riconoscimento delle immagini alle masse.

Significa anche che possiamo dare a Google l’opportunità di creare un ambiente di ricerca-mangia-ricerca in cui alcuni studenti universitari, i loro associati esperti di tecnologia, trattano i documenti di ricerca come un’esca per i venture capitalist և dirigenti aziendali.

Sopra, Google ha mostrato la sua volontà di assumere alcuni dei ricercatori più talentuosi del mondo. Ed è stato dimostrato più e più volte che li allontanerà in un attimo se non si adattano alla linea aziendale.

Nel dicembre 2020, la società ha licenziato Timnit Gebru, un ricercatore che aveva assunto a capo del dipartimento di etica dell’IA. Pochi mesi dopo, un altro membro della squadra, Margaret Mitchell, fu licenziato.

Google afferma che il lavoro dei ricercatori non è vero, ma sia le donne che molti sostenitori affermano che i licenziamenti sono arrivati ​​​​solo dopo aver sollevato preoccupazioni etiche in uno studio firmato dal direttore dell’IA dell’azienda Jeff Dean su:

Հազ Non è passato quasi un anno, և la storia si ripete. Google ha licenziato un altro ricercatore di intelligenza artificiale di fama mondiale, Satrajit Chatterjee, dopo aver guidato un team di scienziati che ha sfidato un altro documento firmato da Dean.

Effetto alluvione

Soprattutto, ciò significa che la concorrenza per i lavori ben pagati è feroce. E la caccia al prossimo ricercatore o sviluppatore di talento inizia prima che mai!

Gli studenti che lavorano nel campo dell’apprendimento automatico և per avanzare nel campo dell’IA, che alla fine vogliono lavorare al di fuori dell’accademia, dovrebbero creare o co-autori documenti di ricerca che mostrino il loro talento.

Sfortunatamente, dall’accademia alla grande tecnologia o al mondo delle startup guidate da VC è pieno di articoli senza senso scritti da studenti la cui intera inclinazione è scritta in algoritmi che possono essere monetizzati.

Una rapida ricerca di Google Scholar per “elaborazione del linguaggio naturale”, ad esempio, mostra circa un milione di visite. Molti dei documenti elencati hanno centinaia o migliaia di citazioni.

Esternamente, questo mostrerà che la PNL è un fiorente sottogruppo di ricerca sull’apprendimento automatico che ha catturato l’attenzione dei ricercatori di tutto il mondo.

In effetti, la ricerca di “rete neurale artificiale”, “visione artificiale”, “allenamento di potenziamento” ha prodotto un numero così elevato di risultati.

Sfortunatamente, gran parte della ricerca di AI և ML è intenzionalmente fraudolenta o piena di cattiva scienza.

Ciò che potrebbe aver funzionato bene in passato sta rapidamente diventando un metodo di comunicazione della ricerca potenzialmente obsoleto.

Stuart Ritchie del Guardian ha recentemente scritto un articolo chiedendo se dovremmo abbandonare del tutto i documenti di ricerca. A loro avviso, i problemi della scienza sono piuttosto profondi.

Questo sistema ha grossi problemi. Il principale è il problema del bias di pubblicazione. È più probabile che revisori ed editori scrivano un articolo accademico e lo pubblichino nel loro diario se è positivo o convincente. Pertanto, gli scienziati fanno grandi sforzi per migliorare la loro ricerca facendo affidamento sulla loro analisi per produrre risultati “migliori” e talvolta anche in modo fraudolento per impressionare questi potenziali portieri. Questa è una drastica distorsione della nostra visione di ciò che è realmente accaduto.

Il problema è che i portatori, che tutti cercano di impressionare, tendono a portare le chiavi del lavoro futuro degli studenti, per essere accettati in prestigiose riviste scientifiche o conferenze. i ricercatori potrebbero non essere approvati a proprio rischio.

E anche se il giornale riesce a raggiungere i suoi revisori tra pari, non vi è alcuna garanzia che le persone che spingono gli articoli non dormiranno vicino all’interruttore.

Ecco perché Guillaume Kabanak, professore associato di informatica all’Università di Tolosa, ha creato un progetto chiamato Problematic Paper Screener (PPS).

PPS utilizza l’automazione per identificare i documenti che contengono codice, matematica o frasi potenzialmente problematici. Nello spirito della scienza e della giustizia, Cabanac garantisce che ogni volantino etichettato riceva una recensione da parte delle persone. Ma il lavoro è probabilmente troppo per poche persone da fare nel tempo libero.

Secondo un rapporto di Spectrum News, ci sono molti giornali problematici là fuori. E la maggior parte è legata all’apprendimento automatico և AI.

Lo sceneggiatore ha ritenuto problematici circa 7650 studi, di cui più di 6000 per avere espressioni tortuose. La maggior parte dei giornali che contengono espressioni torturate sembrano provenire dai campi dell’apprendimento automatico, dell’intelligenza artificiale e dell’ingegneria.

Le espressioni torturate sono termini che sollevano bandiere rosse per i ricercatori mentre cercano di descrivere un processo o un concetto che è già stato stabilito.

Ad esempio, l’uso dei termini “falso neurone” o “neurale artificiale” può indicare l’uso di un’app thesaurus utilizzata da malintenzionati che cercano di evitare il plagio in un lavoro precedente.

Soluzione:

Sebbene Google non possa essere incolpato di tutto ciò che è sfavorevole nel campo dell’apprendimento automatico e dell’intelligenza artificiale, ha svolto un ruolo enorme nel trasmettere la ricerca sottoposta a revisione paritaria.

Ciò non significa che Google non supporti la comunità scientifica tramite open source, aiuti finanziari o supporto alla ricerca. E certamente non cerchiamo di insinuare che tutti coloro che studiano l’IA vogliono solo fare soldi velocemente.

Ma il sistema è stato creato prima per incoraggiare la monetizzazione degli algoritmi e in secondo luogo per sviluppare il campo. Per cambiarlo, la principale accademia tecnologica deve impegnarsi in importanti riforme del modo in cui la ricerca viene presentata e rivista.

Al momento non esiste un’autorità di verifica di terze parti autorevole per i documenti. Un sistema di revisione è più simile a un codice d’onore che a un insieme di principi concordati dalle istituzioni.

Tuttavia, c’è una priorità և attività ստեղծ la creazione di un comitato di sorveglianza che abbia un’esperienza accessibile e di impatto che possa governare al di fuori del mondo accademico, la NCAA.

Se riusciamo a mettere insieme un sistema di concorrenza leale per migliaia di programmi di atletica leggera amatoriale, è una scommessa sicura che possiamo istituire un organo di governo per stabilire linee guida per la ricerca accademica e la revisione.

E per quanto riguarda Google, c’è un’alta probabilità che il CEO Sundar Pichai venga nuovamente invitato al Congresso se la società continua a licenziare i ricercatori che la assumono per supervisionare i suoi programmi di intelligenza artificiale etica.

Il capitalismo americano significa che le aziende di solito sono libere di assumere chi vuole, ma anche gli azionisti e i dipendenti hanno diritto.

Alla fine Google dovrà fare una ricerca etica, altrimenti non potrà competere con le aziende che lo vogliono.

Leave a Comment

Your email address will not be published.