Microsoft Calling It interrompe la scansione della tecnologia di riconoscimento delle emozioni

Immagine di Microsoft Calling It Quits Articolo sul riconoscimento delle emozioni raccapriccianti

Foto:: John McDougall (Immagini Getty:)

Microsoft sta voltando le spalle a se stessa scientificamente dubbia և Eticamente discutibile Tecnologia di riconoscimento delle emozioni. Almeno per ora.

Una grande vittoria per gli allarmi sulla privacy rispetto alle tecnologie biometriche invasive sottovalutate, Microsoft ha annunciato l’intenzione di rimuovere i suoi cosiddetti sistemi di rilevamento di “riconoscimento delle emozioni” dai suoi servizi di riconoscimento facciale di Azure. L’azienda eliminerà inoltre gradualmente le opportunità di provare a utilizzare l’intelligenza artificiale per identificare gli attributi dell’identità, come il sesso e l’età.

La decisione di Microsoft di bloccare la tecnologia controversa è dovuta a una tecnologia superiore revisione sulla sua politica etica. Natasha Crampton, amministratore delegato di Microsoft AI, afferma che la risposta dell’azienda proviene da esperti che hanno notato una mancanza di consenso su come definire le “emozioni”, preoccupazioni su come i sistemi di intelligenza artificiale possono interpretare tali emozioni.

“Abbiamo collaborato con ricercatori interni ed esterni per comprendere i limiti di questa tecnologia e i potenziali vantaggi di superare i compromessi”, ha affermato Sarah Burd, Product Manager di Azure AI Group. annuncio:. “La disponibilità dell’API alle capacità di prevedere gli attributi sensibili apre una vasta gamma di modi per abusarne, inclusa l’esposizione delle persone a stereotipi, discriminazione o ingiusta negazione dei servizi”, ha aggiunto Byrd.

Burd ha detto che la compagnia si sarebbe trasferita lontano dall’API Azure Face per uso generico, che tenta di misurare queste funzionalità nel tentativo di “ridurre i rischi”. Da martedì, i nuovi abbonati Azure non avranno più accesso a questo sistema di rilevamento, anche se gli attuali clienti dovranno smettere di usarlo entro il 2023. È possibile che, sebbene Microsoft affermi che la sua API non sarà più disponibile per un uso generale, Bird ha affermato che la società potrebbe ancora studiare la tecnologia in determinati usi limitati, soprattutto come strumento per aiutare le persone con disabilità.

“Microsoft riconosce che queste funzionalità possono essere utili se utilizzate per scenari di accesso controllato”, ha aggiunto Byrd.

La correzione del corso è un tentativo di allineare la politica di Microsoft con la sua nuova politica di 27 pagine Standard di intelligenza artificiale responsabile documento entro un anno. Tra le altre linee guida, lo standard chiede a Microsoft di garantire che i suoi prodotti siano adeguatamente controllati, supportare il controllo informato, “fornire soluzioni valide ai problemi che si intende risolvere”.

La tecnologia di riconoscimento delle emozioni è “al massimo ruvida”.

In un’intervista con Gizmodo, Albert Fox Kahn, CEO del Surveillance Technology Oversight Project, ha definito Microsoft “sciocca” e ha voltato le spalle alla tecnologia di riconoscimento delle emozioni.

“La verità è che la tecnologia è nella migliore delle ipotesi scortese, in grado di decodificare un piccolo sottoinsieme di utenti massimi”. ha detto Fox Kane. “Ma anche se la tecnologia migliora, punirà comunque chiunque sia un subacqueo nervoso. “Come la maggior parte dell’intelligenza artificiale comportamentale, la diversità è punita; coloro che la pensano diversamente sono visti come un pericolo”.

Jay Stanley, analista politico senior dell’ACLU, ha accolto favorevolmente la decisione di Microsoft, che secondo lui rifletteva il “discredito scientifico” del riconoscimento automatico delle emozioni.

“Spero che questo aiuterà a rafforzare la comprensione più ampia che questa tecnologia non è qualcosa su cui fare affidamento o applicare al di fuori del contesto sperimentale”, ha detto Stanley a Gizmodo per telefono. “Microsoft è un grande nome, una grande azienda e spero che avrà un grande impatto nell’aiutare gli altri a comprendere i gravi difetti di questa tecnologia”.

L’annuncio di martedì arriva tra anni di pressioni da parte di attivisti e accademici che si sono espressi contro potenziali trappole etiche e segrete del riconoscimento di emozioni facilmente accessibili. Una di queste critiche, Kate Crawford, ricercatrice presso la USC Annenberg, ha esplorato i limiti del riconoscimento delle emozioni (chiamato “riconoscere l’influenza”) nel suo libro del 2021. Atlante dell’IA. A differenza del riconoscimento facciale, che cerca di identificare un particolare individuo, il riconoscimento delle emozioni cerca di “scoprire և classificare le emozioni analizzando qualsiasi volto”, che, secondo Crawford, è fondamentalmente imperfetto.

“La difficoltà di automatizzare la connessione tra le ‘principali categorie emotive’ dei movimenti facciali solleva la questione se le emozioni possano essere adeguatamente raggruppate in un piccolo numero di categorie distinte”, ha scritto Crawford. “C’è un problema persistente che le espressioni facciali possono mostrare poco sul nostro stato interiore onesto, come può essere confermato da chiunque sorrida senza sentirsi veramente felice”.

Crawford non è solo. Un 2019 rapporto: Secondo AI Now, ricercatore presso il NYU Research Center, la tecnologia di riconoscimento delle emozioni, messa nelle mani sbagliate, può consentire alle istituzioni di prendere decisioni distopiche sull’idoneità degli individui a partecipare ad aspetti chiave della società. Gli autori del rapporto hanno invitato le autorità di regolamentazione a vietare la tecnologia. Di recente, un gruppo di 27 sostenitori dei diritti digitali ha scritto: lettera aperta CEO di Zoom և Fondatore Eric S. Yuan gli ha chiesto di annullare gli sforzi di Zoom per integrare il riconoscimento delle emozioni nelle videochiamate.

Il nucleo dell’intelligenza emotiva di Microsoft arriva quasi due anni dopo l’adesione ad Amazon և IBM bandire La polizia usa un dispositivo di riconoscimento facciale. Da allora, i team di etica dell’IA hanno operato presso importanti società tecnologiche come Google և Twitter si è moltiplicatoo non senza alcuni calde tensioni. O la possibile decisione di Microsoft di evitare di riconoscere le emozioni può salvarlo dal ripetersi terribile I problemi di fiducia pubblica che affliggono altre società tecnologiche continuano a essere una delle principali preoccupazioni per i sostenitori della privacy e delle libertà civili. la sua partnership con le forze dell’ordine և alto interesse per i contratti militari.

Tuttavia, la decisione di Microsoft è stata generalmente accolta favorevolmente dai gruppi di privacy Fox Kahn dice a Gizmodo che vuole che Microsoft faccia ulteriori passi è un altro, più redditizio, ma tanto quanto la tecnologia.

“Anche se questo è un passo importante, Microsoft ha ancora molta strada da fare per cancellare la sua storia sui diritti civili”, ha affermato Fox Kahn. “L’azienda sta ancora realizzando un profitto dal sistema di consapevolezza del dominio, [an] Il software di intelligence orwelliano è stato sviluppato in collaborazione con il NYPD. “Sistema di consapevolezza del dominio և I sistemi di polizia AI che consentono le stesse preoccupazioni del riconoscimento delle emozioni vanno solo a vantaggio della DAS”.

Leave a Comment

Your email address will not be published.