Tech Giants kæmper med de etiske bekymringer, der er rejst af AI Boom

Med stor magt følger et stort ansvar – og kunstig intelligens-teknologi bliver meget mere kraftfuld. Virksomheder i forkant med at udvikle og implementere machine learning og AI begynder nu at tale åbent om etiske udfordringer, som deres stadig mere smarte kreationer rejser.

Vi er her ved et vendepunkt for AI, sagde Eric Horvitz, administrerende direktør for Microsoft Research, kl. MIT Technology Review 's EmTech-konference i denne uge. Vi har et etisk krav om at udnytte AI for at beskytte og bevare over tid.

Horvitz talte sammen med forskere fra IBM og Google og overvejede lignende problemer. En fælles bekymring var, at de seneste fremskridt fører til, at virksomheder sætter software i positioner med meget direkte kontrol over mennesker - for eksempel i sundhedsvæsenet.



Francesca Rossi , en forsker ved IBM, gav eksemplet med en maskine, der yder hjælp eller kammeratskab til ældre mennesker. Denne robot bliver nødt til at følge kulturelle normer, der er kulturspecifikke og opgavespecifikke, sagde hun. [Og] hvis du skulle implementere i USA eller Japan, skulle den adfærd være meget anderledes.

Sådanne robotter er muligvis stadig en vej væk, men de etiske udfordringer, som AI rejser, er her allerede. Da virksomheder og regeringer stoler mere på maskinlæringssystemer til at træffe beslutninger, kan blinde vinkler eller skævheder i teknologien effektivt føre til diskrimination af visse typer mennesker.

En ProPublica-undersøgelse sidste år viste f.eks., at et risikoscoringssystem, der blev brugt i nogle stater til at informere om straffedom, var partisk mod sorte . På samme måde beskrev Horvitz, hvordan en følelsesgenkendelsestjeneste udviklet hos Microsoft til brug for virksomheder oprindeligt var unøjagtig for små børn, fordi den blev trænet ved hjælp af en pose med fotos, der ikke var korrekt sammensat.

Maya Gupta, en forsker hos Google, opfordrede industrien til at arbejde hårdere på at udvikle processer for at sikre, at data, der bruges til at træne algoritmer, ikke er skævt. Mange gange bliver disse datasæt oprettet på en noget automatiseret måde, sagde Gupta. Vi er nødt til at tænke mere over, om vi prøver nok fra minoritetsgrupper til at være sikre på, at vi gjorde et godt nok stykke arbejde?

I det seneste år er der opstået mange bestræbelser på at forske i de etiske udfordringer ved maskinlæring og kunstig intelligens i den akademiske verden og industrien. University of California, Berkeley; Harvard; og universiteterne i Oxford og Cambridge har alle startet programmer eller institutter for at arbejde med etik og sikkerhed i kunstig intelligens. I 2016 grundlagde Amazon, Microsoft, Google, IBM og Facebook i fællesskab en nonprofit ved navn Partnerskab om AI at arbejde på problemet (Apple kom med i januar).

Virksomheder tager også individuelle foranstaltninger for at opbygge sikkerhedsforanstaltninger omkring deres teknologi. Gupta fremhævede forskning hos Google, der tester måder at korrigere skæve maskinlæringsmodeller på eller forhindre dem i at blive skæve i første omgang. Horvitz beskrev Microsofts interne etiske bestyrelse for AI, døbt AETHER, som overvejer ting som nye beslutningsalgoritmer udviklet til virksomhedens in-cloud-tjenester. Selvom det i øjeblikket er befolket med Microsoft-ansatte, håber virksomheden i fremtiden også at tilføje eksterne stemmer. Google har startet sit eget AI-etikråd.

Måske ikke overraskende, hævder de virksomheder, der skaber sådanne programmer, generelt, at de overflødiggør behovet for nye former for statslig regulering af kunstig intelligens. Men hos EmTech opfordrede Horvitz også til diskussion af ekstreme resultater, der kunne få nogle mennesker til at konkludere det modsatte.

I februar indkaldte han til en workshop, hvor eksperter redegjorde i detaljer for, hvordan kunstig intelligens kunne skade samfundet ved at gøre ting som at rode med aktiemarkedet eller valgresultater. Hvis du er proaktiv, kan du komme med resultater, der er gennemførlige og sætte mekanismer på plads til at forstyrre dem nu, sagde Horvitz.

Den slags snak så ud til at forstyrre nogle af dem, han delte scene med i San Francisco. Gupta fra Google opfordrede folk til også at overveje, hvordan det at tage nogle beslutninger ud af hænderne på mennesker kunne gøre verden mere moralsk, end den er nu.

Maskinlæring er kontrollerbar og præcis og målbar med statistik, sagde hun. Der er så mange muligheder for mere retfærdighed og mere etiske resultater.

skjule