Hvis kun AI kunne redde os fra os selv

Mennesker har brudt internettet. Cybermobning, chikane, social shaming og ren og skær ubehagelighed plager sådanne sider som Twitter og Reddit, især hvis du tilfældigvis tiltrækker den forkerte slags opmærksomhed. Overvej vejen Ghostbusters stjernen Leslie Jones og PR-chef Justine Sacco blev mål for massemisbrug.

De virksomheder, der driver onlinetjenester, er typisk klemt mellem anklager om ligegyldighed over for chikane og undertrykkelse af ytringsfriheden. Men nu mener Google, at det kan bruge kunstig intelligens til at mindske denne tragedie om de digitale fællesområder. (Oplysning: Jeg arbejdede for Google i 2000'erne.) En teknologisk inkubator i virksomheden, kaldet Jigsaw – tidligere kendt som Google Ideas – siger, at den har til hensigt at spotte og fjerne digital chikane med et automatiseret program kaldet Conversation AI. Som Jigsaws præsident, Jared Cohen, fortalte Kablet , Jeg vil bruge den bedste teknologi, vi har til vores rådighed, til at begynde at tage trolling og andre uhyggelige taktikker, der giver fjendtlige stemmer uforholdsmæssig vægt, [og] til at gøre alt, hvad vi kan for at udjævne vilkårene.



Hacking af det biologiske ur

Denne historie var en del af vores januar 2017-udgave

  • Se resten af ​​problemet
  • Abonner

Det er modigt for Google at tage dette på sig, og det er anderledes end noget af Jigsaws tidligere arbejde. Det har inkluderet Project Shield, som beskytter nyhedssider og websteder, der fremmer ytringsfriheden, mod denial-of-service-angreb. Et andet puslespil, Password Alert, er en Chrome-udvidelse, der beskytter mod phishing-angreb. Det var primært tekniske udfordringer. Men at bekæmpe trolde og online-mobs er også et sociologisk problem.

Ting gennemgået

  • AI Chat

    fra Googles Jigsaw

Conversation AI er en udløber af et af de mest succesrige af Googles moonshot-projekter, Google Brain. Det har været med til at revolutionere maskinlæringsområdet gennem store neurale netværk og givet Google fordele såsom software, der er dygtigere end mennesker til at genkende billeder. Men Conversation AI vil ikke være i stand til at besejre onlinemisbrug. Selvom Jigsaws erklærede mål er at bekæmpe fremkomsten af ​​online-mobs , selve programmet er et langt mere beskedent – ​​og derfor mere plausibelt – projekt. Conversation AI vil primært strømline den community-moderering, der i dag udføres af mennesker. Så selvom det ikke er i stand til at neutralisere den værste adfærd online, kan det skabe mere og bedre diskurs på nogle websteder.

Allusion detektion

Jigsaw starter Conversation AI på New York Times , hvor det vil blive rullet ud om et par måneder for at hjælpe virksomheden med at administrere sine onlinekommentarer. Menneskelige moderatorer gennemgår i øjeblikket næsten alle kommentarer offentliggjort på webstedet. Lige nu læser Conversation AI 18 millioner af dem og lærer at opdage hver enkelt kategori af kommentarer, der bliver afvist – uvæsentlige, off-topic, spam, usammenhængende, betændende, obskønt, angreb på kommentator, angreb på forfatter, angreb på udgiver.

Det Tider 's mål er ikke nødvendigvis at reducere misbrug i sine kommentarer, et problem, som den allerede anser under kontrol. I stedet håber det at reducere de menneskelige moderators arbejdsbyrde. Vi forventer aldrig at have et system, der er fuldt automatiseret, Erica Greene, ingeniørchef for New York Times samfundshold, fortalte mig. Tider samfundsredaktør Bassey Etim vurderer, at et sted mellem 50 og 80 procent af kommentarerne i sidste ende kunne blive automodereret, hvilket frigør medarbejderne til at bruge deres kræfter på at skabe mere overbevisende indhold fra avisens kommentarsektioner.

Det New York Times websted udgør meget forskellige problemer fra real-time gratis-for-alle af Twitter og Reddit. Og i betragtning af begrænsningerne ved maskinlæring – som den eksisterer i dag – kan Conversation AI umuligt bekæmpe misbrug i internettets store åbne rum. På trods af alle de blændende resultater af maskinlæring har den stadig ikke knækket det menneskelige sprog, hvor mønstre som dem, den kan finde i Go eller billeder, viser sig djævelsk undvigende.

Illustrationer af Erik Carter

Det sproglige problem i misbrugsopdagelse er kontekst. Samtale AI's kommentaranalyse modellerer ikke hele strømmen af ​​en diskussion; den matcher individuelle kommentarer mod lærde modeller af, hvad der er gode eller dårlige kommentarer. For eksempel kommentarer til New York Times websted kan anses for acceptable, hvis de har tendens til at indeholde almindelige ord, sætninger og andre funktioner. Men Greene siger, at Googles system ofte har markeret kommentarer til artikler om Donald Trump som misbrug, fordi de citerede ham ved at bruge ord, der ville få en kommentar afvist, hvis de kom fra en læser. For denne slags artikler er Tider vil simpelthen slå automatisk moderering fra.

Det er derfor umuligt at se Conversation AI klare sig godt på et bredt åbent websted som Twitter. Hvordan ville det opdage Holocaust-hentydninger i misbrug tweets sendt til den jødiske journalist Marc Daalder : Dette er dig, hvis Trump vinder, med et billede af en lampeskærm, og Du hører til her, med et billede af en brødrister? Opdagelse af misbrug er afhængig af historisk viden og kulturel kontekst, som en maskinlæringsalgoritme kun kunne opdage, hvis den var blevet trænet i meget lignende eksempler. Selv da, hvordan ville det være i stand til at skelne mellem misbrug og det samme billede med This is what I'm buying if Trump vinder? Niveauet af semantisk og praktisk viden, der kræves, er ud over, hvad maskinlæring i øjeblikket sigter mod.

Derfor vil en dedikeret Twitter-trold uden tvivl finde en ny måde at udtrykke misbrug på, der unddrager sig et system som Conversation AI. Ved at blokere nogle kommentarer, kunne maskinlæring gøre et anstændigt stykke arbejde med at få kommentatorer til at holde op med at henvende sig til at kalde hinanden for bøller og homoseksuelle, hvis det er målet. Men maskinlæring vil ikke være i stand til at forhindre en person, der er fast besluttet på at insinuere, at nogen er queer.

Med andre ord vil Conversation AI gøre det muligt at udføre modereringsopgaver mere effektivt i fællesskaber, der allerede har tendens til at opføre sig ret godt. Det er ude af stand til at udrydde det værste af det misbrug, vi hører om, som ofte dukker op på websteder med minimale moderationsstandarder. Politi overgreb på Twitter og Reddit er umuligt uden grundlæggende at ændre karakteren af ​​disse platforme.

Gated communities

Politisk misbrug på Twitter og Reddit er umuligt uden grundlæggende at ændre karakteren af ​​disse platforme.

Facebooks succes er en påmindelse om, at de fleste mennesker, og bestemt de fleste virksomheder, foretrækker et relativt beskyttet og kontrolleret miljø frem for et, hvor fremmede kan trænge ind i andres forretninger og starte slagsmål. Så hvis Conversation AI eller lignende værktøjer gør det nemmere og mere effektivt at udøve en sådan kontrol, er det en påmindelse om, at løsning af misbrugsproblemet, hvad enten det er gennem menneskelige eller automatiserede midler, kræver at man bevæger sig væk fra maksimal inklusivitet som det højeste ideal online. Selv tilsyneladende åbne fællesskaber som StackExchange og MetaFilter kræver konstant moderatorintervention og lokalpoliti. Virkelig anarkiske fællesskaber, såsom Twitter, 4chan og nogle kanaler på Reddit, viser sig at være undtagelserne online, ikke reglen. Heller ikke anarkiske samfund er pengeskabende. Twitter har haft problemer med at tiltrække en køber, blandt andet på grund af sit ry for misbrug, mens Reddit har haft en høj grad af personaleomsætning og svært ved at tjene penge. Disse websteders vilde vestlige karakter bliver kun mere tydelig, hvis værktøjer som Conversation AI får modererede websteder til at fungere endnu bedre.

Det er værd at bemærke en stor potentiel ulempe. Fordi Conversation AI bliver trænet til at godkende indhold, der følger visse leksikalske, grammatiske og stilistiske retningslinjer, vil det ikke kun bortfiltrere misbrugsindhold. Det kan også have tendens til at slå til alsidig indhold. Det rejser spørgsmål om, hvad censur-mindede regeringer kunne gøre med det. Ligesom Tider kuraterer dets samfund, det samme kan regeringerne i Tyrkiet og Kina kuratere deres. Mens Jigsaw-indsatser som Project Shield sigter mod at give forsvar til politisk følsomme websteder, gør Conversation AI det nemmere at bortfiltrere uønsket tale – men spørgsmålet er, uønsket af hvem? Der er ingen etiket på æsken, der siger: Brug kun for at forhindre misbrug.

David Auerbach er ved at skrive en bog om menneskelige og computersprog og deres konvergens, som udgives af Pantheon. Han arbejdede i 11 år som softwareingeniør hos Google og Microsoft, primært inden for serverinfrastruktur.

skjule