Det amerikanske militær ønsker, at dets autonome maskiner forklarer sig selv

Efterretningsagenter og militære operatører kan komme til at stole stærkt på maskinlæring for at analysere enorme mængder data og kontrollere et voksende arsenal af autonome systemer. Men det amerikanske militær ønsker at sikre sig, at dette ikke fører til blind tillid til nogen algoritme.

Defense Advanced Research Projects Agency (DARPA), en afdeling af forsvarsministeriet, der udforsker nye teknologier, finansierer flere projekter, der har til formål at få kunstig intelligens til at forklare sig selv. Tilgangene spænder fra at tilføje yderligere maskinlæringssystemer, der er gearet til at give en forklaring, til udviklingen af ​​nye maskinlæringstilgange, der inkorporerer en belysning ved design.

Vi har nu denne virkelige eksplosion af AI, siger David Gunning, DARPA-programlederen, som finansierer et forsøg på at udvikle AI-teknikker, der inkluderer en forklaring på deres ræsonnement. Grunden til det er hovedsageligt machine learning, og især deep learning.



Deep learning og andre maskinlæringsteknikker har taget Silicon Valley med storm og forbedret stemmegenkendelse og billedklassificering betydeligt, og de bliver brugt i stadigt flere sammenhænge, ​​herunder områder som retshåndhævelse og medicin, hvor konsekvenserne af en fejl kan Vær seriøs. Men selvom deep learning er utrolig god til at finde mønstre i data, kan det være umuligt at forstå, hvordan det når frem til en konklusion. Læringsprocessen er matematisk meget kompleks, og der er ofte ingen måde at oversætte dette til noget, en person ville forstå.

Og selvom dyb læring er særlig svær at fortolke, kan andre maskinlæringsteknikker også være udfordrende. Disse modeller er meget uigennemsigtige og svære for folk at fortolke, især hvis de ikke er eksperter i kunstig intelligens, siger Gunning.

Dyb læring er især kryptisk på grund af dens utrolige kompleksitet. Det er groft sagt inspireret af den proces, hvorved neuroner i en hjerne lærer som reaktion på input. Mange lag af simulerede neuroner og synapser er mærket data, og deres adfærd er indstillet, indtil de lærer at genkende for eksempel en kat på et fotografi. Men modellen lært af systemet er kodet i vægten af ​​mange millioner neuroner, og er derfor meget udfordrende at undersøge. Når et deep-learning netværk genkender en kat, for eksempel, er det ikke klart, om systemet kan fokusere på knurhårene, ørerne eller endda kattens tæppe i et billede.

Ofte betyder det måske ikke så meget, hvis en maskinlæringsmodel er uigennemsigtig, men dette er ikke sandt for en efterretningsofficer, der forsøger at identificere et potentielt mål. Der er nogle kritiske applikationer, hvor du har brug for forklaringen, siger Gunning.

Gunning tilføjer, at militæret udvikler utallige autonome systemer, der utvivlsomt vil være stærkt afhængige af maskinlæringsteknikker som deep learning. Selvkørende køretøjer vil sammen med luftdroner i stigende grad blive brugt i de kommende år, siger han, og de vil blive stadig dygtigere.

Forklarlighed er ikke kun vigtig for at retfærdiggøre beslutninger. Det kan være med til at forhindre, at tingene går galt. Et billedklassificeringssystem, der har lært at fokusere udelukkende på tekstur til katteklassificering, kan blive narret af et lodnet tæppe. Så at give en forklaring kan hjælpe forskere med at gøre deres systemer mere robuste og hjælpe med at forhindre dem, der stoler på dem, i at begå fejl.

DARPA finansierer 13 forskellige forskningsgrupper, som forfølger en række tilgange til at gøre AI mere forklarlig.

Et hold udvalgt til finansiering kommer fra Charles River Analytics, en virksomhed, der udvikler højteknologiske værktøjer til forskellige kunder, herunder det amerikanske militær. Dette team udforsker nye deep-learning-systemer, der inkorporerer en forklaring, såsom dem, der fremhæver områder af et billede, der virker mest relevante for en klassifikation. Forskerne eksperimenterer også med computergrænseflader, der gør maskinens indlæringssystemer mere eksplicit med data, visualiseringer og endda naturlige sprogforklaringer.

Xia Hu , en professor ved Texas A&M University, som leder et andet af de teams, der er udvalgt til finansiering, siger, at problemet også er vigtigt på andre områder, hvor maskinlæring bliver vedtaget, såsom medicin, jura og uddannelse. Uden en form for forklaring eller begrundelse vil domæneeksperter ikke stole på resultaterne, siger Hu. Det er hovedårsagen til, at mange domæneeksperter nægter at anvende machine learning eller deep learning.

skjule