For nesten nøyaktig 20 år siden slo IBM-datamaskinen Deep Blue verdenssjakkmester Garry Kasparov på sitt eget spill. Det var et sentralt øyeblikk i historien om kunstig intelligens - første gang en datamaskin rundløst hadde beseiret en menneskelig sjakkmester.
Men til alle de som så dette som et tegn på at AI-revolusjonen var på gang, sa kritikere “ikke så fort.” Sjakk var relativt enkelt å knekke, sa de. Den virkelige testen av AI ville være en datamaskin som kunne slå en menneskelig mester på Go, det komplekse gamle kinesiske strategispillet som antok å innebære intuisjon og en forståelse av estetikk. Og den dagen kom neppe snart snart.
'' Det kan gå hundre år før en datamaskin slår mennesker på Go - kanskje enda lenger, '' sa astrofysiker og Go-fan Piet Hut til The New York Times i 1997. '' Hvis en rimelig intelligent person lærte å spille Go, i en noen måneder kunne han slå alle eksisterende dataprogrammer. Du trenger ikke å være Kasparov. ''
Hvis en datamaskin beseiret en Go-mester, opplyste Times, ville det være "et tegn på at kunstig intelligens virkelig begynner å bli like god som den virkelige tingen."
Vel, folkens, det øyeblikket har kommet, hundre år eller så foran planen. AlphaGo, et program utviklet av Googles team av kunstig intelligens av DeepMind, har slått den europeiske Go-mesteren Fan Hui 5 til 0.
Funnene ble rapportert i dag i tidsskriftet Nature .
Go starter ganske enkelt med et 19 med 19 rutenett og to farger på brikker (kalt steiner), svart for den ene spilleren, hvit for den andre. Spillerne gjør svinger med å legge steinene sine på tomme kryss - kryssingspunktene for to rutenettlinjer. Sakte forsøker hver spiller å omringe den andre spillerens steiner, på hvilket tidspunkt de blir fanget og flyttet av brettet. Det kan være flere omkretser på gang på brettet til enhver tid, og det er ofte vanskelig å si hvem som skal fange hvem.
"Go-spillet har lenge blitt sett på som det mest utfordrende av klassiske spill for kunstig intelligens på grunn av det enorme søkeområdet og vanskeligheten med å evaluere brettposisjoner og trekk, " skriver forfatterne.
AlphaGo "lærer" gjennom både trening fra menneskelige eksperter, og gjennom praksis ved å spille mot seg selv. Siden Go har altfor mange mulige trekk for en datamaskin til å bare knuse dataene når de tar sin neste beslutning - et viktig stikkpunkt for tidligere Go-playing AI-innsats - bruker AlphaGo i stedet to forskjellige “dype nevrale nettverk.” Ett nettverk kalles "Policy-nettverk" - dette gir datamaskinen en håndfull lovende trekk å vurdere, basert på tidligere spill, slik at den ikke trenger å knuse gjennom alle mulige trekk. "Verdinettverket" reduserer dybden på søket - det vil si at i stedet for å søke helt til slutten av spillet, hundrevis av trekk unna, kan programmet se bare en håndfull trekk bort for å gjøre valg.
Dette er en stor sak: i tillegg til å være en test av AIs krefter, har det å skape et Go-playing-program som kan slå menneskelige mestere vært noe av et våpenløp. I mange år har forskjellige programmerere og selskaper kjørt seg sammen for å lage Go-versjonen av Deep Blue. Noen har kommet nær. Et fransk program som heter Crazy Stone slo den fem ganger japanske Go-mesteren Yoshio Ishida i 2013, selv om Crazy Stone fikk et handikap (AlphaGo var det ikke) og Ishida hadde ikke blitt ansett som en toppspiller på flere tiår. Så langt har AlphaGo slått andre Go-programmer 99, 8 prosent av tiden.
Bare timer før Google offisielt ga ut nyhetene sine, la Facebook, uten tvil om å bli slått til tross, slått kunngjøringen om at deres egen AI “nærmer seg” de menneskelige Go-mesterne.
Så hvorfor regnes Go som en så kraftig test av AI? Det ville være for reduserende å si at Go er enklere enn sjakk.
"Spillet gjenspeiler spillerne sine ferdigheter i å balansere angrep og forsvar, gjøre steiner til å fungere effektivt, forbli fleksible som svar på skiftende situasjoner, timing, analyse nøyaktig og gjenkjenne motstanderens styrker og svakheter, " forklarer British Go Association om deres nettsted, regnskap for Gos komplekse appell.
Mens sjakk har et gjennomsnitt på 35 lovlige trekk per tur, har Go et gjennomsnitt på 200. Og mens det er noen 10⁴³ mulige konfigurasjoner av et sjakkbrett, et Go-brett har minst 2, 08 X 10¹⁷⁰ — mer konfigurasjoner enn det er atomer i universet. I motsetning til sjakk, der antall brikker på brettet er en veldig god indikator på hvem som vinner, er det veldig vanskelig å vite hvem som er foran i Go.
"Det er ingen god heuristikk for å avgjøre om en stilling er bra eller dårlig for en spiller, " forklarer den britiske Go Association-presidenten Jon Diamond. “Det er delvis analyse, og det er delvis mønstergjenkjenning. Du vurderer brettet på en komplisert måte vi ikke har funnet ut hvordan du kan kopiere på datamaskiner. ”
Diamond sier at han var ganske overrasket over å høre om AlphaGos suksess. "Jeg antar at jeg ikke forventet at dette ville være ærlig mellom fem og ti år, " sier han. "De har gjort en hel god jobb."
Suksessen til AlphaGo kan bety at vi er mye nærmere enn tidligere antatt å ha AI-er som kan utføre på menneskelige nivåer i andre områder. AlphaGo kan være et "springbrett" for andre typer AI-er, sier utviklerne. En AI som kan ta de typer kompliserte, intuitive tilsynelatende avgjørelser som er nødvendige for å vinne Go, kan for eksempel kunne diagnostisere en syk pasient og foreskrive et individualisert behandlingsforløp, ifølge utviklerne.
I mars skal AlphaGo få testet sin mettle igjen, når den går head-to-head med Koreas Lee Sedol, regnet som verdens beste Go-spiller.
"Uavhengig av resultatet, vil det være en meningsfull hendelse i baduk (Go) -historien, " sier Lee i en pressemelding. "Jeg hørte Google DeepMinds AI er overraskende sterk og bli sterkere, men jeg er sikker på at jeg kan vinne i det minste denne gangen."