Umetna inteligenca se uči sama

Iz Googlove hčerinske družbe DeepMind, ki se ukvarja z umetno inteligenco, so sporočili, da se je njihov sistem umetne inteligence AlphaGo Zero sam naučil igranja starodavne, miselno zelo zahtevne kitajske igre go. Gre za kompleksno strateško igro za dva igralca, pri kateri potrebujemo igralno desko z 19 krat 19 polji, po katerih se razvršča črne in bele figure. Cilj igre je (če poenostavimo), s premiki figur zavzeti na igralni deski več prostora od nasprotnika. Sistem AlphaGo je svojo uspešnost predstavil že lani, ko je ta umetna inteligenca premagala aktualnega svetovnega prvaka v goju in najboljšega igralca zadnjega desetletja, Južnokorejca Li Se Dola. Tokrat naj bi šlo za še pomembnejši korak: prvič v zgodovini naj bi namreč umetno ustvarjen sistem sam sebe naučil igrati tako kompleksno igro. Nadgradnja sistema AlphaGo, umetna inteligenca AlphaGo Zero, je s točke popolne nevednosti dosegla mojstrski nivo igranja igre v zgolj nekaj dneh. Človek ji je pomagal samo povsem na začetku, in sicer tako, da je sistem naučil pravil igre. Kot pojasnjujejo, je bila prejšnja različica sistema AlphaGo naučena igranja igre v dveh korakih: v prvem je umetna inteligenca predelala več kot 100 tisoč odigranih iger človeških igralcev in se učila s posnemanjem. V drugem koraku pa so umetni inteligenci dovolili igrati sami proti sebi. Pri novi različici (AlphaGo Zero) pa so razvijalci preskočili prvi korak, tako da je tokratna verzija začela kot nepopisan list, naučili so jo samo pravil igre. AlphaGo Zero je igrala sama prosti sebi in sčasoma postajala vse boljša. Po zgolj nekaj dneh igranja je bila AlphaGo Zero pripravljena na igro s svojo predhodnico, umetno inteligenco AlphaGo in jo tudi gladko premagala. Dejstvo, da se lahko umetna inteligenca uči sama, brez pomoči človeka, je po mnenju strokovnjakov izjemno pomembna prelomnica.