Intervju znanost 21.6.2015 9:06

Umetna inteligenca pomembno izboljša obdelavo velikih količin podatkov

pogovarjal se je Aljoša Rehar

Portorož, 21. junija - Obdelava velikih količin podatkov, ki v svetu igrajo vse večjo vlogo, skriva tudi številne pasti, je prepričana strokovnjakinja za strojno učenje z Univerze v Kaliforniji Lise Getoor. Tu lahko pomaga umetna inteligenca, ki izloči nesmiselne ali irelevantne korelacije, je za STA povedala ob robu nedavne konference o semantičnem spletu ESWC 2015.

Portorož.
Mednarodna konferenca o semantičnem spletu ESWC 2015.
Računalniška znanstvenica z Univerze v Kaliforniji Lise Getoor.
Foto: Aljoša Rehar/STA

Kaj so po vaši oceni v tem trenutku glavni trendi na področju umetne inteligence?

Na področju umetne inteligence trendi odlično sovpadajo z obdelavo velikih količin podatkov. Umetna inteligenca lahko pomembno prispeva k bolj inteligentni uporabi teh podatkov, saj lahko iz njih izlušči več vedenja, več semantike in več samega pomena podatkov kot pa npr. statistična sklepanja in preproste korelacije med podatki.

Umetna inteligenca lahko še zlasti pomaga pri uporabi velikih količin podatkov v odločanju, kaj na primer pokazati ali priporočati uporabniku. Poleg domenskih informacij lahko umetna inteligenca upošteva tudi nekatere informacije o uporabniku in na ta način prilagodi svoje odločitve ter ponudi bolj specifične predloge.

Ste strokovnjakinja za področje strojnega učenja, ki se pogosto prepleta s pojmom semantični splet. Lahko na preprost način pojasnite, kaj to je?

Semantični splet si prizadeva prodreti dlje od zgolj prikazovanja podatkov na neki spletni strani. Predstavljajte si spletno stran s kronološkima dejstvoma - nek človek se je rodil takrat in takrat in umrl takrat in takrat. Semantični splet si prizadeva prodreti globlje, na primer razumeti, da je pravzaprav nenavadno, da je ta človek tako dolgo živel. Takšne stvari so za ljudi samoumevne, za računalnike pa ne.

S semantično tehnologijo lahko na enostavnejši način kodiramo določene pomene in povezave med stvarmi na spletu. Da je na primer jasno, da ko govorim o jaguarju, govorim o avtomobilu in ne o živali. Tehnologija omogoča, da stvari povežemo skupaj in da tudi vemo, na kakšen način so povezane. Trenutno je tehnologija sicer šele na začetku - dejstva zna povezati z bazami znanja in logično sklepati o tipih stvari in povezavah med njimi.

Lahko to ponazorite s primerom?

Preproste stvari, npr. razvrščanje spletni strani, so včasih temeljile na principu ključnih besed. Zdaj pa so stvari bolj tipizirane, algoritmi razlikujejo, ali gre pri neki besedi za kraj ali za ime podjetja.

Kaj so glavni projekti oz. izzivi, s katerimi s srečujete?

Na področju strojnega učenja je izziv interpretacija napovednih modelov. Treba je razumeti, zakaj modeli ponudijo neko napoved. Če mi model napove, da bo nek izdelek všeč kupcem z določeno barvo las, je to bedasto, razen če gre seveda za izdelek za barvanje las. Treba je vedeti, kdaj je neka korelacija smiselna in kdaj je irelevantna. Področje semantike lahko pomaga pri iskanju pasti, ki jih prinaša obdelava velikih količin podatkov. Nasploh je treba biti malce previden.

So v prihodnosti ali morda že sedaj mogoče tudi zlorabe takšnih tehnologij?

Do težav pride pri zasebnosti in pri neutemeljenih napovedih. Javnost je treba izobraziti vsaj o osnovah podatkovne znanosti, tako da razumejo principe, po katerih ta deluje. Da stvari niso črne-bele - da podatki napovedujejo to in to -, ampak da se zavedajo, da lahko z različnimi količinami podatkov prideš do različnih napovedi.

So po vašem potrebne tudi zakonodajne spremembe? Bo treba zakone poostriti?

Treba bo razmisliti, kaj bo pomenilo sodelovanje med človekom in strojem z vidika odgovornosti in namernosti dejanj. Trenutno velja, da je za stvari odgovoren človek. Treba bo razviti nove načine razmišljanja. To pa nikakor ne bo lahka naloga.