Google Deepmind ja inimkonna tuleviku instituut (The Future of Humanity Institute või FoH) on valmis saanud uuringu, milles katsuti leida vastust küsimusele – kuidas peataksime tehisintellekti või roboti juhul, kui see muutub allumatuks ja ohtlikuks. Lahendus? Suur punane nupp, kirjutab PopSci.com.

Aastal 2013 tehti katseid ühe algoritmiga, mis mängis Tetrist. Ühel hetkel sai algoritm aru, et kui ta mängu pausi peale paneb, ei kaota ta mitte kunagi. FoH väidab, et just nimelt seesugused olukorrad, kus robotid avastavad midagi, mida nad avastada ei tohiks, võivadki viia tõsiste tagajärgedeni.

FoH juht Nick Bostrom on oma raamatus Superintelligence kirjutanud praktiliselt sama tuntud juttu, mida mõned päevad tagasi rääkis Tesla looja Elon Musk: kui tehisintellekti lõa otsas ei hoia, siis õpib ta nii kiiresti end sellise tasemeni, et me jääme lootusetult alla. Momenti, mil tehnoloogiline areng hakkab meile kontrollimatult ja hoomamatult kulgema, nimetatakse tehnoloogiliseks singulaarsuseks.

Kuidas siis turvaliselt „hullunud“ või õigemini liiga tarka masinat taltsutada? Trikitades, ütlevad Deepmind ja FoH. Tehisintellekti tuleb installida sekkumissüsteem või päästik, mida vajutades saab see iseenda sisemusest signaali, et tegevus tuleb lõpetada. Kuna inimest AI enam ei kuula, tuleks otsus tegevus lõpetada masina enese seest, ent see käivitataks siiski kaugjuhtimise teel inimeste poolt. Nii peaks olema võimalik kontrollida robotit, mis enam inimesele alluda ei taha.

Signaal peaks olema eraomanduses ja selle käivitamine saaks teadlaste hinnangul toimuda ainult nende inimeste poolt, kes on tehisintellekti omanikud. Kaugjuhtimine tähendakski seda, et kusagil saaks olema reaalselt midagi suure punase nupu laadset.

Samas, nagu uurijad märgivad, on siin mõistagi mõned üsna lihtsad probleemid: hetkel, kui tehisintellekt on jõudnud tehnoloogilise singulaarsuseni, on ta võimeline ilmselt juba sedasama teksti siin lugema, analüüsima ja sekkumissüsteemi kinni keerama.