Reģistrējieties, lai lasītu žurnāla digitālo versiju, kā arī redzētu savu abonēšanas periodu un ērti abonētu Rīgas Laiku tiešsaistē.
Apvienoto Nāciju eksperts Kristofs Heinss ceturtdien aicināja pieņemt globālu moratoriju tādu bruņotu robotu izmēģinājumiem, ražošanai un pielietošanai, kuri spēj paši izraudzīties un iznīcināt mērķus bez cilvēka līdzdalības.
ANO ekspertu aicinājums pārtraukt bruņotu automātisku robotu izstrādi nāk tieši laikā... Nē, tas nebūtu precīzi teikts. Paši eksperti apgalvo, ka aizliegums tieši šobrīd ir nepieciešams, bet mēs, pārējie, nemaz nezinājām, ka šādi roboti tiek izstrādāti. Runa ir par ierīcēm, kas automātiski, proti, bez tiešas cilvēka līdzdalības, spēj izraudzīties mērķi un to iznīcināt. Ziņa piesaista uzmanību, jo atdzīvina sinapses tajās smadzeņu daļās, kas glabā atmiņas par vairāk vai mazāk zinātniskas fantastikas tēliem un sižetiem. Kā liecina tīmeklī atrodamās ilustrācijas, ziņa par šiem robotiem pirmām kārtām asociējas ar androīdiem, tādiem kā Terminators. Tie izgatavoti no metāla, bet staigā gluži kā cilvēki, runā gluži kā cilvēki, turklāt bruņojušies ar cilvēka ķermenim pielāgotiem šaujamieročiem. Pēkšņi izrādās, ka tas, par ko līdz šim tikai fantazējuši rakstnieki un kino scenāristi, ir piepildījies – roboti slepkavas ir klāt!
Protams, realitāte ir gan pieticīgāka, gan baismīgāka. Roboti, par kuriem ir runa, nav nekādi androīdi ar mehāniskajā plaukstā sažņaugtiem šaujamajiem. Cik var spriest no skopajām ziņām, pagaidām tie labākajā gadījumā atgādina kosmisko zondi, bet sliktākajā – ir ierīce, kas paslēpta, teiksim, bezpilota lidmašīnas iekšās. Cita lieta, ka šī nosacītā pieticība uzrāda, kādā ziņā Aizeka Azimova robotu pasaules likumi ir naiva fantāzija. Mums te nav darīšana ar robotiem, kas var klausīt vai neklausīt, sadumpoties vai pārprast cilvēku pavēles. Tiem velti aizliegt kaitēt cilvēkam, jo tas būtu tas pats, kas sabārt automātisko putekļusūcēju par to, ka tas atkal iesprūdis pagultē. Šiem robotiem nav šarma, ko sagaidām no mākslīgā intelekta, tie nerunā biedējoši mierīgā tonī kā Hals Kubrika filmā “2001: Kosmosa odiseja”, un to attēli diez vai varētu konkurēt ar “Matriksa” “skrīnseiveriem”. Tie pat nevar pieļaut kļūdas, tāpat kā kļūdas nepieļauj gludeklis vai vistu galvu griešanas mašīna kautuvē. Ja tas nepilda savu funkciju labi, tā nav kļūda, bet gan ierīces nepilnība. Tie vienkārši darbojas saskaņā ar savas mehānikas un programmatūras iespējām. Šajā gadījumā tie saskaņā ar programmu nosaka mērķi un uz to šauj.
Asociācija ar zinātnisko fantastiku noslēpj arī kaujas robotu izgudrošanas savdabīgo ikdienišķību. Fantastikas autorus parasti neinteresē izsekot procesam, kā nonāk līdz robotiem, kas var nogalināt. Ja tas nenotiek pēkšņi (ģeniāla izgudrotāja bezatbildības, kļūdas vai apsēstības rezultātā), tad attīstības process ir aprakstīts ļoti vispārīgi un skaidri zināms tikai gala rezultāts – roboti slepkavas ir izgudroti, sadumpojušies, kā mēs to pieļāvām? Bet kurā brīdī būtu vajadzējis apturēt procesu, lai šādu rezultātu nepieļautu? Nav jau tāda skaidra izšķiršanās mirkļa. Vai nedrīkstēja pieļaut planiera izgudrošanu? Vai bija jāaizliedz ar radio vadāmi lidmašīnu modeļi? Vai bezpilota lidmašīna ir pagrieziena punkts ceļā uz kaut kad nākotnē iespējamu robotu kundzību pār cilvēkiem? Bezpilota lidaparāti ar kameru? Bezpilota lidaparāti ar kameru un vienu raķeti? Tāda pati lidmašīna, tikai automātiska, bez tālvadības? Šajā attīstības procesā ir sava nežēlīga dialektiska loģika, ko optimisti formulē kā tēzi: “Tehnoloģisko progresu nav iespējams apturēt.” Katrs nākamais solis šķiet pašsaprotams un ne īpaši dramatisks, lai gan galarezultāts var nepatīkami pārsteigt.
Protams, aicinājuma autori mēģina pāreju no cilvēka vadāmiem uz automātiskiem kaujas robotiem pasniegt kā dramatiskas izšķiršanās mirkli un fundamentālu robežu. Viens no viņiem, Kristofs Heinss, saka: “Karš, kurā nav apziņas, ir mehānisks slaktiņš.” Protams, varam izvēlēties kādu robežu, kuru vienojamies nepārkāpt. Vismaz varam mēģināt to darīt. Tieši tāpēc, ka nākamo soli spert ir tik viegli, tas, visticamāk, arī tiks sperts, bet tas nenozīmē, ka aizliegumiem nav jēgas, jo ir tomēr atšķirība starp situāciju, kad bruņoti roboti brīvi skraida pa pasauli, un situāciju, kad tie tiek slepeni izstrādāti armijas tehniskajās laboratorijās. Šādam ierobežojumam būtu jēga arī tāpēc, ka vismaz daļa inženieru, kas iesaistīti procesā, kārtējo reizi nesaprot, ko dara, un jūsmīgi stāsta muļķības par karu, kurā cilvēki netiks nogalināti, jo cīnīsies roboti, vai par to, ka automātisko robotu nespēja just emocijas ir izcila priekšrocība, jo cilvēkam tās tikai traucē pieņemt pareizos lēmumus.
Tomēr šī robeža, manuprāt, ir diezgan patvaļīga. Es šaubos, vai ir fundamentāla atšķirība, piemēram, starp situāciju, kad kaut kur ASV sēdošs lidmašīnas “pilots”, skatoties ekrānā, notur mašīnā braucošus afgāņu zemniekus par afgāņu kareivjiem, un bezpilota lidaparāta programmu, kas tāpat neatšķir vienus no otriem. Proti, kāpēc mums šķiet, ka pirmais gadījums ir pieļaujams, bet otrais ne? Kur te ir tā būtiskā atšķirība starp karu “bez apziņas” un mehānisku slaktiņu?
Automātisko kaujas robotu tehnoloģijas pretinieki par argumentu min to, ka par šādu robotu “rīcību” neviens nebūs atbildīgs. Bet jau tagad atbildība par kļūdām ir visai nosacīta. Kad šobrīd tiesājamais ASV bruņoto spēku kareivis Bredlijs Menings (Manning) nodeva WikiLeaks video, kurā bija redzama Reuters žurnālistu Namira Nūreldīna (Noor-Eldeen) un Saīda Čmagha (Chmagh) nāve, ASV armija noraidīja visus pārmetumus. Žurnālisti kopā ar citiem cilvēkiem tika nošauti no helikoptera, kas lidoja, cik var saprast, diezgan lielā augstumā (viņi to sākumā nepamanīja), un mērķēšana notika ar kameraspalīdzību. Iekšējā izmeklēšanā tika secināts, ka žurnālisti bija kopā ar bruņotiem cilvēkiem, viņiem nebija nekādu skaidri redzamu zīmju, kas identificētu viņus kā žurnālistus, un viņu plecos pakārtās kameras bija “viegli sajaukt” ar ieročiem. Vārdu sakot, ja ne “paši vainīgi”, tad vismaz “tehniska kļūme”. Problēma šobrīd ir nevis atbildība, bet tas, ka nav skaidrs, ko vispār nozīmē atbildība šādā atsvešinātā, tehnisko ierīču pastarpinātā karā vai varbūt tomēr slaktiņā.
ANO ekspertu aicinājuma pamatā ir vēlme apsteigt notikumu attīstību. Praktiski izmantojami automātiski kaujas roboti vēl nav īsti radīti. To attīstību kavē tās pašas problēmas, kas kavē cilvēkveidīgā mākslīgā intelekta radīšanu. Ir lietas, ko mākslīgā intelekta programmas var izdarīt daudz labāk par cilvēku, tomēr izdarīt adekvātas izvēles kompleksās, negaidītās situācijās tās vēl nespēj.
Viena no tehnoloģijām, kas atrodas vistuvāk automātiskam robotam ar ieroci, ir tā saucamie roboti sargi, ko izstrādā Dienvidkorejas un vairāku citu valstu ieroču ražotāji. Tie darbojas kā multifunkcionālas novērošanas kameras, kas jau tagad ir aprīkotas ne tikai ar dažādām vides uztveres un analizēšanas ierīcēm, bet arī ar šaujamieročiem. Tiem ir automātiskas mērķēšanas ierīces, bet lēmumu par nosacītā gaiļa nospiešanu pagaidām var pieņemt tikai to operators. Ražotāji ir izteikuši ideju, ka robotus sargus varētu uzstādīt uz Ziemeļkorejas un Dienvidkorejas robežas. Tā ir interesanta doma. Ja nu uz pasaules ir vieta, kur “tehniska kļūme” var izraisīt kodolkaru, tad tā ir šī. Bet doma, manuprāt, ir simptomātiska. Ja man ir jāprognozē, kas varētu izraisīt civilizācijas sabrukumu – vai tas, ka roboti vēršas pret saviem saimniekiem, vai arī tas, ka viens programmētājs neiedomājas, ka fotokameru varētu sajaukt ar ieroci, – es teiktu, ka ticamāks ir otrais variants.