Sve više "Googleovih" radnika potpisuje internu peticiju, kojom od poslodavca traže da se ne uključuje u "poslovanje s ratom", a neki su, navodno, dali i otkaz u znak protesta protiv saradnje s američkom vojskom, pišu svjetski mediji.
Oko 4.000 "Googleovih" radnika potpisalo je, navodno, peticiju koja je počela kružiti po kompaniji prije tri mjeseca, sa zahtjevom internetskom divu da ne koristi umjetnu inteligenciju da bi američke vojne dronove osposobila za tačnije raspoznavanje ciljeva koje prate.
Etički razlozi
Internetska stranica za tehnološke vijesti "Gizmodo" saopćila je ove sedmice da je desetak radnika odlučilo dati otkaz iz etičkih razloga.
U "Googleu" nisu odmah odgovorili na medijske upite o takozvanom projektu "Maven", u sklopu kojeg se strojno učenje i inženjerska znanja navodno koriste za razlikovanje ljudi od objekata u videozapisima snimljenim dronovima za potrebe američkog ministarstva odbrane.
- Smatramo da se "Google" ne bi trebao baviti poslovima vezanim za rat - navodi se u peticiji prema kopijama objavljenim na internetu.
Obustava projekata
- Zato tražimo obustavu projekta "Maven" i da "Google" skicira, objavi i provodi u djelo nedvosmisleno načelno stajalište prema kojem ni "Google" ni njegovi proizvođači nikada neće razvijati tehnologiju za potrebe rata.
Peticiju su, među ostalima, poduprli Udruženje za elektroničke granice (EEF), aktivistička grupa za prava na internetu i Međunarodni odbor za kontrolu robotičkog oružja (ICRAC).
Iako se u izvještajima naznačuje da bi rezultate dobivene korištenjem strojeva trebali proučavati analitičari, tehnologija bi mogla utrti put ugrađivanju automatiziranih sistema utvrđivanja ciljeva u naoružane dronove, upozorio je ICRAC u otvorenom pismu podrške "Googleovim" zaposlenicima koji se protive projektu.
"Kada komandanti zaključe da su algoritmi za prepoznavanje objekata pouzdani, bit će u iskušenju da umanje ili u potpunosti isključe element ljudske analize i nadzora iz takvih sistema", piše ICRAC.
"U tom će nas slučaju tek korak dijeliti od izdavanja ovlasti autonomnim dronovima za automatsko ubijanje, bez nadzora ljudi, odnosno bez stvarne ljudske kontrole", upozorili su.
Umjetna inteligencija
Iz "Googlea" su službeno saopćili da cilj njihovog rada na poboljšanju sposobnosti strojeva da prepoznaju objekte nije upotreba u vojnim napadima. No, objavljeni dokumenti skiciraju nešto manje jasnu sliku, naglasili su prošlog mjeseca u postu na internetu Cindy Cohn i Peter Eckersley iz Udruženja za elektroničke granice.
- Ako ispravno iščitavamo javno dostupne dokumente, sistemi koje "Google" podupire ili gradi označavat će na temelju definiranih parametara ljude ili objekte uočene putem dronova kako bi ih analitičari proučili. U nekim slučajevima to će dovesti do raketnih napada na te ljude ili objekte - upozoravaju Cohn i Eckersley.
- Otvaraju se krupna etička pitanja, čak i ako u 'lanac ubijanja' naknadno budu uključeni i ljudi - naglašavaju.
Moralni okviri
EEF i ICRAC izrazili su zadovoljstvo internom raspravom u "Googleu", naglašavajući potrebu za utvrđivanjem moralnog i etičkog okvira za upotrebu umjetne inteligencije u funkciji oružja.
- Upotreba umjetne inteligencije u oružanim sistemima izuzetno je važna tema i zaslužuje javnu raspravu na međunarodnoj razini i vjerovatno međunarodni sporazum kako bi se garantirala globalna sigurnost - poručuje dvoje aktivista.
- Kompanije poput "Googlea" i njihovi pandani širom svijeta moraju razmotriti moguće posljedice i tražiti stvarnu odgovornost i standardna ponašanja od vojske koja traži njihovo stručno znanje. Isti zahtjev moraju uvrstiti i u vlastiti profesionalni kodeks - dodaju.