Veštačka inteligencija

Veštačka inteligencija je do pre nekih godinu dana bila na primer srednjeročna budućnost, vizija o tehnologiji koja će jednog dana možda promeniti način na koji radimo i živimo. Međutim, na zalasku 2022. godine, u svakodnevnicu nam je neprimećeno došao servis pod nazivom ChatGPT i vrlo brzo postao glavna vest u tehnološkim, ali i mejnstrim medijima. I dok smo svi pokušavali da dokučimo kako je moguće da je tako nešto svima lako dostupno, već par meseci kasnije iz istraživačkog centra kompanije Open AI stigla je i unapređena, četvrta verzija tog servisa. Četvorka je u novembru 2023. i dodatno unapređena mogućnostima, poput analiziranja PDF tekstualnih fajlova i slika, s mogućnošću prepoznavanja sadržaja i davanja pojašnjenja o istom.

Ne moramo ići toliko daleko sa nagađanjima šta će nova istrenirana peta generacija ovog GPT-ija, najavljena za decembar 2023. doneti, jer je nesumnjivo i ova četvrta revolucionarna pojava koja je vredna analize i promišljanja u pravcu šta i kako dalje. Svima je poznato da je ovaj chat bot bez ikakvih problema prošao Turingov test, a „položio“ je i čuveni pravosudni ispit u Sjedinjenim Američkim Državama.

U ovom tekstu se nećemo baviti tehničkom analizom AI-a odnosno ChatGPT-ija, o čemu već pišu i pričaju ljudi kompetentni za te oblasti, ali svakako veštačku inteligenciju možemo da stavimo u kontekst opasnosti koju ova tehnologija potencijalno nosi i da se pozovemo na uspostavljane regulatornog okvira u kom će se ograničiti njena primena samo na one aspekte koji imaju dominantno pozitivno dejstvo na ljudski rod. Ako za takve propise već nije kasno.

Mnoge zemlje su zabranile ovaj chat bot i isti nije dostupan u okviru njihovih granica. Za neke je to možda političko odnosno pitanje zaštite svojih interesa, dok se mogu naći primeri poput Italije čiji je nadzorni organ za zaštitu podataka o ličnosti iz straga za bezbednost građana prilično impulsivno reagovao na pojavu ChatGPT-ija 4 i odmah postavio pitanje privatnosti korisnika servisa odnosno mogućnost ostvarivanja prava na zaborav, ali i mera za ograničavanje pristupa neprimerenom sadržaju ili ograničenja pristupa maloletnicima. Nakon zabrane koja je trajala nekih mesec dana Open AI je prilagodio način pristupa servisu zahtevu italijanskog poverenika, ograničio je mogućnost pristupa i sesrvis je postao dostupan u Italiji. ChatGPT takođe pogađa i autorskopravni problem potencijalnog kršenja autorskih prava trećih lica, na koja ukazuju drugi servisi. Mnogi od tih slučajeva već su završili na sudu, ali kako su u pitanju kršenja subjektivnih prava, o tome ćemo u drugom tekstu koji će uskoro biti objavljen na blogu.

Na dnevnom nivou se pojavljuju upozorenja stručnjaka na negativna dejstva AI, kao i pozivi da se što pre uspostave etičke i pravne norme koje će kanalisati razvoj ove tehnologije, u okviru koje je ChatGPT još i  jedan od najbezbednijih AI servisa kada je rizik po prava ljudi u pitanju.

AI ACT EU

Prateći ovaj nadolazeći trend razvoja veštačke inteligencije, Evropska komisija (European Commission) odobrila je radnu verziju Uredbe o veštačkoj inteligenciji, u javnosti nazvane AI Act. Ovaj nacrt upućen je  Evropskom parlamentu na usvajanje, a isti je odmah prosleđen i na javnu raspravu koja je u toku. Iako su etičke smernice za upotrebu veštačke inteligencije donete još pre nekoliko godina, ova Uredba predstavlja prvi veliki korak ka regulisanju upotrebe ovih tehnoloških Sistema u Evropi, a svakako je među najznačajnijim globalno.

Novi akt EU nam na samom početku donosi i neophodnu – zvaničnu definiciju veštačke inteligencije kako bi se izbegla tumačenja i nepreciznosti oko toga šta AI zapravo predstavlja, a šta ne. A ovaj Akt prilično široko postavlja stvari i pod tim pojmom podrazumeva softver sa jednom ili više tehnika i pristupa (poput mašinskog učenja, statistike i logike) koji na osnovu datih parametara od strane čoveka, generiše rezultate u vidu sadržaja, predviđanja, preporuka ili odluka pod uticajem okoline sa kojom ima interakciju.

Među primarnim ciljevima AI akta je ukazivanje na rizike od AI-a i tendencija da se oni kategorizuju na bazi rizika koji nose, kao osnovnog kriterijuma. Pa tako AI sistem može biti u kategoriji zabranjenog, visokorizičnog ili označen kao ostali servisi niskog rizika. Tako AI akt zabranjuje na primer one AI sisteme koji bi AI koristili za manipulaciju ljudima za obradu biometrijskih podataka u kontekstu masovnog praćenja ljudi u realnom vremenu na velikom javnom prostoru, stvaranje lažnih identiteta i deepfake-a itd. Kako ove potencijalne primene predstavljaju i najveće pretnje po čovečanstvo, pa je bilo neophodno da se EU Uredbom nedvosmisleno zabrane.

Ipak Uredba pod određenim uslovima dozvolja i neke servise iz kategorije visokorizičnih, čije korišćenje može uticati na bezbednost i ljudska prava. To podrazumeva i neke upotrebe AI u sektorima zdravstvene zaštite, radnih odnosa, obrazovanja, praćenja saobraćaja, ali i obrade biometriskih podataka pomoću AI, pri čemu se posebno ističe mogućnost prepoznavanja emocionalne ekspresije i crta lica. U okviru ove osetljive upotrebe svrstava se i krivično procesna upotreba veštačke inteligencije, koja iako ima društveno opravdanu svrhu, lako može biti i zloupotrebljena. Za ove servise koji su kategorizovani kao visokorizični postoji obaveza sprovođenja prethodne procene uticaja i obezbeđivanja prethodne transparentnosti obrade, a takođe onaj ko kontroliše tehnologiju ima obavezu da jedan ovakav AI sistem adekvatno i označi kao visokorizičan, koja informacija mora biti jasno uočljiva. Tako, ukoliko se na primer na graničnom prelazu koristi tehnologija „prepoznavanja emocija“ uz pomoć AI, subjekat ovakve obrade o tome mora prethodno i nedvosmisleno biti informisan. Ovakvu obradu mora pratiti detaljno informisanje o karakteristikama obrade odnosno tehnologije, o načinu njene primene. Tehnička dokumentacija koja prati ovu tehnologiju i njenu upotrebu čini transparentnom redovno mora biti redovno ažurirana i po svom sadržaju i elementima usklađena sa strogim uslovima koje je Uredba EU propisala.  

U svakom slučaju Akt EU koji reguliše veštačku inteligenciju predstavlja kompleksan, u isto vreme uopšten i striktan dokument, od kog se očekuje da stvori pravnu osnovu za zakonitu upotrebu AI, ali i da bude osnov za nadogradnju drugih podzakonskih propisa i smernica budućim korisnicima ove tehnologije.

Za kraj, to što ovaj tekst nije pisao ChatGPT ne znači da iste ove informacije ne možete dobiti korišćenjem tog servisa. Naprotiv, za detaljno informisanje o AI aktu, etičkim smernicama o korišćenju AI i regulaciji veštačke inteligencije generalno, preporuka je da koristite upravo ChatGPT četvrte generacije.

U cilju boljeg razumevanja pravnog pristupa AI tehnologiji, advokati iz naše kancelarije kreirali su i seminar – Pravni aspekti veštačke inteligencije, prvenstveno za sve pravnike, ali i zainteresovane iz drugih profesija.