Veštačka inteligencija

Veštačka inteligencija je do pre nekih godinu dana bila na primer srednjeročna budućnost, vizija o tehnologiji koja će jednog dana možda promeniti način na koji radimo i živimo. Međutim, na zalasku 2022. godine, u svakodnevnicu nam je neprimećeno došao servis pod nazivom ChatGPT i vrlo brzo postao glavna vest u tehnološkim, ali i mejnstrim medijima. I dok smo svi pokušavali da dokučimo kako je moguće da je tako nešto svima lako dostupno, već par meseci kasnije iz istraživačkog centra kompanije Open AI stigla je i unapređena, četvrta verzija tog servisa. Četvorka je u novembru 2023. i dodatno unapređena mogućnostima, poput analiziranja PDF tekstualnih fajlova i slika, s mogućnošću prepoznavanja sadržaja i davanja pojašnjenja o istom.

Ne moramo ići toliko daleko sa nagađanjima šta će nova istrenirana peta generacija ovog GPT-ija, najavljena za decembar 2023. doneti, jer je nesumnjivo i ova četvrta revolucionarna pojava koja je vredna analize i promišljanja u pravcu šta i kako dalje. Svima je poznato da je ovaj chat bot bez ikakvih problema prošao Turingov test, a „položio“ je i čuveni pravosudni ispit u Sjedinjenim Američkim Državama.

U ovom tekstu se nećemo baviti tehničkom analizom AI-a odnosno ChatGPT-ija, o čemu već pišu i pričaju ljudi kompetentni za te oblasti, ali svakako veštačku inteligenciju možemo da stavimo u kontekst opasnosti koju ova tehnologija potencijalno nosi i da se pozovemo na uspostavljane regulatornog okvira u kom će se ograničiti njena primena samo na one aspekte koji imaju dominantno pozitivno dejstvo na ljudski rod. Ako za takve propise već nije kasno.

Mnoge zemlje su zabranile ovaj chat bot i isti nije dostupan u okviru njihovih granica. Za neke je to možda političko odnosno pitanje zaštite svojih interesa, dok se mogu naći primeri poput Italije čiji je nadzorni organ za zaštitu podataka o ličnosti iz straga za bezbednost građana prilično impulsivno reagovao na pojavu ChatGPT-ija 4 i odmah postavio pitanje privatnosti korisnika servisa odnosno mogućnost ostvarivanja prava na zaborav, ali i mera za ograničavanje pristupa neprimerenom sadržaju ili ograničenja pristupa maloletnicima. Nakon zabrane koja je trajala nekih mesec dana Open AI je prilagodio način pristupa servisu zahtevu italijanskog poverenika, ograničio je mogućnost pristupa i sesrvis je postao dostupan u Italiji. ChatGPT takođe pogađa i autorskopravni problem potencijalnog kršenja autorskih prava trećih lica, na koja ukazuju drugi servisi. Mnogi od tih slučajeva već su završili na sudu, ali kako su u pitanju kršenja subjektivnih prava, o tome ćemo u drugom tekstu koji će uskoro biti objavljen na blogu.

Na dnevnom nivou se pojavljuju upozorenja stručnjaka na negativna dejstva AI, kao i pozivi da se što pre uspostave etičke i pravne norme koje će kanalisati razvoj ove tehnologije, u okviru koje je ChatGPT još i  jedan od najbezbednijih AI servisa kada je rizik po prava ljudi u pitanju.

AI ACT EU

Prateći ovaj nadolazeći trend razvoja veštačke inteligencije, Evropska komisija (European Commission) odobrila je radnu verziju Uredbe o veštačkoj inteligenciji, u javnosti nazvane AI Act. Ovaj nacrt upućen je  Evropskom parlamentu na usvajanje, a isti je odmah prosleđen i na javnu raspravu koja je u toku. Iako su etičke smernice za upotrebu veštačke inteligencije donete još pre nekoliko godina, ova Uredba predstavlja prvi veliki korak ka regulisanju upotrebe ovih tehnoloških Sistema u Evropi, a svakako je među najznačajnijim globalno.

Novi akt EU nam na samom početku donosi i neophodnu – zvaničnu definiciju veštačke inteligencije kako bi se izbegla tumačenja i nepreciznosti oko toga šta AI zapravo predstavlja, a šta ne. A ovaj Akt prilično široko postavlja stvari i pod tim pojmom podrazumeva softver sa jednom ili više tehnika i pristupa (poput mašinskog učenja, statistike i logike) koji na osnovu datih parametara od strane čoveka, generiše rezultate u vidu sadržaja, predviđanja, preporuka ili odluka pod uticajem okoline sa kojom ima interakciju.

Među primarnim ciljevima AI akta je ukazivanje na rizike od AI-a i tendencija da se oni kategorizuju na bazi rizika koji nose, kao osnovnog kriterijuma. Pa tako AI sistem može biti u kategoriji zabranjenog, visokorizičnog ili označen kao ostali servisi niskog rizika. Tako AI akt zabranjuje na primer one AI sisteme koji bi AI koristili za manipulaciju ljudima za obradu biometrijskih podataka u kontekstu masovnog praćenja ljudi u realnom vremenu na velikom javnom prostoru, stvaranje lažnih identiteta i deepfake-a itd. Kako ove potencijalne primene predstavljaju i najveće pretnje po čovečanstvo, pa je bilo neophodno da se EU Uredbom nedvosmisleno zabrane.

Ipak Uredba pod određenim uslovima dozvolja i neke servise iz kategorije visokorizičnih, čije korišćenje može uticati na bezbednost i ljudska prava. To podrazumeva i neke upotrebe AI u sektorima zdravstvene zaštite, radnih odnosa, obrazovanja, praćenja saobraćaja, ali i obrade biometriskih podataka pomoću AI, pri čemu se posebno ističe mogućnost prepoznavanja emocionalne ekspresije i crta lica. U okviru ove osetljive upotrebe svrstava se i krivično procesna upotreba veštačke inteligencije, koja iako ima društveno opravdanu svrhu, lako može biti i zloupotrebljena. Za ove servise koji su kategorizovani kao visokorizični postoji obaveza sprovođenja prethodne procene uticaja i obezbeđivanja prethodne transparentnosti obrade, a takođe onaj ko kontroliše tehnologiju ima obavezu da jedan ovakav AI sistem adekvatno i označi kao visokorizičan, koja informacija mora biti jasno uočljiva. Tako, ukoliko se na primer na graničnom prelazu koristi tehnologija „prepoznavanja emocija“ uz pomoć AI, subjekat ovakve obrade o tome mora prethodno i nedvosmisleno biti informisan. Ovakvu obradu mora pratiti detaljno informisanje o karakteristikama obrade odnosno tehnologije, o načinu njene primene. Tehnička dokumentacija koja prati ovu tehnologiju i njenu upotrebu čini transparentnom redovno mora biti redovno ažurirana i po svom sadržaju i elementima usklađena sa strogim uslovima koje je Uredba EU propisala.  

U svakom slučaju Akt EU koji reguliše veštačku inteligenciju predstavlja kompleksan, u isto vreme uopšten i striktan dokument, od kog se očekuje da stvori pravnu osnovu za zakonitu upotrebu AI, ali i da bude osnov za nadogradnju drugih podzakonskih propisa i smernica budućim korisnicima ove tehnologije.

ZAŠTITA PODATAKA O LIČNOSTI I AI – ODNOS

Odnos između veštačke inteligencije (AI) i zaštite podataka veoma je važan, a napred ćemo navesti nekoliko ključnih razloga:

Bezbednost i privatnost:

Veštačka inteligencija često koristi ogromne količine podataka kako bi adekvatno trenirala svoje modele. Ova prikupljanja podataka mogu uključivati osetljive informacije o pojedincima. Zaštita podataka postaje esencijalna kako bi se osiguralo da ovi podaci ostanu sigurni od neovlašćenog pristupa i zloupotreba.

Usklađenost sa pozitivnim propisima:

Zakoni o zaštiti podataka, kao što su GDPR u Evropi, ZZPL kod nas ili slični propisi širom sveta, postavljaju jasne smernice o tome kako se moraju tretirati lični podaci. Odgovarajući odnos između AI sistema i zaštite podataka osigurava usklađenost sa zakonima i izbegava pravne komplikacije.

Sticanje i zadržavanje poverenja Korisnika:

Kada korisnici imaju poverenje da se njihovi podaci tretiraju s pažnjom i povećanim nivoom bezbednost, to na prvom mestu doprinosi pozitivnom odnosu prema AI tehnologijama. Nepoštovanje privatnosti može rezultirati gubitkom poverenja korisnika i negativnim percepcijama o pojedinčanim AI sistemima, ali i veštačkoj inteligenciji generalno.

Etički aspekt:

Razvoj i primena AI često postavlja etičke izazove u vezi sa korišćenjem podataka. Kako bi se izbegle nepravilnosti, važno je postaviti etičke smernice i integrisati ih u AI sisteme, čime se obezbeđuje odgovorno ponašanje prema podacima korisnika.

Prevencija pojave diskriminacije:

AI sistemi mogu proizvesti nove ili čak pojačati postojeće društvene nejednakosti ako se treniraju na nepravedan način. Pažljivo upravljanje podacima, uz osiguranje raznolikosti i transparentnosti u procesima obuke, doprinosi smanjenju rizika od diskriminacije.

U suštini, harmoničan odnos između veštačke inteligencije i zaštite podataka ne samo da osigurava pravilno funkcionisanje AI sistema već takođe čuva integritet i sigurnost podataka korisnika, doprinoseći održivom i etičkom korišćenju ove tehnologije.

EDUKACIJA O VEŠTAČKOJ INTELIGENCIJI

U cilju boljeg razumevanja pravnog pristupa AI tehnologiji, advokati iz naše kancelarije kreirali su i seminar sa tom tematikom, najpre kao jednodnevni događaj, koji je zbog velikog interesovanja odmah postao i dvodnevni seminar Pravni aspekti veštačke inteligencije.

Ovaj edukativni program namenjen je prvenstveno za sve pravnike, ali i zainteresovane iz drugih profesija.