Kako to spriječiti?

Umjetna inteligencija već hara

Europska komisija razmatra mogućnost da iduće godine usvoji direktivu kojom bi obuhvatila sektore visokog rizika, poput zdravstvene skrbi, energetike, transporta i dijelova javnog sektora.
Sci-Tech / Tehnologija | 14. 12. 2020. u 09:30 Bljesak.info

Tekst članka se nastavlja ispod banera

Upotreba umjetne inteligencije (AI) u radu policije, medicinskoj dijagnostici i ciljanom oglašavanju donosi brojne rizike, upozorio je u ponedjeljak regulator EU-a, istaknuvši da ljudi moraju znati osporiti automatizirane odluke. Policija već naveliko u radu koristi analitički potencijal umjetne inteligencije a aktivisti upozoravaju da ih autoritarni režimi koriste i za masovni i diskriminatorni nadzor. Napominju i da se upotrebom te tehnologije katkad krše ljudska prava i propisi o privatnosti podataka, prenosi Hina.

Europski dužnosnici trebali bi utvrditi jasnije smjernice o primjeni postojećih propisa na umjetnu inteligenciju i voditi računa o tome da budući propisi štite temeljna ljudska prava, upozorio je u najnovijem izvješću europski regulator FRA.

"Umjetna inteligencija već utječe na živote milijuna Europljana", ističe agencija, ukazujući na praćenje širenja covida 19 i donošenje odluka o socijalnim naknadama.

"Automatizacija može poboljšati proces donošenja odluka ali može rezultirati i greškama, diskriminacijom i katkad je njezine odluke teško osporiti", napominje FRA.

Europska komisija razmatra mogućnost da iduće godine usvoji direktivu kojom bi obuhvatila sektore visokog rizika, poput zdravstvene skrbi, energetike, transporta i dijelova javnog sektora.

"AI nije nepogrešiv, stvorili su ga ljudi a oni griješe. Zato moraju znati kada se (umjetna inteligencija) koristi, kako funkcionira i kako mogu osporiti automatizirane odluke", istaknuo je u priopćenju direktor Agencije EU-a za temeljna ljudska prava Michael O'Flagerty.

Propisi koji reguliraju AI moraju poštivati sva temeljna ljudska prava, uz odgovarajuće zaštitne mehanizme i jamstvo da ljudi mogu osporiti odluke koje umjetna inteligencija donosi i da kompanije moraju moći objasniti taj proces.

Potrebna su dodatna istraživanja o potencijalno diskriminatornim posljedicama upotrebe umjetne inteligencije kako bi i Europa mogla doskočiti, naglasio je FRA u izvješću.

EU također mora dodatno pojasniti kako se na tu tehnologiju primjenjuju propisi o zaštiti podataka.

Izvješće agencije temelji se na više od 100 intervjua s organizacijama u javnom i privatnom sektoru koje već koriste AI a analiza se temelji na upotrebi tehnologije u Estoniji, Finskoj Francuskoj, Nizozemskoj i Španjolskoj, navodi Reuters.

Kopirati
Drag cursor here to close