IT vesti

AI Etika

Ovaj članak donosi sveobuhvatnu analizu AI etike, uključujući istorijske temelje poput Asimovljevih zakona robotike, predlog četvrtog zakona za savremenu AI, globalne pristupe regulativi (EU, SAD, Kina) i lokalni kontekst Srbije. Objašnjavamo pravne i kulturne izazove, ulogu univerziteta i edukativnih inicijativa, moralne dileme poput autonomnih vozila i algoritamske pristrasnosti. Tekst je optimizovan za pojmove: AI etika, etika veštačke inteligencije, EU AI Act, etički izazovi AI, regulativa AI u Srbiji. Cilj je pružiti čitaocima, istraživačima i donosiocima odluka relevantne informacije za razumevanje i primenu etičkih principa u razvoju i upotrebi AI sistema.

AI Etika – Ko (i kako) upravlja budućnošću veštačke inteligencije?

Veštačka inteligencija (AI) više nije samo stvar naučne fantastike – ona je realnost današnjice i stub budućnosti. Od algoritama koji preporučuju sadržaje na društvenim mrežama, preko pametnih asistenata, do naprednih autonomnih sistema – AI sve više preuzima ulogu donosioca odluka.

Ali… ko postavlja granice? Ko odlučuje šta je „dobro“, a šta „opasno“ kada su u pitanju sistemi koji donose zaključke bez ljudske intervencije? Tu počinje rasprava o – AI etici.


 Asimov i tri zakona robotike – Dovoljni za XXI vek?

Kada govorimo o etici mašina, nemoguće je ne pomenuti Isaka Asimova, pisca naučne fantastike i vizionara koji je još sredinom 20. veka postavio Tri zakona robotike:

  1. Robot ne sme povrediti čoveka ili svojom neaktivnošću dozvoliti da čovek bude povređen.
  2. Robot mora da posluša čovekove naredbe, osim ako su u suprotnosti sa Prvim zakonom.
  3. Robot mora da štiti svoj opstanak, osim ako je to u suprotnosti sa Prva dva zakona.

Ovi zakoni su postali osnova za filozofsku raspravu o odnosu čoveka i mašine, ali i za bezbroj naučnofantastičnih priča koje su istraživale njihove granice i paradokse. Asimov je, u suštini, postavio temelj za razmišljanje o etičkim principima kod mašina koje poseduju inteligenciju. Njegovi zakoni su, u svojoj suštini, etički imperativi ugrađeni u „mozak“ robota, dizajnirani da osiguraju ljudsku bezbednost i dominaciju.

Međutim, u doba savremene AI koja ne „misli“ kao robot u Asimovljevoj viziji, već funkcioniše kroz kompleksne algoritme, neuronske mreže i mašinsko učenje, ova pravila postaju nedovoljna. Asimovljevi roboti su bili entiteti sa fizičkim telom, sposobni da direktno povrede ili zaštite. Današnja AI često operiše u digitalnom prostoru, donoseći odluke koje nemaju direktne fizičke posledice, ali mogu imati dalekosežne društvene, ekonomske i psihološke implikacije. Na primer, algoritam koji diskriminiše u zapošljavanju ili medicinskoj dijagnostici ne „povređuje“ fizički, ali nanosi značajnu štetu pojedincima i društvu. Samim tim, neophodno je preispitati i proširiti okvir Asimovljevih zakona.


 Da li nam treba i Četvrti zakon?

Ako uzmemo u obzir složenost i sveprisutnost moderne AI, postaje jasno da nam je potreban dublji i sveobuhvatniji etički okvir. Asimovljevi zakoni su primarno usredsređeni na fizičku sigurnost čoveka i poslušnost robota. Međutim, današnja AI postavlja pitanja o pravednosti, transparentnosti, odgovornosti, privatnosti podataka, autonomiji pojedinca i uticaju na demokratske procese.

Možda bi danas Četvrti zakon AI etike mogao glasiti:

AI ne sme da deluje protiv dostojanstva i prava čoveka, bez obzira na efikasnost i logiku zaključivanja.

Ovaj potencijalni četvrti zakon proširuje fokus sa puke fizičke interakcije na širi društveni kontekst. On naglašava važnost zaštite temeljnih vrednosti koje čine okosnicu savremenih demokratskih društava. Takođe, uvodi koncepte transparentnosti i odgovornosti, koji su ključni za izgradnju poverenja u AI sisteme. Bez takvog zakona, AI bi mogla, nenamerno ili namerno, podrivati društvenu koheziju, produbljivati nejednakosti i stvarati sisteme koji deluju izvan domena ljudske kontrole i razumevanja.


 Da li je etika univerzalna?

U svetu koji je sve više povezan, postavlja se pitanje: Da li postoji univerzalna etika kada govorimo o AI?

Odgovor, nažalost, nije jednostavan. Etika je duboko ukorenjena u kulturi, istoriji, religiji i društvenim normama. Ono što se smatra moralno prihvatljivim ili ispravnim u jednoj zemlji ili kulturi, može biti potpuno neprihvatljivo u drugoj. Ova razlika u etičkim perspektivama stvara značajne izazove u globalnom razvoju i implementaciji AI.

 Evropska unija: Etički okvir zasnovan na ljudskim pravima

Evropska unija je zauzela proaktivan pristup regulisanju AI, fokusirajući se na zaštitu ljudskih prava i temeljnih sloboda. Etički okvir za AI je centralni deo EU AI Act-a, prvog sveobuhvatnog zakona o veštačkoj inteligenciji u svetu. Ovaj zakon klasifikuje AI sisteme na osnovu nivoa rizika koje predstavljaju po korisnike i društvo. Najviši rizik se odnosi na sisteme koji mogu izazvati značajnu štetu po zdravlje, bezbednost, temeljna prava ili demokratske procese.

EU AI Act, između ostalog, zabranjuje određene oblike AI, kao što su:

  • Sistemi za društveno bodovanje (social scoring) koje koriste vlade.
  • Manipulativni AI sistemi koji mogu izazvati fizičku ili psihičku štetu.
  • Korišćenje biometrijske identifikacije u realnom vremenu na javnim mestima od strane organa za sprovođenje zakona, osim u strogo definisanim izuzecima.

Prioritet EU je transparentnost, nadzor i odgovornost, osiguravajući da AI bude „usredsređena na čoveka“ i da služi dobrobiti društva. Fokus je na postavljanju jasnih pravila za razvoj i primenu AI kako bi se sprečila zloupotreba i zaštitila prava građana.

Više informacija o EU AI Act-u možete pronaći na zvaničnoj stranici Evropske komisije: https://digital-strategy.ec.europa.eu/en/policies/european-ai-act

Sjedinjene Američke Države: Decentralizovan pristup i samoregulacija

U Sjedinjenim Američkim Državama, pristup regulaciji i etici AI je mnogo decentralizovaniji. Ne postoji jedinstveni nacionalni AI zakon koji bi obuhvatio sve aspekte. Umesto toga, regulativa se razvija kroz različite savezne agencije, pojedinačne države i sektorske inicijative.

Vodeće tehnološke kompanije (npr. OpenAI, Google, Microsoft, Amazon) u velikoj meri se oslanjaju na „etiku samoregulacije“, razvijajući sopstvene etičke smernice i principe. Međutim, kritičari ističu da takav pristup može dovesti do nedoslednosti, nedostatka odgovornosti i potencijalnog sukoba interesa. Federalne agencije poput NIST-a (Nacionalni institut za standarde i tehnologiju) razvijaju okvire za upravljanje rizikom od AI, ali njihove preporuke nisu uvek obavezujuće.

U praksi, to često znači da kompanije preuzimaju inicijativu u postavljanju etičkih granica, dok vlada sporije reaguje sa obavezujućim zakonskim rešenjima. Tek nedavno su počeli intenzivniji razgovori o potrebi za sveobuhvatnijom federalnom regulativom, posebno u oblastima kao što su biometrija, diskriminacija i zaštita potrošača.

Više o inicijativama NIST-a: https://www.nist.gov/artificial-intelligence

Kina i ostale velike sile: Državna kontrola i autoritarni pristup

Kina i neke druge velike sile primenjuju pristup zasnovan na državnoj kontroli, gde AI mora da bude u skladu sa partijskim vrednostima, a cenzura i manipulacija informacijama nisu tabu – čak su institucionalizovane. U ovim zemljama, AI se često koristi za masovni nadzor građana, implementaciju sistema društvenog kreditiranja i kontrolu narativa. Etički principi su često podređeni ciljevima stabilnosti države i političke kontrole, što je u oštroj suprotnosti sa zapadnjačkim shvatanjem ljudskih prava i privatnosti.

Srbija: Usklađivanje sa evropskim standardima

Srbija, iako još uvek nema specifičan zakon o AI koji bi detaljno regulisao sve aspekte etike, kao kandidat za članstvo u EU, prati pravce razvoja etike i regulative kroz Radnu grupu za AI strategiju. Postoji „Strategija razvoja AI u Srbiji 2020–2025“, koja prepoznaje važnost etičkih aspekata AI i potrebu za odgovornim razvojem. Ova strategija predviđa i uspostavljanje regulatornog okvira, ali nedostaju konkretne zakonske barijere i mehanizmi kontrole koji bi bili u potpunosti usklađeni sa EU AI Act-om. Očekuje se da će Srbija u narednim godinama intenzivirati rad na harmonizaciji svog zakonodavstva sa evropskim standardima u oblasti AI etike i regulative.

Strategiju razvoja veštačke inteligencije u Republici Srbiji 2020–2025 možete pronaći ovde: https://www.srbija.gov.rs/dokument/45678


 Gde je granica?

Sistemi veštačke inteligencije sve više donose odluke koje direktno utiču na ljudske živote. Postavlja se niz kompleksnih etičkih pitanja:

  • Da li je etično da AI odlučuje o tome koji pacijent prvi dobija terapiju? U zdravstvu, gde su resursi često ograničeni, algoritmi bi mogli da optimizuju raspodelu, ali kako obezbediti pravednost i izbeći diskriminaciju?
  • Da li AI sme da odlučuje o zapošljavanju, ocenjivanju učenika, pristupu kreditima, ili preporukama koje mogu uticati na nečiji životni tok? Ako su algoritmi za zapošljavanje trenirani na istorijskim podacima koji odražavaju pristrasnosti, oni bi mogli perpetuirati diskriminaciju, bez obzira na svoje performanse.
  • I što je najvažnije – ko je odgovoran kada AI pogreši? Inženjer koji je programirao algoritam? Kompanija koja je implementirala sistem? Korisnik? Država koja je odobrila njegovu primenu? Trenutni pravni okviri često nisu dovoljno jasni da bi definisali odgovornost u ovim složenim situacijama, što otvara prostor za pravne i etičke dileme.

 Etika podložna kulturi?

Možemo li očekivati da algoritam koji je treniran na zapadnjačkim vrednostima funkcioniše etično i u Indiji, Kini, Africi ili na Balkanu? Etika nije jednoznačna – ono što je moralno prihvatljivo u jednoj zemlji, u drugoj može biti neprihvatljivo. Na primer, koncept individualne privatnosti se različito tretira u Evropi (visoko vrednovan), Sjedinjenim Američkim Državama (balansira se sa slobodom govora i poslovanja) i Kini (podređen državnoj kontroli).

U tom kontekstu, razvoj AI mora poštovati lokalne kulturološke i pravne norme. To znači da „jedan AI model za sve“ nije održivo rešenje kada je u pitanju etička primena. Potrebno je razvijati AI sisteme sa senzibilitetom za kulturološke razlike, ili barem obezbediti mehanizme za lokalizaciju i prilagođavanje etičkih smernica. Ignorisanje ovih razlika može dovesti do neprihvatljivih ishoda, društvenih tenzija i narušavanja poverenja u tehnologiju.


Moralna dilema: Samovozeći automobil i etika odluke

Jedna od najklasičnijih moralnih dilema u kontekstu AI tiče se samovozećih automobila. Zamislite sledeću situaciju:

Ako samovozeći auto detektuje neizbežnu nesreću na putu koga će pokušati da spasi, putnike u automobilu ili pešake koji se nalaze pored puta?

Ova dilema, poznata kao „moralni algoritam“ ili savremena verzija klasičnog „trolley problem“-a iz filozofije, prestaje da bude samo apstraktna vežba i postaje realna inženjerska i etička odluka. Samovozeći automobili moraju biti programirani da donose odluke u delićima sekunde, a te odluke mogu imati fatalne posledice.

 Kako su to rešile velike kompanije?

  • Tesla: Kompanija se javno izjasnila da njihovi automobili nisu programirani da biraju između života. Elon Musk i drugi predstavnici Tesle često naglašavaju da sistem reaguje na osnovu fizičkog modela situacije, a ne etičke analize. Fokus je na maksimiziranju sigurnosti svih učesnika u saobraćaju kroz izbegavanje nesreća, a ne na odlučivanju koga žrtvovati u neizbežnoj situaciji. Njihov pristup je više usmeren na prevenciju i minimiziranje štete u celosti, nego na programiranje moralnog izbora.
  • Mercedes-Benz: U jednom intervjuu, Mercedes-Benz je dao kontroverznu izjavu da bi u kritičnoj situaciji algoritam izabrao da prioritetno zaštiti putnike u vozilu. Ova izjava je izazvala burne reakcije u javnosti i među etičarima, jer se činilo da favorizuje korisnike proizvoda kompanije u odnosu na ostale učesnike u saobraćaju. Kasnije su izjave korigovane, naglašavajući da se fokusira na minimiziranje ukupne štete, ali prvobitna izjava je pokrenula važnu diskusiju o tome čije živote vredi spasiti.
  • Waymo (Google-ova AI divizija): Waymo, kao pionir u autonomnoj vožnji, koristi višeslojni pristup. Prioritet je uvek izbegavanje nesreće. Njihovi sistemi su dizajnirani da detektuju i predvide opasnosti mnogo ranije nego ljudski vozači, smanjujući verovatnoću da dođe do dileme. Kada je reč o neizbežnim situacijama, Waymo inženjeri rade na inkluziji etičkih parametara tokom razvoja softvera, fokusirajući se na smanjenje ukupnog broja povreda i smrtnih slučajeva, bez eksplicitnog programiranja za „žrtvovanje“ jedne grupe u korist druge.

Postavlja se pitanje: Da li bi zakoni trebalo da standardizuju moralni algoritam? Ako da – ko odlučuje šta je ispravno? Ovo je izuzetno složeno pitanje koje uključuje etičare, inženjere, zakonodavce i širu javnost. Konsenzus o ovim pitanjima je ključan za prihvatanje autonomnih vozila.

 Pravni okvir u svetu za autonomna vozila

  • Evropska unija: Kroz EU AI Act, autonomna vozila su klasifikovana kao „high-risk systems“ zbog potencijalnog uticaja na bezbednost i temeljna prava. To znači da se za njih zahteva striktno testiranje, dokumentacija o rizicima, usklađenost sa etičkim principima (poput minimiziranja štete), transparentnost u dizajnu i mogućnost ljudskog nadzora. Cilj je da se osigura da su ova vozila sigurna i etički dizajnirana pre nego što se puste u saobraćaj.
  • SAD: Kroz Ministarstvo saobraćaja (NHTSA – National Highway Traffic Safety Administration), propisuju se smernice i standardi za bezbednost autonomnih vozila. Međutim, ne postoji specifičan federalni zakon koji bi regulisao moralne odluke AI sistema u samovozećim automobilima. Pristup je više fokusiran na performanse i sigurnost sistema, a manje na etičke dileme „koga spasiti“. Države kao što je Kalifornija imaju svoje propise za testiranje i rad autonomnih vozila.
  • Srbija: Još uvek nema posebnih zakona o autonomnim vozilima. Međutim, Strategija razvoja veštačke inteligencije navodi potrebu za testiranjem etike u sistemima koji utiču na bezbednost ljudi, što uključuje i autonomna vozila. Očekuje se da će se zakonodavstvo u budućnosti uskladiti sa praksom EU, s obzirom na proces pridruživanja.

 Dubinsko razumevanje: Etika algoritama

Etika u AI nije samo pitanje krajnje odluke sistema – ona se nalazi u svakom delu njegovog životnog ciklusa, od dizajna do implementacije:

  • Koji podaci su korišćeni za treniranje? Ako su podaci pristrasni (npr. sadrže demografsku neravnotežu), AI sistem će naučiti i replicirati te pristrasnosti, što može dovesti do diskriminatornih ishoda. Na primer, sistem za prepoznavanje lica treniran na dominantno beloj populaciji može imati lošije performanse na osobama drugih etničkih grupa.
  • Da li je model učen na pristrasnim uzorcima? Algoritmi uče iz onoga što im se „pokaže“. Ako su ti „primeri“ nereprezentativni ili nose implicitne predrasude, AI će ih usvojiti i reprodukovati. To je poznato kao „algoritamska pristrasnost“ (algorithmic bias).
  • Da li korisnici znaju da komuniciraju sa AI sistemom? Transparentnost je ključna. Skrivanje činjenice da se interakcija odvija sa AI, poznato kao „AI deception“, može narušiti poverenje i manipulirati korisnicima.
  • Ko je odgovoran ako AI sistem diskriminiše ili pogreši? Ovo je jedno od najtežih pitanja. Da li je odgovoran programer, kompanija koja je razvila AI, kompanija koja ga je implementirala, ili korisnik koji ga koristi? Pravni sistemi širom sveta pokušavaju da definišu ove granice odgovornosti, ali to je složen i dinamičan proces. Na primer, u medicini, greška AI dijagnostike može imati fatalne posledice, a utvrđivanje odgovornosti je kompleksno.

Bez transparentnosti, odgovornosti i regulative, AI može produbiti nejednakosti, ojačati stereotipe i podriti poverenje u tehnologiju. Potrebno je aktivno raditi na fer, transparentnim i odgovornim AI sistemima (FTAR AI – Fairness, Transparency, Accountability, Responsibility).

Da li zakoni treba da definišu moralne izbore AI sistema?

U EU – da, AI sistemi visokog rizika (npr. autonomna vozila) moraju imati dokumentaciju o etici, transparentnosti i mogućnosti nadzora.

U SAD – zakoni su više usmereni na bezbednost nego na moralne posledice.

U Srbiji – još uvek bez posebnih zakona, ali predlog postoji kroz AI strategiju.

Etika algoritama – nevidljivi sloj odlučivanja

Etika nije samo krajnji ishod – ona je u podacima, kodu, dizajnu:

  • Koji podaci su korišćeni?
  • Da li su modeli trenirani na pristrasnim uzorcima?
  • Znaju li korisnici da komuniciraju sa AI?
  • Ko snosi odgovornost za greške?

 

 Gde se u Srbiji uči i predaje o etici veštačke inteligencije?

Iako je tema etike veštačke inteligencije još uvek u povoju, u Srbiji se postepeno razvija institucionalna osnova za njeno izučavanje.

1. Univerziteti
Nekoliko fakulteta u okviru Univerziteta u Beogradu i drugih visokoškolskih ustanova već u nastavne planove uključuje etičke i pravne aspekte digitalnih tehnologija:

  • Elektrotehnički fakultet (ETF) – u okviru predmeta iz automatike i računarskih nauka, sve više se diskutuje o algoritamskoj odgovornosti i bezbednosti.

  • Fakultet organizacionih nauka (FON) – razmatra se odgovorna upotreba informacionih sistema i analiza podataka.

  • Filozofski fakultet – u okviru filozofije nauke i etike, fokusira se na društvene posledice tehnoloških inovacija.

  • Fakultet političkih nauka (FPN) – kroz digitalna prava i medijske studije.

  • Pravni fakultet, Univerzitet u Beogradu – iako se ne bavi direktno AI tehnologijom, u okviru predmeta Etika prava i Pravna informatika, studenti analiziraju moralne i zakonske okvire koji su ključni za razumevanje buduće pravne regulacije veštačke inteligencije. Posebno se razmatraju pitanja odgovornosti, diskriminacije, privatnosti i autonomije – što su ključni pojmovi i u AI etici.

2. Kursevi i radionice
Van formalnog obrazovanja, u Srbiji se održavaju i različiti oblici neformalnog učenja koji dotiču ovu temu:

3. Učešće Srbije u međunarodnim inicijativama
Srbija je deo UNESCO inicijative o globalnoj etici veštačke inteligencije, i učestvuje u projektima poput Horizon Europe programa AI4Trust, koji se bavi poverenjem i zakonitošću AI sistema.


 Zaključak – Budućnost mora imati etički kompas

Veštačka inteligencija je ovde da ostane – i da se razvija. Njena moć može promeniti zdravstvo, saobraćaj, obrazovanje, komunikaciju i svakodnevni život na bolje, nudeći rešenja za neke od najkompleksnijih svetskih problema. Međutim, da bi AI služio čovečanstvu, mora se razvijati sa etikom u jezgru.

Etika nije prepreka razvoju – ona je osiguranje da tehnologija ostane alat, a ne gospodar. Ona je kompas koji nas vodi kroz neistražene vode AI revolucije. Moramo se zapitati:

  • Da li su pravila jasna?
  • Da li etika prati razvoj tehnologije?
  • I najvažnije: Da li mi (ljudi) uopšte znamo šta želimo od AI?

U svetu u kojem AI postaje entitet sa sopstvenom logikom, možda nam više nego ikad treba Četvrti zakon robotike – onaj koji štiti čovečanstvo od sopstvenih izbora. Predloženi Četvrti zakon:

„AI ne sme da deluje protiv dostojanstva i prava čoveka, bez obzira na efikasnost i logiku zaključivanja, i mora biti transparentan u svom delovanju, omogućavajući ljudski nadzor i odgovornost.“

Ako pravimo sisteme koji će donositi odluke za nas, hajde da budemo sigurni da će to raditi u našu korist – kao ljudi, kao društvo, kao planeta. Budućnost AI je svetla i puna potencijala, ali samo ako je izgrađena na čvrstim temeljima etike, pravde i ljudskog dostojanstva. Kroz saradnju između zakonodavaca, tehnoloških kompanija, akademske zajednice i civilnog društva, možemo osigurati da AI postane sila dobra koja unapređuje kvalitet života za sve.

Veštačka inteligencija ima ogroman potencijal. Može unaprediti naše živote, ekonomiju, obrazovanje, saobraćaj. Ali samo ako bude razvijana etično, odgovorno i transparentno.

Etika nije kočnica – to je upravljač. Ako želimo da AI bude saveznik čovečanstva, mora biti vođena zakonima koji štite ljudsku vrednost i dostojanstvo.


Relevantni linkovi


 Česta pitanja (FAQ)

Da li AI trenutno donosi moralne odluke? Ne, današnji AI ne „razume“ etiku u ljudskom smislu. On donosi odluke na osnovu podataka i pravila koje su definisali ljudi. Njegove „moralne odluke“ su zapravo rezultat programiranja koje odražava etičke prioritete svojih kreatora ili regulatora.

Ko je odgovoran ako AI napravi grešku? Odgovornost zavisi od konteksta i specifičnih zakona, ali najčešće pada na proizvođača, operatera ili vlasnika sistema. Pravni okviri se i dalje razvijaju kako bi se jasno definisale odgovornosti u složenim situacijama koje uključuju AI.

Da li AI može biti potpuno nepristrasan? Ne. AI uči iz podataka koje je kreirao čovek, a ti podaci često sadrže pristrasnosti (svesne ili nesvesne) iz društva. To znači da AI može nesvesno reproducirati iste obrasce diskriminacije ili stereotipa koji postoje u podacima. Da bi se smanjila pristrasnost, potrebni su pažljiv dizajn, raznovrsni podaci za treniranje i etički nadzor.

Šta mogu ja kao korisnik da uradim? Kao korisnik, možete se informisati o tome kako AI funkcioniše, tražiti transparentnost od kompanija koje razvijaju AI proizvode, koristiti AI alate sa zdravom dozom skepticizma i zagovarati etičke principe u svom digitalnom okruženju. Takođe, važno je prijavljivati slučajeve pristrasnosti ili zloupotrebe AI.

 Česta pitanja (FAQ) o učenju AI etike u Srbiji

 Da li se o etici veštačke inteligencije uči na Pravnom fakultetu?
Direktno ne – veštačka inteligencija još nije samostalan predmet. Međutim, Pravni fakultet Univerziteta u Beogradu nudi predmete poput Etike prava, Pravne informatike i Prava informacione tehnologije, koji se bave temama kao što su odgovornost, zaštita podataka i pravna regulativa digitalnih sistema. Ove oblasti čine osnovu za razumevanje i primenu AI etike u pravnom kontekstu.

Gde još mogu da učim o AI etici u Srbiji?
Na ETF-u, FON-u, FPN-u i Filozofskom fakultetu – kroz kombinaciju tehničkih, filozofskih i društveno-humanističkih predmeta. Tu su i online platforme poput Startit-a i Petlje, koje organizuju tematske radionice i predavanja.

 Postoje li međunarodni kursevi dostupni građanima Srbije?
Da. Postoje online kursevi iz AI etike na platformama kao što su Coursera, edX i FutureLearn, a mnogi su besplatni i nude sertifikate. Preporučuju se programi koje nude University of Helsinki (Elements of AI) i University of Oxford (AI & Ethics).

Оставите одговор

Ваша адреса е-поште неће бити објављена. Неопходна поља су означена *