To ja napi­sa­łem – a może nie? A gdy­bym skła­mał? Jeśli teraz twier­dzę, że sztuczna inte­li­gen­cja nie ruszyła wir­tu­al­nym pal­cem w tek­ście i nie mówię prawdy – jaka jest moja odpo­wie­dzial­ność?

Na razie trudno powie­dzieć. Mię­dzy innymi wła­śnie z tego powodu konieczne jest ure­gu­lo­wa­nie prawne tema­tyki sztucz­nej inte­li­gen­cji – choć o aspek­tach praw autor­skich pisa­łem tutaj tutaj jesz­cze zanim to było modne. Dziś sku­pię się na tym, co kom­bi­nuje Unia Euro­pej­ska – tak zwa­nym AI Act. Póki nie wywa­lili nas z Unii, to nas doty­czy.

Za gra­nicą

16 maja ame­ry­kań­ski sena­tor Dick Rubin cał­kiem słusz­nie uznał, że poli­tycy dzia­łali wolno i nie­wy­star­cza­jąco w zakre­sie roz­woju Inter­netu i sieci spo­łecz­no­ścio­wych. Powie­dział to z nadzieją, że w miarę roz­woju sztucz­nej inte­li­gen­cji ten błąd się nie powtó­rzy. I dodał, że nie przy­po­mina sobie wcze­śniej­szej sytu­acji „pro­sze­nia się” o regu­lo­wa­nie przez samych zain­te­re­so­wa­nych.

Bo tak wła­śnie było. Zezna­jący przed sena­torami szef Open AI, Sam Alt­man – odpo­wie­dzialny m.in. za szybko rosnącą popu­lar­ność Cha­tGPT pro­sił o nało­że­nie na sie­bie ogra­ni­czeń. W Chi­nach raczej się tego nie spo­dzie­wajmy, więc Unia może być pierw­sza.

AI Act – na czym stoi

Prace nad doku­men­tem zna­nym pod tą nazwą trwają już od dłuż­szego czasu – ale dzięki ostat­niej modzie i znacz­nie zwięk­szo­nej widocz­no­ści tematu sztucz­nej inte­li­gen­cji w mediach, w ostat­nich mie­sią­cach zyskały one na widocz­no­ści i nasi­le­niu. 11 maja zro­bi­li­śmy kolejny krok – Komi­sja Rynku Wew­nętrz­nego i Och­rony Kon­su­men­tów Par­la­mentu Euro­pej­skiego oraz Komi­sja Wol­no­ści Oby­wa­tel­skich, Spra­wie­dli­wo­ści i Spraw Wew­nętrz­nych zatwier­dziły zmiany do doku­mentu. Pro­jekt został przy­jęty (84 głosy za, 7 prze­ciw, 12 wstrzy­mu­ją­cych się). Kolej­nym kro­kiem jest zatwier­dze­nie przez Par­la­ment Euro­pej­ski (prze­wi­dy­wane 12–15 czerwca) i roz­po­czę­cie nego­cja­cji z Radą w spra­wie jej osta­tecz­nego kształtu. Plotka głosi, że zosta­nie wdro­żona jesz­cze w tym roku, choć pry­wat­nie nie jestem co do tego zbyt opty­mi­stycz­nie nasta­wiony.

Zada­niem AI Act jest nie tyle opa­no­wy­wa­nie „tech­nik” two­rze­nia AI czy np. praw autor­skim do jej pro­duk­tów, ale raczej dba­nie o ludzi. Na przy­kład twórcy gene­ra­tora obra­zów Midjo­ur­ney inter­we­nio­wali, gdy pró­bo­wano go użyć do stwo­rze­nia por­no­gra­fii dzie­cię­cej. Zgło­sili to orga­nom ści­ga­nia – ale nie z powodu prze­pi­sów o sztucz­nej inte­li­gen­cji (któ­rych brak), ale własnej etyki. A może sły­sza­łeś, że AI głosi, że tor­tu­ro­wa­nie ludzi jest w porządku – o ile są z Korei Pół­noc­nej. Trzeba coś z tym zrobić.

AI Act – co ma w środku

Przede wszyst­kim regulacja „oczekuje”, że sztuczna inte­li­gen­cja będzie bez­pieczna i przej­rzy­sta, zawsze roz­po­zna­walna i iden­ty­fi­ko­walna przez czło­wieka – a także nie­dy­skry­mi­na­cyjna i przy­ja­zna dla śro­do­wi­ska. Oczy­wi­ście część z tych rze­czy wydaje nam się oczy­wi­sta i bez zastrze­żeń – ale z dru­giej stro­ny… jeśli nie ma ich na tej liście, to jak je w razie co powo­łać?

Możemy też spo­dzie­wać się powo­ła­nia spe­cjal­nych orga­nów chro­nią­cych oby­wa­teli UE przed sztuczną inte­li­gen­cją. Osoba, która czuje się pokrzyw­dzona, będzie mogła zło­żyć do nich skargę – zwłasz­cza jeśli ist­nieje ryzyko nega­tyw­nego wpływu na bez­pie­czeń­stwo, demo­kra­cję lub śro­do­wi­sko.

Co jest zabro­nione? Po pierw­sze – aspekty zwią­zane z bio­me­trią. Zarówno iden­ty­fi­ka­cja osób w cza­sie rze­czywistym w miej­scach publicz­nych, jak i póź­niej­sza – w tym dru­gim przy­padku, z wyjąt­kiem naj­po­waż­niej­szych prze­stępstw i za zgodą sądu. Nie­do­pusz­czalne jest rów­nież kate­go­ry­zo­wa­nie ludzi według wraż­li­wych cech, takich jak płeć, rasa, pocho­dze­nie etniczne, naro­do­wość, naro­do­wość, reli­gia lub poglądy poli­tyczne. Mówiąc naj­pro­ściej – histo­rie znane wielu z nas, że Chiń­czycy są tak oce­niani przez wła­dze.

A sły­sze­li­śmy o fil­mie „Raport mniej­szo­ści”? Było tam pro­gno­zo­wa­nie prze­stęp­czo­ści. Ustawa o sztucz­nej inte­li­gen­cji zabra­nia sto­so­wa­nia podob­nych sys­te­mów, które umoż­li­wiają pro­fi­lo­wa­nie poten­cjal­nych prze­stęp­ców na pod­sta­wie loka­li­za­cji geo­gra­ficz­nej lub zacho­wa­nia i cech tych osób. A także sys­te­mów roz­po­zna­wa­nia emo­cji, które służą nie tylko do walki z prze­stęp­czo­ścią, ale także do nauki czy pracy. Odrzu­cane jest rów­nież samo­wolne pobie­ra­nie danych bio­me­trycz­nych z mediów spo­łecz­no­ścio­wych lub nagrań z moni­to­ringu w celu two­rze­nia baz danych roz­po­zna­wa­nia twa­rzy.

Ryzyka i rosz­cze­nia

Warto przy­to­czyć ocenę Panop­ty­kon – poka­zuje ona dodat­kowe war­stwy praw­nego pro­blemu sztucz­nej inte­li­gen­cji, nad któ­rymi par­la­men­ta­rzy­ści powinni się zasta­no­wić. Suge­ruje kla­sy­fi­ko­wa­nie sztucz­nej inte­li­gen­cji jako sys­temu wyso­kiego ryzyka, nie­za­leż­nie od ryzyka poważ­nych szkód. Albo wpro­wa­dze­nie prawa do otrzy­my­wa­nia wyja­śnień nawet za decy­zje pod­jęte przez sztuczną inte­li­gen­cję, w któ­rych prze­wi­nął się czło­wiek. A także moż­li­wość, że przed­sta­wi­ciele orga­ni­za­cji spo­łecz­nych włą­czą się w sprawy AI. 

Prawa autor­skie to oczy­wi­ście na­dal ryzyko. Przy­kładem będzie np. Greg Rut­kow­ski – wpi­sa­nie komendy typu „fly­ing bird by greg rut­kow­ski” nie daje już ocze­ki­wa­nego i popu­lar­nego wów­czas efektu. Na razie jed­nak umoż­li­wie­nie „opt-out” spra­wia wra­że­nie dobrej woli ze strony twór­ców narzę­dzia – czy tak powinno zostać?

Pod­su­mujmy

Wła­śnie ze względu na wspo­mniane zagro­że­nia i wąt­pli­wo­ści, AI Act jest czę­sto przed­sta­wiany pod hasłem regu­la­cji praw­nej „etycz­nego roz­woju” AI. Na razie podob­nych roz­wią­zań nie mamy ani w Sta­nach Zjed­no­czo­nych, ani – może zresztą nie na razie, a ni­gdy – w Chi­nach. Nie zdzi­wię się jed­nak, gdy sta­nie się tak jak z RODO – inne miej­sca świata zaczną pod­pa­try­wać i ścią­gać te prze­pisy z unij­nych. Póki co – kibi­cujmy ich wpro­wa­dze­niu. I przy­po­minam Sama Alt­mana – kibi­cujmy wraz z samymi zain­te­re­so­wa­nymi.