To ja napisałem – a może nie? A gdybym skłamał? Jeśli teraz twierdzę, że sztuczna inteligencja nie ruszyła wirtualnym palcem w tekście i nie mówię prawdy – jaka jest moja odpowiedzialność?
Na razie trudno powiedzieć. Między innymi właśnie z tego powodu konieczne jest uregulowanie prawne tematyki sztucznej inteligencji – choć o aspektach praw autorskich pisałem tutaj i tutaj jeszcze zanim to było modne. Dziś skupię się na tym, co kombinuje Unia Europejska – tak zwanym AI Act. Póki nie wywalili nas z Unii, to nas dotyczy.
Za granicą
16 maja amerykański senator Dick Rubin całkiem słusznie uznał, że politycy działali wolno i niewystarczająco w zakresie rozwoju Internetu i sieci społecznościowych. Powiedział to z nadzieją, że w miarę rozwoju sztucznej inteligencji ten błąd się nie powtórzy. I dodał, że nie przypomina sobie wcześniejszej sytuacji „proszenia się” o regulowanie przez samych zainteresowanych.
Bo tak właśnie było. Zeznający przed senatorami szef Open AI, Sam Altman – odpowiedzialny m.in. za szybko rosnącą popularność ChatGPT prosił o nałożenie na siebie ograniczeń. W Chinach raczej się tego nie spodziewajmy, więc Unia może być pierwsza.
AI Act – na czym stoi
Prace nad dokumentem znanym pod tą nazwą trwają już od dłuższego czasu – ale dzięki ostatniej modzie i znacznie zwiększonej widoczności tematu sztucznej inteligencji w mediach, w ostatnich miesiącach zyskały one na widoczności i nasileniu. 11 maja zrobiliśmy kolejny krok – Komisja Rynku Wewnętrznego i Ochrony Konsumentów Parlamentu Europejskiego oraz Komisja Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych zatwierdziły zmiany do dokumentu. Projekt został przyjęty (84 głosy za, 7 przeciw, 12 wstrzymujących się). Kolejnym krokiem jest zatwierdzenie przez Parlament Europejski (przewidywane 12–15 czerwca) i rozpoczęcie negocjacji z Radą w sprawie jej ostatecznego kształtu. Plotka głosi, że zostanie wdrożona jeszcze w tym roku, choć prywatnie nie jestem co do tego zbyt optymistycznie nastawiony.
Zadaniem AI Act jest nie tyle opanowywanie „technik” tworzenia AI czy np. praw autorskim do jej produktów, ale raczej dbanie o ludzi. Na przykład twórcy generatora obrazów Midjourney interweniowali, gdy próbowano go użyć do stworzenia pornografii dziecięcej. Zgłosili to organom ścigania – ale nie z powodu przepisów o sztucznej inteligencji (których brak), ale własnej etyki. A może słyszałeś, że AI głosi, że torturowanie ludzi jest w porządku – o ile są z Korei Północnej. Trzeba coś z tym zrobić.
AI Act – co ma w środku
Przede wszystkim regulacja „oczekuje”, że sztuczna inteligencja będzie bezpieczna i przejrzysta, zawsze rozpoznawalna i identyfikowalna przez człowieka – a także niedyskryminacyjna i przyjazna dla środowiska. Oczywiście część z tych rzeczy wydaje nam się oczywista i bez zastrzeżeń – ale z drugiej strony… jeśli nie ma ich na tej liście, to jak je w razie co powołać?
Możemy też spodziewać się powołania specjalnych organów chroniących obywateli UE przed sztuczną inteligencją. Osoba, która czuje się pokrzywdzona, będzie mogła złożyć do nich skargę – zwłaszcza jeśli istnieje ryzyko negatywnego wpływu na bezpieczeństwo, demokrację lub środowisko.
Co jest zabronione? Po pierwsze – aspekty związane z biometrią. Zarówno identyfikacja osób w czasie rzeczywistym w miejscach publicznych, jak i późniejsza – w tym drugim przypadku, z wyjątkiem najpoważniejszych przestępstw i za zgodą sądu. Niedopuszczalne jest również kategoryzowanie ludzi według wrażliwych cech, takich jak płeć, rasa, pochodzenie etniczne, narodowość, narodowość, religia lub poglądy polityczne. Mówiąc najprościej – historie znane wielu z nas, że Chińczycy są tak oceniani przez władze.
A słyszeliśmy o filmie „Raport mniejszości”? Było tam prognozowanie przestępczości. Ustawa o sztucznej inteligencji zabrania stosowania podobnych systemów, które umożliwiają profilowanie potencjalnych przestępców na podstawie lokalizacji geograficznej lub zachowania i cech tych osób. A także systemów rozpoznawania emocji, które służą nie tylko do walki z przestępczością, ale także do nauki czy pracy. Odrzucane jest również samowolne pobieranie danych biometrycznych z mediów społecznościowych lub nagrań z monitoringu w celu tworzenia baz danych rozpoznawania twarzy.
Ryzyka i roszczenia
Warto przytoczyć ocenę Panoptykon – pokazuje ona dodatkowe warstwy prawnego problemu sztucznej inteligencji, nad którymi parlamentarzyści powinni się zastanowić. Sugeruje klasyfikowanie sztucznej inteligencji jako systemu wysokiego ryzyka, niezależnie od ryzyka poważnych szkód. Albo wprowadzenie prawa do otrzymywania wyjaśnień nawet za decyzje podjęte przez sztuczną inteligencję, w których przewinął się człowiek. A także możliwość, że przedstawiciele organizacji społecznych włączą się w sprawy AI.
Prawa autorskie to oczywiście nadal ryzyko. Przykładem będzie np. Greg Rutkowski – wpisanie komendy typu „flying bird by greg rutkowski” nie daje już oczekiwanego i popularnego wówczas efektu. Na razie jednak umożliwienie „opt-out” sprawia wrażenie dobrej woli ze strony twórców narzędzia – czy tak powinno zostać?
Podsumujmy
Właśnie ze względu na wspomniane zagrożenia i wątpliwości, AI Act jest często przedstawiany pod hasłem regulacji prawnej „etycznego rozwoju” AI. Na razie podobnych rozwiązań nie mamy ani w Stanach Zjednoczonych, ani – może zresztą nie na razie, a nigdy – w Chinach. Nie zdziwię się jednak, gdy stanie się tak jak z RODO – inne miejsca świata zaczną podpatrywać i ściągać te przepisy z unijnych. Póki co – kibicujmy ich wprowadzeniu. I przypominam Sama Altmana – kibicujmy wraz z samymi zainteresowanymi.