W debacie publicznej pojawiają się od pewnego czasu zastrzeżenia i obawy dotyczące etycznego wykorzystywania sztucznej inteligencji. Zarówno Stany Zjednoczone, jak i Unia Europejska przygotowują swoje wersje regulacji dotyczących użycia takich systemów.
Amerykańska propozycja AI Bill of Rights opiera się o pięć filarów „praw” obywatelskich związanych ze sztuczną inteligencją. Pierwszym filarem jest ochrona przed niebezpiecznymi lub nieefektywnymi systemami AI, nakładająca na twórców obowiązek należytego przygotowania, testowania i monitorowania systemu. „Niebezpieczny system” w tym kontekście to system, który w wyniku błędnego projektowania lub implementacji prowadzi do nieoczekiwanych szkód, a nieefektywność jego polega na nieprawidłowym działaniu, na przykład błędnej klasyfikacji. Kolejnymi elementami jest ochrona przed dyskryminacją wynikającą z użycia AI oraz zapewnienie prywatności i kontroli nad swoimi danymi. W dokumencie zawarto również wymagania dotyczące prawidłowego informowania o wykorzystaniu systemów sztucznej inteligencji i sposobu, w jaki wyniki działania systemu, wpływa na obywatela oraz zapewnienia możliwości „Opt-outu” i kontaktu z osobą, która może pomóc w wyjaśnieniu i rozwiązaniu problemów z tym związanych.
Bill of Rights jest bardzo ogólnikowy w kwestii egzekucji naszkicowanych praw i można zakładać, że jest raczej platformą do rozwoju bardziej szczegółowych przepisów niż gotowymi regulacjami.
Dużo bardziej zaawansowany jest projekt rozporządzenia Parlamentu Europejskiego I Rady Europy w sprawie ustanowienia Zharmonizowanych Przepisów Dotyczących Sztucznej Inteligencji (Akt W Sprawie Sztucznej Inteligencji). O ile Amerykański projekt AI Bill of Rights jest raczej manifestem dotyczącym etycznego wykorzystania sztucznej inteligencji, o tyle projekt Europejski zakłada wprowadzenie ram klasyfikacji systemów i ograniczeń w każdej z tych klas.
Pierwszą z wymienionych klas są systemy stanowiące nieakceptowalne ryzyko. Zawarte w tej kategorii mogą być zarówno klasyfikatory społeczne używane np. przez rząd, jak i AI, które stanowi zagrożenie dla użytkowników poprzez motywowanie do działań niezgodnych z prawem lub mogących im szkodzić. Warto dodać, że implementacje takie jak GPT-3 w praktyce powinny zostać zakwalifikowane do tej kategorii szczególnie w świetle przypadków, takich jak boty medyczne, zbudowane na podstawie tego sieci, doradzające pacjentom samobójstwo. Warto również zauważyć naciski wywierane na EU przez Stany Zjednoczone. Ostatnio ujawniona notatka, która trafiła na biurka ważnych urzędników EU, zwraca uwagę na problem rozwoju generalnej sztucznej inteligencji, w kontekście nadchodzących regulacji, zachęcając do wyłączenia sieci typu GPT-3 poza proponowaną klasyfikację.
Kolejną kategorią są systemy stanowiące wysokie ryzyko. Są to wszelkie implementacje, które mają realny wpływ na infrastrukturę krytyczną, edukację, bezpieczeństwo, zatrudnienie, służby publiczne, kluczowe usługi państwowe i prywatne oraz system sprawiedliwości. Systemy takie będą obwarowane szeregiem wymagań głównie związanych z adekwatnymi zabezpieczeniami, wysoką jakością danych używanych do trenowania i podejmowania decyzji, precyzją, adekwatną dokumentacją i nadzorem. Nie jest do końca jasne, w jaki sposób systemy będą klasyfikowane i jak będzie wyglądało egzekwowanie tych zasad.
Ostatnie dwie kategorie to systemy ograniczonego lub minimalnego ryzyka. W przypadku systemów ograniczonego ryzyka dokument przewiduje obowiązek prawidłowego informowania o wykorzystaniu sztucznej inteligencji. Systemy minimalnego ryzyka to np. systemy filtrowania spamu czy sztuczna inteligencja wykorzystywana w grach komputerowych.
Praktyczne implikacje implementacji tych zasad wydają się dość znaczące szczególnie dla systemów typu GPT-3, które są szczególnie atrakcyjną bazą do budowy wszelkiego rodzaju nowatorskich usług bazujących na czat-botach. Regulacje te będą też miały poważny wpływ na możliwość wprowadzenia aut niepotrzebujących kierowcy. Takie systemy zostaną zapewne zakwalifikowane jako wysokiego ryzyka lecz nie brakuje przesłanek do włączenia ich do kategorii systemów nieakceptowalnych np. w przypadku powtarzających się wypadków.
Warto wspomnieć o grupie przeciwników regulacji, który podważają szczególny brak jasnych zasad dotyczących klasyfikacji. W dużej części są to organizacje finansowane przez firmy wykorzystujące już sztuczną inteligencję. Przyszłość regulacji wydaje się wciąż niepewna, a najwcześniejsza datą zakończenia okresu przejściowego jest rok 2024. Już teraz, jednak, warto brać pod uwagę wskazaną klasyfikację i nachodzące wymagania podczas tworzenia produktów opartych o systemy sztucznej inteligencji.