Kalifornia, znana jako centrum technologicznych innowacji, stara się jednocześnie kształtować i regulować rozwój sztucznej inteligencji (AI). Jednym z najnowszych przykładów jest projekt ustawy SB 1047, który miał na celu ustanowienie bardziej rygorystycznych wymogów dotyczących testowania i monitorowania modeli AI. Propozycja ta spotkała się z ogromnym zainteresowaniem, ale i krytyką – zarówno wśród legislatorów, jak i przedsiębiorstw z branży technologicznej.

SB 1047 miała wymagać od firm budujących największe i najbardziej zaawansowane modele AI regularnego przeprowadzania testów bezpieczeństwa oraz monitorowania potencjalnych zagrożeń. Ustawa zakładała również nadanie prokuratorowi generalnemu Kalifornii uprawnień do pozywania firm, których technologie powodują masowe szkody. W założeniu miało to zapobiegać potencjalnym katastrofalnym konsekwencjom technologii, takim jak użycie AI do tworzenia broni masowego rażenia lub przeprowadzania cyberataków na krytyczną infrastrukturę.

Jeżeli AI nie będzie odpowiednio kontrolowana przez człowieka, może zostać wykorzystana do stworzenia nowego rodzaju zagrożeń dla bezpieczeństwa publicznego i ochrony, w tym broni masowego rażenia, jak również narzędzi do przeprowadzania cyberataków

Senator Scott Wiener, autor ustawy SB 1047
Wypowiedź ekspertów dotycząca ram bezpieczeństwa w ustawodawstwie AI (SB 1047).

Czy Regulacje Ograniczają Rozwój Innowacji?

Krytycy ustawy SB 1047 argumentowali, że proponowane przepisy mogą nadmiernie ograniczać rozwój AI, szczególnie w przypadku mniejszych firm, które nie mają zasobów na spełnianie tak rygorystycznych wymogów. Z drugiej strony, przedstawiciele dużych firm, takich jak Anthropic, wskazywali, że pewne aspekty ustawy mogłyby poważnie wpłynąć na dalsze innowacje w branży. Podobne stanowisko wyraził gubernator Gavin Newsom, który ostatecznie zawetował ustawę, tłumacząc, że wprowadzała ona zbyt wysokie standardy dla wszystkich, niezależnie od ryzyka, jakie może nieść za sobą dany model AI.

Wśród opozycji wobec ustawy można było usłyszeć głosy, że Kalifornia może stać się miejscem mniej przyjaznym dla firm AI, co może wpłynąć na wyprowadzkę części przedsiębiorstw do innych stanów lub krajów, gdzie przepisy są mniej restrykcyjne. Jednocześnie zwolennicy ustawy twierdzą, że bez regulacji, innowacje te będą stanowiły zagrożenie zarówno dla gospodarki, jak i bezpieczeństwa publicznego.

Ustawa SB 1047 jest ważnym krokiem ku zapewnieniu, że rozwój AI będzie bezpieczny i zgodny z interesem publicznym, jednak potrzeba jeszcze wspólnej pracy, by znaleźć odpowiednie zasady

Jack Clark, współzałożyciel Anthropic

Bezpieczeństwo Kontra Innowacja: Jak Znaleźć Równowagę?

Jednym z najważniejszych wyzwań związanych z regulacją AI jest znalezienie odpowiedniej równowagi między zapewnieniem bezpieczeństwa publicznego a umożliwieniem firmom dalszego rozwijania innowacyjnych technologii. Ustawa SB 1047 proponowała „lekki dotyk”, czyli podstawowe wymogi dotyczące bezpieczeństwa, jednak jej przeciwnicy uznali, że wymagania były zbyt ogólne i mogłyby niepotrzebnie skomplikować rozwój nowych projektów, szczególnie dla mniejszych podmiotów.

Podobne wątpliwości dotyczą także ustawy Assembly Bill 2013, która weszła w życie 1 stycznia 2026 roku i nakłada nowe wymogi w zakresie przejrzystości danych treningowych. Wprowadzenie obowiązku udostępniania informacji na temat danych, na których trenowane są modele generatywne, ma na celu ochronę prywatności, ale również ograniczenie potencjalnych uprzedzeń algorytmicznych.

To, że Kalifornia podejmuje takie działania, pokazuje, jak bardzo zaawansowane są prace nad zapewnieniem odpowiedzialnego rozwoju AI, jednak istotne jest, aby nie wstrzymywać przy tym innowacji.

Senator Josh Becker

Podsumowanie

Debata nad regulacją sztucznej inteligencji w Kalifornii wyraźnie ukazuje trudności w równoważeniu bezpieczeństwa publicznego z potrzebą innowacji. Choć SB 1047 i podobne propozycje mają na celu ochronę społeczeństwa przed potencjalnymi zagrożeniami ze strony AI, to jednocześnie istnieje obawa, że mogą one nadmiernie obciążać branżę, szczególnie mniejsze firmy, które nie dysponują środkami na spełnienie nowych wymogów. Z jednej strony, przepisy te są konieczne, aby zapobiec wykorzystaniu AI do szkodliwych celów, z drugiej strony istnieje ryzyko, że nadmierne regulacje spowolnią rozwój technologii, która może przynieść ogromne korzyści społecznościom na całym świecie.