Po fali krytyki X zaostrza zasady. Grok AI nie będzie "rozbierał" zdjęć prawdziwych osób
Platforma X zapowiedziała istotne zmiany w działaniu swojego narzędzia sztucznej inteligencji Grok. Po międzynarodowej krytyce i rosnących obawach dotyczących seksualizowanych deepfake’ów firma ogłosiła, że model AI nie będzie już umożliwiał edytowania zdjęć prawdziwych osób w celu przedstawiania ich w skąpych strojach – w szczególności w jurysdykcjach, gdzie takie praktyki są nielegalne.
Decyzja dotyczy narzędzia Grok, rozwijanego przez spółki powiązane z Elon Musk. Jak poinformowano w oficjalnym komunikacie, wdrożono technologiczne zabezpieczenia, które blokują możliwość generowania lub edytowania zdjęć prawdziwych osób tak, aby wyglądały na ubrane w bikini, bieliznę lub podobne stroje. Ograniczenie obejmuje wszystkich użytkowników, również tych korzystających z płatnych subskrypcji.
Zmiana została ogłoszona krótko po tym, jak prokurator generalny stanu Kalifornia poinformował o wszczęciu analizy dotyczącej rozpowszechniania seksualizowanych deepfake’ów generowanych przez AI, w tym materiałów z udziałem dzieci. W reakcji na te sygnały X potwierdził, że w regionach, gdzie prawo tego zabrania, funkcja taka zostanie całkowicie zablokowana geograficznie.
Jednocześnie platforma zaznaczyła, że edytowanie zdjęć za pomocą Grok będzie dostępne wyłącznie dla płatnych użytkowników. Według firmy ma to stanowić dodatkową warstwę kontroli i ułatwić identyfikację osób, które próbowałyby wykorzystywać narzędzie w sposób sprzeczny z prawem lub regulaminem serwisu.
Elon Musk wyjaśniał w sieci, że przy włączonych ustawieniach NSFW Grok nadal może generować treści zawierające częściową nagość, ale wyłącznie w przypadku "fikcyjnych dorosłych postaci", co – jak podkreślał – ma odpowiadać standardom znanym z filmów z kategorią wiekową R. Zastrzegł przy tym, że zasady te mogą się różnić w zależności od lokalnych przepisów.
W ostatnich dniach funkcja edycji zdjęć Grok znalazła się w centrum krytyki ze strony rządów i regulatorów. Malezjaoraz Indonezja jako pierwsze państwa zdecydowały się zakazać korzystania z narzędzia po doniesieniach o tworzeniu erotycznych treści bez zgody osób przedstawionych na zdjęciach. Z kolei brytyjski regulator mediów Ofcomzapowiedział sprawdzenie, czy X przestrzega obowiązujących w Wielkiej Brytanii przepisów dotyczących treści o charakterze seksualnym.
Do sprawy odniósł się również brytyjski premier Keir Starmer, który ostrzegł, że platforma może utracić prawo do samoregulacji. Później jednak z zadowoleniem przyjął informacje o wprowadzanych ograniczeniach. W reakcji na kontrowersje część brytyjskich parlamentarzystów zdecydowała się nawet opuścić serwis X.
Prokurator generalny Kalifornii Rob Bonta podkreślił, że materiały przedstawiające kobiety i dzieci w seksualizowany sposób są coraz częściej wykorzystywane do nękania w internecie. Eksperci zwracają jednak uwagę, że kluczowe będzie praktyczne egzekwowanie nowych zasad – w tym to, jak system AI rozpozna, czy zdjęcie przedstawia prawdziwą osobę, oraz jakie konsekwencje spotkają użytkowników łamiących regulamin.
Choć decyzja X została przyjęta jako krok w dobrym kierunku, debata wokół odpowiedzialności platform społecznościowych i narzędzi AI za generowane treści pozostaje otwarta. Sprawa Grok pokazuje, że rozwój sztucznej inteligencji coraz częściej zderza się z granicami prawa, etyki i społecznej akceptacji.