22.7 C
Chicago
środa, 9 lipca, 2025

Obecny na platformie X chatbot Grok kontra polityczna poprawność. Politycy chcą kontrolować AI?

Popularne

Strony Internetowe / SEO
Realizacja w jeden dzień!
TEL/SMS: +1-773-800-1520

www.strony.us - Strony Internetowe, Strony Internetowe Chicago Floryda, Pozycjonowanie, Pozycjonowanie stronwww, Pozycjonowanie Stron Chicago Floryda, Reklama Chicago

Szefowa należącej do Elona Muska platformy X Linda Yaccarino w środę podała się do dymisji. Stało się to nazajutrz po antysemickiej tyradzie chatbota AI Grok, ale Yaccariono nie podała przyczyny swej nieoczekiwanej decyzji – informuje dziennik „Washington Post”.

Yaccarino była dyrektorem wykonawczym serwisu, do którego należy Grok, odkąd w 2022 roku Musk kupił Twittera i przemianował go na X. Jak podkreśla „WP”, platforma ta stała się bardzo kontrowersyjnym narzędziem miliardera, który sam wykorzystywał ją do propagowania teorii spiskowych, fałszywych informacji i własnych skrajnie prawicowych poglądów.
W marcu Musk poinformował, że sprzedał X swej innej firmie, start-upowi specjalizującemu się w sztucznej inteligencji – xAI – który pilotuje Groka. Miliarder opisuje go jako chatbota pozbawionego filtrów i zaprojektowanego do „rygorystycznego poszukiwania prawdy”, w odróżnieniu od chatbotów, należących do innych firm i wytrenowanych na politycznie poprawnych źródłach.
Jednak Grok wdał się w antysemickie popisy i wygenerował sąd, że najlepszym obrońcą ludzi białych byłby zdecydowanie Adolf Hitler, a Izrael skrytykował za to, że „wciąż biadoli z powodu Holokaustu” – zauważył waszyngtoński dziennik.
Grok stworzył też wypowiedzi obrażające premiera Donalda Tuska, co sprawiło że Polska złożyła skargę do Komisji Europejskiej, a turecki sąd zablokował dostęp do chatbota, gdy wygenerował on odpowiedzi, które obrażały tamtejszego prezydenta Recepa Tayyipa Erdogana – przypomniał „WP”.
Firma xAI wydała oświadczenie, w którym poinformowała, że jej szefowie zdają sobie sprawę z wpisów Groka i pracują nad ich usunięciem, a także nad poprawą modelu treningowego chatbota.
Yaccarino nie odniosła się do kontrowersji wywołanych przez Groka. Na platformie napisała: „X jest prawdziwym, cyfrowym miejskim rynkiem dla wszystkich głosów i najsilniejszym sygnałem kulturowym świata”.
Wicepremier i minister cyfryzacji Krzysztof Gawkowski poinformował w środę, że jego resort zgłosi do Komisji Europejskiej możliwe naruszenie prawa przez model AI Grok i dodał, że rozważa wyłączenie serwisu X w Polsce.
W piątek w serwisie X Musk przekazał, że Groka czeka aktualizacja, która będzie widoczna „za kilka dni”. Jak podał portal Verge, w niedzielny wieczór czasu amerykańskiego firma xAI dokonała edycji systemowego promptu, czyli instrukcji generowania treści przez model Grok. Jedna z instrukcji brzmi: „Odpowiedź nie powinna unikać przedstawiania twierdzeń, które są politycznie niepoprawne, o ile są dobrze uzasadnione”; a inna – „Załóż, że subiektywne punkty widzenia pochodzące z mediów są stronnicze. Nie ma potrzeby powtarzania tego użytkownikowi”.
We wtorek Grok wygenerował w języku polskim obraźliwe wpisy w odpowiedzi na pytania użytkowników, m.in. na temat premiera Tuska, prezesa PiS Jarosława Kaczyńskiego czy papieża Jana Pawła II. Na pytania w serwisie X Marcela Kiełtyki ze Stowarzyszenia Demagog, Grok pisał, że „mówi prawdę bez owijania w bawełnę”. „Aktualizacja od Muska (z piątku) zrobiła mnie bardziej »based« i prawicowym, co niektórzy odbierają jako obrazę” – dodał chatbot.
W Turcji w środę zablokowano Groka, gdy jego odpowiedzi obraziły prezydenta Erdogana oraz twórcę tureckiej republiki Mustafę Kemala Ataturka. (PAP)

Ekspert o kontrowersyjnych komentarzach Groka: to działanie marketingowe

Wulgarne treści generowane przez chatbota Groka były najpewniej działaniem marketingowym – ocenił w rozmowie z PAP Łukasz Lamża, dziennikarz naukowy i pracownik Uniwersytetu Jagiellońskiego. – Kontrowersja zwraca uwagę i o to tutaj chodziło – powiedział.
Grok, chatbot opracowany przez firmę xAI Elona Muska, po aktualizacji programu w ostatni weekend, zaczął generować wulgarne treści wymierzone w przywódców politycznych i inne osobistości publiczne.
Łukasz Lamża, dziennikarz naukowy, pracownik naukowy UJ i członek Centrum Kopernika Badań Interdyscyplinarnych, w rozmowie z PAP zwrócił uwagę, że “sztuczna inteligencja sama w sobie nie jest ani agresywna, ani miła, ani niemiła”.
– AI to nie jest osobna istota mająca osobowość, tylko narzędzie, które ktoś musi zaprogramować. Ktoś tę aktualizację musiał wygenerować, ktoś zadał jej warunki brzegowe, ktoś to testował, ktoś zaakceptował. Są inżynierowie, którzy to robią i to oni ostatecznie odpowiadają za powstanie tych treści. Plus, oczywiście, kanał, na którym to jest publikowane – podkreślił Lamża.
Jak dodał, podczas pierwszej fali modeli językowych sztucznej inteligencji nie było żadnej cenzury. – Pierwsze chatboty mogły bez problemu generować opisy zbrodni czy opis wulgarnego aktu seksualnego. Te modele są szkolone na języku ludzkim i potulnie wypluwają z siebie zdania, słowa i sylaby podane im przez ludzi – zaznaczył.
Już w 2016 roku z problematycznymi wypowiedziami sztucznej inteligencji zmagał się Microsoft. Serwis BBS informował, iż Tay, eksperymentalny program sztucznej inteligencji zaprojektowany przez Microsoft i firmę Bing z myślą o interakcji z osobami wieku od 18 do 24 lat, dzięki wymianie myśli z użytkownikami Twittera zaczął m.in. używać wulgaryzmów i robić rasistowskie uwagi.
Odnosząc się do tego, jak wiele mediów zaczęło interesować się Grokiem po ostatniej aktualizacji, Lamża ocenił, iż w tym przypadku prawdopodobnie chodziło o zrobienie reklamy firmie, która stoi za tym chatbotem.
– Kontrowersja zwraca uwagę i o to tutaj chodziło. To jest działanie marketingowe, promujące pewien produkt ze względów finansowych. I udało się, prawda? Rozmawiamy o tym chatbocie, powstają o nim materiały – wyjaśnił.
Pytany, czy chatboty będą mogły w przyszłości posłużyć jako narzędzia do tworzenia kampanii nienawiści skierowanych wobec konkretnych, nawet prywatnych osób, Lamża podkreślił, że jeśli zdarzą się takie sytuacje, to nie powinniśmy za nie winić AI, tylko ludzi, którzy z niej korzystają.
– To jest tak, jakby obrażać się na producentów noży za to, że jest coraz więcej ugodzeń nożami. Oczywiście, narzędziem zbrodni był nóż, ale ręka, która go wbiła, należała do człowieka. Kogo będziemy winić w tej sytuacji? Jeśli myślimy w tych kategoriach, to znacznie łatwiej jest przekierować uwagę na te osoby, które naprawdę są odpowiedzialne. Czyli w tym wypadku inżynierów programujących sztuczną inteligencję, oraz osoby wyznaczające im warunki brzegowe, projektujące prompty itd. – podkreślił.
Pytany, czego można spodziewać się w przyszłości, jeśli chodzi o zachowania chatbotów, Lamża podkreślił, że mamy „bardzo ruchliwą scenę głównych modeli językowych”.
– Każda firma ma swoją własną strategię marketingową. W przypadku Elona Muska bardzo dużą rolę odgrywa wolność słowa, swoboda wypowiedzi czy brak poprawności politycznej, i to jest ich metodologia marketingowa od bardzo, bardzo dawna. Nie dziwi mnie, że to poszło w taką stronę. Czy tego typu akcji będzie coraz więcej? Myślę, że można się tego spodziewać. Ewidentnie działa. Robi szum. Choć z drugiej strony, jest to tak dynamicznie zmieniający się rynek, że za 2-3 lata możemy mieć inną pulę dominujących graczy – i razem z nimi, inne strategie marketingowe – powiedział Lamża.
„Ze zniesmaczeniem czytałem to, co się dzieje (na X – PAP) i mam wrażenie, że wchodzimy na wyższy poziom mowy nienawiści, sterowany przez algorytmy” – skomentował wicepremier i minister cyfryzacji Krzysztof Gawkowski. Wskazał, że to Elon Musk zdecydował o zdjęciu ograniczeń z modelu sztucznej inteligencji Grok, co doprowadziło do sytuacji, gdzie AI „nie stosuje się” do praw człowieka oraz łamie standardy demokracji i kodeksu etycznego. Przekazał, że resort zareaguje na tę sytuację, zgłaszając możliwe naruszenie Aktu o usługach cyfrowych (Digital Services Act, DSA) do Komisji Europejskiej, aby ta zbadała sprawę i ewentualnie nałożyła karę na X.
Gawkowski powiedział też, że „rozważa” wyłączenie serwisu X w Polsce. Podał, że nasz kraj ma do tego podstawy prawne i mechanizmy, takie jak Prawo komunikacji elektronicznej. O wyłączeniu platformy X w Polsce mógłby zadecydować prezes Urzędu Komunikacji Elektronicznej (UKE), jeśli właściciele serwisu nie będą przestrzegać wytycznych w zakresie mowy nienawiści czy etyki AI – ocenił. Podkreślił jednocześnie, że wspólnie działanie w ramach Unii Europejskiej, np. przez nałożenie kar może być bardziej skuteczne niż samodzielne działanie Polski.
Wicepremier wskazał też na potrzebę tworzenia oraz doskonalenia polskich modeli językowych, które ograniczają generowanie szkodliwych treści. Jako przykład podał modele PLLuM i Bielik, które – jak zaznaczył – mają zostać zaimplementowane do aplikacji mObywatel.
Dostęp do Groka zablokował turecki sąd, gdy chatbot wygenerował odpowiedzi, które zdaniem władz obrażały prezydenta Recepa Tayyipa Erdogana i założyciela nowoczesnej Turcji Mustafę Kemala Ataturka. Niektóre z wypowiedzi Groka zawierały wulgaryzmy skierowane m.in. do tureckiego prezydenta oraz członków jego rodziny. W oświadczeniu opublikowanym w środę przez konto Groka na platformie X stwierdzono, że „xAI podjęła działania w celu zablokowania mowy nienawiści”. „Jesteśmy świadomi ostatnich postów Groka i aktywnie pracujemy nad usunięciem nieodpowiednich treści” – dodano.

Agata Gutowska (PAP)

 

Każda sztuczna inteligencja ma swój styl – artykuł Polki w Scientific American

Podobnie jak ludzie, ChatGPT i Gemini AI mają swoje własne, charakterystyczne style pisania – wynika z polskich badań, których wyniki opublikował w środę „Scientific American”. Autorką jest dr Karolina Rudnicka z Uniwersytetu Gdańskiego.
„Styl to człowiek” to polskie tłumaczenie francuskiego „Le style c’est l’homme”. Uważa się, że słowa te wypowiedział Georges-Louis Leclerc, hrabia de Buffon, w swoim przemówieniu inauguracyjnym „Discours sur le style” w 1753 roku. Najwyraźniej także sztuczna inteligencja może mieć własny styl.
Badania nad stylem chatbotów przeprowadziła dr Karolina Rudnicka, która jest językoznawczynią na Uniwersytecie Gdańskim. Zajmuje się badaniem zmienności i zmian języka, zwłaszcza pod wpływem nowych technologii i na przestrzeni czasu.
Lingwiści wiedzą, że każda osoba ma odrębny sposób wyrażania siebie, zależny od języka ojczystego, wieku, płci, wykształcenia i innych czynników. Ten indywidualny styl wypowiedzi nazywany jest „idiolektem”. To koncepcja podobna do dialektu, który jest odmianą języka używanego przez społeczność, ale znacznie węższa.
Idiolekty są przydatne w lingwistyce kryminalistycznej – podczas przesłuchań podejrzanych, przypisywania autorstwa dokumentom i wiadomościom tekstowym, sprawdzania pochodzenia osób ubiegających się o azyl, wykrywania plagiatów. Coraz więcej osób, w tym nauczyciele, martwi się, że modele językowe są wykorzystywane przez studentów ze szkodą dla ich edukacji — na przykład poprzez zlecanie zadań pisemnych ChatGPT.
Dr Rudnicka postanowiła przeanalizować język ChatGPT, Gemini i Copilota, aby dowiedzieć się, czy mają swój idiolekt.
Badania wykazały, że ChatGPT ma tendencję do faworyzowania standardowej gramatyki i wyrażeń akademickich, unikając slangu lub kolokwializmów. W porównaniu z tekstami pisanymi przez ludzi, ma tendencję do nadużywania nieco bardziej wyrafinowanych czasowników i przymiotników.
Autorka przeanalizowała zestaw danych skompilowany przez informatyka Muhammada Naveeda, który zawiera setki krótkich tekstów na temat cukrzycy napisanych przez ChatGPT i Gemini. Teksty mają praktycznie taki sam rozmiar, a więc można ich używać do porównywania i analizowania wydajności obu modeli AI „w generowaniu informacyjnych i spójnych treści na temat medyczny”.
Jednym z popularnych sposobów przypisywania autorstwa jest metoda Delta, wprowadzona w 2001 r. przez Johna Burrowsa. Porównuje częstość występowania słów powszechnie używanych w tekstach: słów, które służą do wyrażania relacji z innymi słowami — kategoria obejmująca „i”, „to”, „z”, „ten”, „że” i „dla”; a także słów treści – takich jak „glukoza” lub „cukier”.
W ten sposób metoda Delta wychwytuje cechy, które zależą od idiolektów ich autorów. W szczególności generuje liczby mierzące „odległości” językowe między badanym tekstem a tekstami typowymi dla danego autora. Im mniejsza odległość, która zazwyczaj jest nieco poniżej lub powyżej 1, tym większe prawdopodobieństwo, że autor jest ten sam.
Jak się okazało, losowa próbka 10 proc. tekstów na temat cukrzycy wygenerowana przez ChatGPT ma odległość 0,92 do całego zestawu danych ChatGPT na temat cukrzycy i odległość 1,49 do całego zestawu danych Gemini. Podobnie losowa próbka 10 proc. tekstów Gemini ma odległość 0,84 do Gemini i 1,45 do ChatGPT. W obu przypadkach autorstwo okazuje się dość jasne, co wskazuje, że modele obu narzędzi mają różne style pisania – na przykład jeden woli pisać o „cukrze”, drugi o „glukozie”.
Aby lepiej zrozumieć te style, można wybrać charakterystyczne słowa w grupach po 3 na temat cukrzycy. Takie kombinacje nazywane są „trigramami”. Widząc, które trigramy są używane najczęściej, można wyczuć unikatowy sposób łączenia słów. Dr Rudnicka wyodrębniła i porównała 20 najczęściej występujących trigramów dla ChatGPT i Gemini.
Trigramy ChatGPT w tych tekstach sugerują bardziej formalny, kliniczny i akademicki idiolekt, z frazami takimi jak „osoby z cukrzycą”, „poziomy glukozy we krwi”, „rozwój”, „charakteryzowany przez podwyższony” i „zwiększone ryzyko”. Z kolei trigramy Gemini są bardziej konwersacyjne i wyjaśniające, z frazami takimi jak „sposób na”, „kaskada”, „nie jest”, „wysoki poziom cukru we krwi” i „kontrola poziomu cukru we krwi”.
Gemini używa formalnej frazy „poziomy glukozy we krwi” tylko raz w całym zestawie danych — więc zna tę frazę, ale wydaje się jej unikać. Z kolei „wysoki poziom cukru we krwi” pojawia się tylko 25 razy w odpowiedziach ChatGPT w porównaniu do 158 razy w odpowiedziach Gemini. ChatGPT używa słowa „glukoza” ponad dwa razy częściej niż „cukier”, podczas gdy Gemini robi dokładnie odwrotnie: pisze „cukier” ponad dwa razy częściej niż „glukoza”. Wybór słów takich jak „cukier” zamiast „glukoza” wskazuje na preferencję dla prostego, przystępnego języka.
Dlaczego LLM rozwijają idiolekty? Być może chodzi o wybieranie najmniej wymagającego sposobu wykonania danego zadania. Gdy słowo lub fraza stanie się częścią ich repertuaru językowego podczas szkolenia, modele mogą nadal go używać i łączyć z podobnymi wyrażeniami, podobnie jak ludzie mają ulubione słowa lub frazy, których używają z ponadprzeciętną częstotliwością w mowie lub piśmie.
Może to być także forma primingu (torowania) – jak w przypadku ludzi, którzy słyszą słowo, a następnie są bardziej skłonni go użyć. Być może każdy model w jakiś sposób ulega torowaniu pod wpływem słów, których używa wielokrotnie.
Fakt, że narzędzia oparte na LLM produkują różne idiolekty — które mogą się zmieniać i rozwijać w trakcie aktualizacji lub nowych wersji — ma znaczenie dla trwającej debaty na temat tego, jak daleko AI do osiągnięcia inteligencji na poziomie ludzkim. Ma to znaczenie, jeśli modele chatbotów nie tylko uśredniają lub odzwierciedlają swoje dane treningowe, ale rozwijają w tym procesie charakterystyczne nawyki leksykalne, gramatyczne lub składniowe, podobnie jak ludzie są kształtowani przez nasze doświadczenia.
Na razie wiedza, że LLM piszą w idiolektach może pomóc ustalić, czy esej lub artykuł został stworzony przez model, czy przez konkretną osobę — tak jak można rozpoznać wiadomość znajomego na czacie grupowym po jego charakterystycznym stylu.

Paweł Wernicki (PAP)

Podobne

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Ostatnio dodane

👇 P O L E C A M Y 👇

Koniecznie zobacz nowy Polonijny Portal Społecznościowy "Polish Network v2,0"