22.2 C
Chicago
niedziela, 29 czerwca, 2025

Czy sztuczna inteligencja będzie w stanie rozwiązywać złożone kwestie?

Popularne

Strony Internetowe / SEO
Realizacja w jeden dzień!
TEL/SMS: +1-773-800-1520

Sztuczna inteligencja nie jest obecnie w stanie rozwiązać złożonych kwestii, ale staje się w tym coraz lepsza i należy zacząć się martwić, jeśli pokona i tę przeszkodę – ocenił Geoffrey Hinton z Uniwersytetu w Toronto, laureat Nagrody Nobla w dziedzinie fizyki i jeden z ojców chrzestnych AI.

W wystąpieniu podczas Toronto Tech Week, cytowanym przez agencję The Canadian Press, Hinton podkreślił, że AI radzi sobie z prostymi problemami, a także z nieco bardziej złożonymi, choć wówczas zabiera to jej więcej czasu. „Jeśli przedstawiasz trudniejszy problem (…) i (AI) tego nie rozumie, ludzie używają tego argumentu, by powiedzieć, że +to w istocie nie potrafi w ogóle rozumować+” – zauważył.
Ludzie powinni zacząć się martwić, gdy AI przekroczy swoje obecne ograniczenia – zaznaczył w rozmowie z Nickiem Frosstem, swoim byłym studentem i współtwórcą firmy Cohere, zajmującej się AI.
„Wszyscy będziemy mieli bardzo sprytnych pomocników AI (…) Jest też jednak kwestia tego, czy kiedy te rzeczy staną się sprytniejsze od nas, będą nas potrzebować” – dodał. Według Hintona ten etap pojawi się, gdy sztuczna inteligencja będzie w stanie oferować rozwiązania, o których człowiek by nie pomyślał, i będzie wygrywać każdą dyskusję.
W ocenie Hintona duże modele językowe (LLM), na których opiera się technologia AI, doprowadzą do zautomatyzowania nawet 80 proc. pracy wykonywanej przy komputerze; Frost uważa, że automatyzacja będzie dotyczyć 20-30 proc. pracy.
W ubiegłym tygodniu prezes Amazon Andy Jassy przekazał pracownikom, że firma będzie zwalniać pracowników w miarę poszerzania wykorzystania narzędzi AI. Jednocześnie zapewnił, że będą potrzebni pracownicy wykonujący inne rodzaje pracy.
Wcześniej prezes firmy Anthropic Dario Amodei mówił, że w ciągu pięciu lat AI może wyeliminować nawet połowę prostych prac biurowych, wykonywanych obecnie przez najmłodszych pracowników, i podnieść stopę bezrobocia do 20 proc. Anthropic to firma, która opracowała model językowy Claude, konkurencyjny wobec ChatGPT oferowanego przez OpenAI, Gemini autorstwa Google i Llama opracowanego przez Meta.
Hinton, który często wskazuje na zagrożenia związane z AI, podkreślił, że AI już przekroczyła poziom umiejętności, które spodziewano się, że osiągnie w 2025 roku. Kiedy AI osiągnie etap pozwalający na rozwiązywanie złożonych problemów, technologia ta może wiązać się z zagrożeniami takimi jak bezrobocie, dyskryminacja, błędy poznawcze, bańki informacyjne, fałszywe informacje, a nawet tworzenie broni, w tym biologicznej – ostrzegł.
W jego ocenie właśnie dlatego konieczny będzie nacisk opinii publicznej na tworzenie skutecznych regulacji, które powstrzymają zapędy firm technologicznych.
W jednym z podcastów Hinton powiedział, że jeszcze dużo czasu minie, nim AI stanie się wystarczająco sprawna np. w posługiwaniu się przedmiotami. Jego rada dla szukających miejsca pracy, któremu AI nie zagrozi, brzmi: „ucz się na hydraulika”.
Wśród błędów popełnianych przez AI jest np. niepoprawne interpretowanie informacji i pomijanie informacji. W ubiegłym tygodniu badacze z Massachusetts Institute of Technology (MIT) opublikowali pracę, w której wyjaśnili, jak powstają błędy AI w rozumieniu dłuższych dokumentów. Podali przykład wirtualnego asystenta prawnika, który ma przeanalizować 30-stronicowy dokument i znaleźć konkretne sformułowanie. LLM znajdzie żądane sformułowanie, jeśli znajduje się ono na jednej z pierwszych lub jednej z ostatnich stron dokumentu. Badacze odkryli, że do takich błędów może prowadzić istniejąca architektura modeli językowych w części dotyczącej przetwarzania danych. Problem ten może się nasilać za sprawą danych dostarczanych asystentowi w ramach szkolenia. W efekcie AI może dostrzegać pewne dane w analizowanych dokumentach, a innych – nie.
LLM bazują na typowych dla danego języka połączeniach, częstości występowania słów i strukturze zdań. Komunikat MIT cytował współautorkę badania, doktorantkę Xinyi Wu, która wyjaśniła, że często początkowe końcowe słowa są w zdaniu najważniejsze, jednak zastosowanie LLM do innego typu analiz, w których chodzi np. o wyszukanie informacji, sprawia, że pojawiają się błędy.

Z Toronto Anna Lach (PAP)

Podobne

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Ostatnio dodane

👇 P O L E C A M Y 👇

Koniecznie zobacz nowy Polonijny Portal Społecznościowy "Polish Network v2,0"