-2.5 C
Chicago
sobota, 24 lutego, 2024

Sztuczna inteligencja odczytuje ludzkie myśli. Na razie jeszcze robi błędy…

Popularne

Strony Internetowe / SEO
Realizacja w jeden dzień!
TEL/SMS: +1-773-800-1520

Opracowany na University of Texas w Austin (USA) system – połączona ze skanerem MRI sztuczna inteligencja – odczytywał myśli ochotników. Na razie jeszcze robi błędy, ale w przyszłości podobne urządzenia mogłyby pomagać osobom niezdolnym do zwykłej komunikacji.

W czasie eksperymentu ochotnicy słuchali pewnej historii, albo wyobrażali sobie jej opowiadanie. Ich mózgi były obserwowane z pomocą rezonansu magnetycznego (MRI), a połączona z nim sztuczna inteligencja zamieniała myśli ludzi na zgodny z nimi tekst.
Co ważne, nie były potrzebne elektrody wszczepiane do mózgu, a korzystająca z wynalazku osoba nie była ograniczona do wcześniej ustalonej listy ze słowami – podkreślają naukowcy.
System wymaga jednak specjalnego szkolenia – każdy korzystający z niego człowiek, przez kilka godzin słucha podcastów, w czasie których komputer obserwuje jego mózg.
„Dla nieinwazyjnych metod to prawdziwy skok do przodu w porównaniu do tego, co udawało się osiągać wcześniej, czyli zwykle czytanie pojedynczych słów lub krótkich zdań” – mówi prof. Alex Huth, autor publikacji, która ukazała się w piśmie „Nature Neuroscience” (https://www.nature.com/articles/s41593-023-01304-9).
„Nasz model dekoduje trwającą długi czas, ciągłą mowę dotyczącą skomplikowanych tematów” – podkreśla.
Na razie komputer nie jest zbyt dokładny – w miarę precyzyjnie odczytuje myśli w ok. 50 proc. Potrafi jednak często oddać sens wypowiedzi.
Na przykład myśl: „Mie mam jeszcze prawa jazdy” przetłumaczył na: „ona nie zaczęła jeszcze nauki jazdy samochodem”.
Słuchając myśli: „Nie wiedziałam, czy krzyczeć, płakać, czy uciekać”, odczytał jako: „Zaczęła krzyczeć i płakać, a potem powiedziała ‘mówiłam ci, abyś mnie zostawił’”.
System radził sobie także z czytaniem myśli ochotników, kiedy oglądali materiały wideo.
Twórcy programu zajęli się także tematem jego ewentualnych nadużyć. Zapewniają, że przynajmniej obecnie nie da się czytać czyichś myśli, jeśli dana osoba tego nie chce.
Nie da się też tego robić, z kimś, z kim system nie przeszedł długiego treningu.
„Bardzo poważnie traktujemy obawy o nadużycia i pracujemy nad tym, aby im zapobiec. Chcemy mieć pewność, że ludzie będą korzystali z tych technologii, kiedy będą chcieli i tak, aby im pomagała” – mówi kierujący badaniami Jerry Tang.
Naukowcy liczą na to, że ich pomysł pozwoli na konstrukcję urządzeń, dzięki którym ze światem będą mogły się komunikować osoby obecnie do tego niezdolne, np. po ciężkich udarach.
Dzisiejsza wersja systemu pozwala tylko na jego wykorzystanie w laboratorium, ale zdaniem badaczy można to zmienić – np. zamiast dużego skanera MRI, prawdopodobnie da się wykorzystać znacznie mniejsze urządzenie przeznaczone do również nieinwazyjnej funkcjonalnej spektroskopii bliskiej podczerwieni. (PAP)
Marek Matacz

Badanie: porady udzielane przez ChatGTP bardziej empatyczne niż lekarzy

Porady udzielane pacjentom przez ChatGPT często oceniane były jako bardziej „empatyczne” niż te, których udzielali lekarze – piszą naukowcy na łamach periodyku „JAMA Internal Medicine”.
Zdaniem naukowców prowadzenie „empatycznej” konwersacji z pacjentem to obszar, gdzie sztuczna inteligencja, czyli w tym wypadku algorytm generujący zdania, może się sprawdzić lepiej od samych lekarzy.
Naukowcy porównywali pisemne odpowiedzi lekarzy na zapytania pacjentów z odpowiedziami udzielanymi przez ChatGPT. Odpowiedzi oceniane były przez panel ekspertów, profesjonalistów w zakresie służby zdrowia.
W 79 proc. przypadków preferowali oni odpowiedzi, których udzielał ChatGPT, uznając je za lepsze jakościowo i bardziej empatyczne – informuje zespół naukowców, który pracował pod kierunkiem Johna W. Ayersa z Qualcomm Institute przy University of California w San Diego (USA).
Naukowcy podjęli badania, chcąc przyjrzeć się możliwości wprzęgnięcia sztucznej inteligencji jako pomocnika lekarzy do kontaktów z pacjentami.
„ChatGPT mógłby zdać egzamin z medycyny, ale bezpośrednie odpowiadanie na pytania pacjentów, w sposób dokładny i empatyczny, to osobna sprawa” – wyjaśnia współautor badań, Davey Smith z University of California w San Diego.
Naukowcy analizowali wpisy pacjentów i lekarzy na portalach medycznych, m.in. na amerykańskim portalu AskDocs. Następnie te same pytania zadali sztucznej inteligencji.
Eksperci, którzy oceniali posty, nie wiedzieli, które z nich napisali lekarze, a które wygenerował ChatGPT. Oceniali posty pod względem jakości informacji oraz empatii.
Okazało się, że na prawie 200 przypadków w 79 proc. pierwszeństwo przyznano sztucznej inteligencji.(PAP)

 

krx/ agt/

- Advertisement -

Podobne

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Ostatnio dodane

Strony Internetowe / SEO
Realizacja w jeden dzień!
TEL/SMS: +1-773-800-1520