20 maja 2024

loader

Fachowiec z procesora

fot. Unsplash

Porady udzielane pacjentom przez ChatGPT często oceniane były jako bardziej „empatyczne” niż te, których udzielali lekarze. A na dodatek nie wiadomo, czy nie sztuczna inteligencja godzi w wolny rynek?

Zdaniem naukowców publikujących na łamach periodyku „JAMA Internal Medicine” prowadzenie „empatycznej” konwersacji z pacjentem to obszar, gdzie sztuczna inteligencja, czyli w tym wypadku algorytm generujący zdania, może się sprawdzić lepiej od samych lekarzy.

Lekarz, czy procesor?

Naukowcy porównywali pisemne odpowiedzi lekarzy na zapytania pacjentów z odpowiedziami udzielanymi przez ChatGPT. Odpowiedzi oceniane były przez panel ekspertów, profesjonalistów w zakresie służby zdrowia.

W 79 proc. przypadków preferowali oni odpowiedzi, których udzielał ChatGPT, uznając je za lepsze jakościowo i bardziej empatyczne – informuje zespół naukowców, który pracował pod kierunkiem Johna W. Ayersa z Qualcomm Institute przy University of California w San Diego (USA).

Naukowcy podjęli badania, chcąc przyjrzeć się możliwości wprzęgnięcia sztucznej inteligencji jako pomocnika lekarzy do kontaktów z pacjentami. „ChatGPT mógłby zdać egzamin z medycyny, ale bezpośrednie odpowiadanie na pytania pacjentów, w sposób dokładny i empatyczny, to osobna sprawa” – wyjaśnia współautor badań, Davey Smith z University of California w San Diego. Naukowcy analizowali wpisy pacjentów i lekarzy na portalach medycznych, m.in. na amerykańskim portalu AskDocs. Następnie te same pytania zadali sztucznej inteligencji.

Eksperci, którzy oceniali posty, nie wiedzieli, które z nich napisali lekarze, a które wygenerował ChatGPT. Oceniali posty pod względem jakości informacji oraz empatii. Okazało się, że na prawie 200 przypadków w 79 proc. pierwszeństwo przyznano sztucznej inteligencji.

Sztuczna telepatia?

Opracowany na University of Texas w Austin (USA) system – połączona ze skanerem MRI sztuczna inteligencja – odczytywał myśli ochotników. Na razie jeszcze robi błędy, ale w przyszłości podobne urządzenia mogłyby pomagać osobom niezdolnym do zwykłej komunikacji.

W czasie eksperymentu ochotnicy słuchali pewnej historii, albo wyobrażali sobie jej opowiadanie. Ich mózgi były obserwowane z pomocą rezonansu magnetycznego (MRI), a połączona z nim sztuczna inteligencja zamieniała myśli ludzi na zgodny z nimi tekst.

Co ważne, nie były potrzebne elektrody wszczepiane do mózgu, a korzystająca z wynalazku osoba nie była ograniczona do wcześniej ustalonej listy ze słowami – podkreślają naukowcy. System wymaga jednak specjalnego szkolenia – każdy korzystający z niego człowiek, przez kilka godzin słucha podcastów, w czasie których komputer obserwuje jego mózg.

„Dla nieinwazyjnych metod to prawdziwy skok do przodu w porównaniu do tego, co udawało się osiągać wcześniej, czyli zwykle czytanie pojedynczych słów lub krótkich zdań” – mówi prof. Alex Huth, autor publikacji, która ukazała się w piśmie „Nature Neuroscience”. „Nasz model dekoduje trwającą długi czas, ciągłą mowę dotyczącą skomplikowanych tematów” – podkreśla.

Na razie komputer nie jest zbyt dokładny – w miarę precyzyjnie odczytuje myśli w ok. 50 proc. Potrafi jednak często oddać sens wypowiedzi. Na przykład myśl: „Mie mam jeszcze prawa jazdy” przetłumaczył na: „ona nie zaczęła jeszcze nauki jazdy samochodem”.

Słuchając myśli: „Nie wiedziałam, czy krzyczeć, płakać, czy uciekać”, odczytał jako: „Zaczęła krzyczeć i płakać, a potem powiedziała ‘mówiłam ci, abyś mnie zostawił’”. System radził sobie także z czytaniem myśli ochotników, kiedy oglądali materiały wideo.

Twórcy programu zajęli się także tematem jego ewentualnych nadużyć. Zapewniają, że przynajmniej obecnie nie da się czytać czyichś myśli, jeśli dana osoba tego nie chce. Nie da się też tego robić, z kimś, z kim system nie przeszedł długiego treningu.

„Bardzo poważnie traktujemy obawy o nadużycia i pracujemy nad tym, aby im zapobiec. Chcemy mieć pewność, że ludzie będą korzystali z tych technologii, kiedy będą chcieli i tak, aby im pomagała” – mówi kierujący badaniami Jerry Tang.

Naukowcy liczą na to, że ich pomysł pozwoli na konstrukcję urządzeń, dzięki którym ze światem będą mogły się komunikować osoby obecnie do tego niezdolne, np. po ciężkich udarach.

Dzisiejsza wersja systemu pozwala tylko na jego wykorzystanie w laboratorium, ale zdaniem badaczy można to zmienić – np. zamiast dużego skanera MRI, prawdopodobnie da się wykorzystać znacznie mniejsze urządzenie przeznaczone do również nieinwazyjnej funkcjonalnej spektroskopii bliskiej podczerwieni.

Konkurencja zagrożona?

Dyskusje dyskusjami, badania – badaniami, a Brytyjski Urząd Konkurencji i Rynków (CMA) poinformował, że rozpoczyna badanie, jak rozwój sztucznej inteligencji może wpłynąć na konkurencję i jak zapewnić właściwą ochronę konsumentów.

CMA wskazał, że modele, na których opiera się sztuczna inteligencja (AI), mają potencjał, aby przekształcić wiele z tego, co robią ludzie i przedsiębiorstwa, a jej rozwój dotyka wielu ważnych kwestii, w tym bezpieczeństwa, ochrony, praw autorskich, prywatności i praw człowieka, a także sposobów funkcjonowania rynków.

Jak wyjaśniono, aby zapewnić, że innowacje w zakresie AI będą przynosić korzyści konsumentom, przedsiębiorstwom i gospodarce kraju, rząd brytyjski zwrócił się do organów regulacyjnych, w tym do CMA, o zastanowienie się nad tym, w jaki sposób można wspierać innowacyjny rozwój i wdrażanie AI w oparciu o pięć nadrzędnych zasad: bezpieczeństwo, ochronę i solidność; odpowiednią przejrzystość i możliwość wyjaśnienia; sprawiedliwość; odpowiedzialność i zarządzanie; zaskarżalność i zadośćuczynienie.

CMA poinformował, że przez najbliższe cztery tygodnie będzie zbierać opinie na temat wpływu rozwoju AI na konkurencję i ochronę konsumentów, a sprawozdanie ze swoimi ustaleniami opublikuje we wrześniu tego roku.

pwr/pap

Redakcja

Poprzedni

Spłaszczeni telewizorami

Następny

Wiosenni optymiści