Dentonet
LEKARZ
E-mail
WYBIERZ KATEGORIĘ
Aktualności
Prawo i finanse
Praca w gabinecie
Student
Edukacja i technologie
Medycyna

ChatGPT nie może być narzędziem diagnostycznym w medycynie

Publikacja:
ChatGPT nie może być narzędziem diagnostycznym w medycynie

ChatGPT nie może być narzędziem diagnostycznym w medycynie

ChatGPT nie może być użyty jako narzędzie diagnostyczne w medycynie, bo w ponad połowie przypadków się myli – podsumowali kanadyjscy naukowcy z Uniwersytetu Zachodniego Ontario po przetestowaniu modelu na przypadkach pacjentów. ChatGPT umie jednak pisać czytelne odpowiedzi.

ChatGPT nie daje zgodnych z faktami diagnoz „mimo obszernej informacji, na której był trenowany”, a poprawne odpowiedzi dawał tylko w 49% przypadków – do takich ustaleń doszli naukowcy z Shulich School of Medicine & Dentistry na Uniwersytecie Zachodniego Ontario (Western University). Artykuł o przydatności ChatGPT w diagnozach ukazał się właśnie w „PLOS One”.

Test medycznych umiejętności ChataGPT

Medyczne umiejętności ChatGPT przetestowano na 150 przypadkach pobranych z publicznej bazy danych Medscape, używanej m.in. do sprawdzania umiejętności diagnostycznych lekarzy. Testy modelu prowadzono między wrześniem 2021 a styczniem 2023 r. Tylko w 74 przypadkach (49%) diagnoza sztucznej inteligencji była trafna.

ChatGPT ma problemy z interpretacją wyników laboratoryjnych, wyników obrazowania i pomijał niektóre kluczowe informacje ważne dla diagnozy – napisali autorzy „Oceny ChatGPT jako narzędzia diagnostycznego dla studentów medycyny i klinicystów” („Evaluation of ChatGPT as a diagnostic tool for medical learners and clinicians”).

Będziemy potrzebować intensywnego nadzoru nad tym, jak sztuczna inteligencja jest używana, by zapewnić bezpieczeństwo pacjenta i by upewnić się, że ten rodzaj technologii AI będzie rozważnie udostępniany – komentował cytowany w komunikacie zamieszczonym na stronie Uniwersytetu Zachodniego Ontario dr Amrit Kirpalani, profesor Schulich School of Medicine & Dentistry, współautor badania.

Dodał, że korzystaniu z danych dostępnych w internecie musi towarzyszyć sprawdzanie ich poprawności na podstawie badań naukowych, analizowanych przez innych badaczy oraz rozwijanie umiejętności komunikowania się z modelami AI.

Skąd wzięły się błędne odpowiedzi?

Badacze zidentyfikowali przyczyny błędnych odpowiedzi, związane z tym, jak tworzone są duże modele językowe. – Konieczne jest rozważenie roli halucynacji AI, ponieważ mogą w znaczący sposób wpłynąć na trafność podawanej informacji. Halucynacje odnoszą się do odpowiedzi tworzonych przez model AI, które wydają się spójne, ale nie bazują na informacji faktycznej, pochodząc z pominięć, błędów lub przeoptymalizowania danych, na których trenowany jest model lub jego niezdolności do poprawnego rozeznawania w dwuznacznych lub niekompletnych danych wejściowych – poinformowano.

Błędy w diagnozowaniu mogą pochodzić także z uprzedzeń i błędów samych lekarzy, zawartych w informacji medycznej używanej do treningu. – Znaczenie ludzkiego nadzoru jest nie do przecenienia – podkreślili autorzy, zwracając też uwagę na takie aspekty, jak określenie odpowiedzialności za ewentualne błędy wynikające z wykorzystania modeli AI.

ChatGPT jako narzędzie pomocnicze?

Jednak badacze z Uniwersytetu Zachodniego Ontario wskazali też na możliwości użycia ChatGPT jako narzędzia pomocniczego.

Przy wszystkich wadach ChatGPT, które dyskwalifikują to narzędzie jako diagnostę, model w większości przypadków dawał poprawne oceny wykluczające część diagnoz różnicowych oraz poprawnie proponował dalsze kroki w tworzeniu diagnozy. Ponadto choć tylko 49% diagnoz było trafnych, to już np. zdolność do odrzucania niepoprawnych opcji odpowiedzi była znacznie większa – wynosiła 74,33%.

Zauważono też, że model „był w stanie analizować złożone tematy medyczne i dokonywać syntezy w sposób łatwy do zrozumienia”. Autorzy pracy uznali to za korzystną opcję uzyskiwania uproszczonych wyjaśnień dla studentów medycyny i podkreślili, że z myślą właśnie o takim wykorzystaniu warto rozwijać użycie modeli AI.

Źródło: https://naukawpolsce.pl/


POWIĄZANE ARTYKUŁY

mikrobiom jamy ustnej autyzm
Mikrobiota jamy ustnej narzędziem w diagnostyce autyzmu u dzieci? Lekarz

Interdyscyplinarny zespół naukowców z Wydziału Stomatologii oraz Wydziału Psychologii Uniwersytetu w Hongkongu (University of Hong Kong, HKU) odkrył obiecującą zależność między mikrobiotą jamy ustnej a zaburzeniami ze spektrum autyzmu (Autism Spectru...

AI w medycynie
Czy AI poprawia wydajność w medycynie? Lekarz

Wykorzystanie sztucznej inteligencji (AI) w opiece nad pacjentami jest coraz powszechniejsze. Jednak analiza przeprowadzona przez badaczy ze Szpitala Uniwersyteckiego w Bonn oraz Uniwersytetu w Bonn dowodzi, że sztuczna inteligencja nie musi przyspie...

chat GPT1
Jak ChatGPT odpowiadał na pytania o zdrowie jamy ustnej? Lekarz

W opinii autorów badania, które przeprowadzono w Jordanii i Kuwejcie, zyskujący coraz większą popularność ChatGPT ma problemy z udzielaniem szczegółowych odpowiedzi na specjalistyczne pytania dotyczące stanu zdrowia jamy ustnej w kontekście palenia. ...

ROZWIŃ WIĘCEJ
zaburzenia erekcji
Czy periodontitis może prowadzić do impotencji? Lekarz

Mężczyźni z ciężką postacią zaburzeń erekcji mogą częściej zmagać się z zaawansowanym zapaleniem przyzębia, mieć mniej zębów oraz – generalnie – gorszy stan zdrowia jamy ustnej. To wniosek płynący z badania hiszpańskich naukowców opublikowanego 17 si...

Chat GPT2
Belgia: ChatGPT na egzaminie wstępnym na stomatologię Lekarz

Podczas tegorocznych egzaminów wstępnych na studia medyczne, stomatologiczne i weterynaryjne w Belgii doszło do bezprecedensowego incydentu. Trzech kandydatów zostało przyłapanych na korzystaniu z ChataGPT – popularnego narzędzia opartego na sztuczne...

stomatologia starozytnych Indii
Stomatologia w medycynie dawnych Indii Lekarz

Starożytne Indie były kolebką wielu zaawansowanych systemów medycznych, a istotną część praktyki leczniczej stanowiła stomatologia. System medycyny ajurwedyjskiej, rozwijany przez kilka tysięcy lat, kładł duży nacisk na profilaktykę oraz holistyczne ...

chat GPT
ChatGPT-4 tłumaczy ortodoncję lepiej niż ortodonci Lekarz

Chatboty sztucznej inteligencji, takie jak popularny ChatGPT wersja 4.0, mogą udzielać odpowiedzi na często zadawane pytania pacjentów (FAQ) lepiej niż lekarze ortodonci. Badanie na ten temat zostało opublikowane 25 marca w czasopiśmie naukowym „Jour...

medycyna 2023
2023 rok w polskiej medycynie – osiągnięcia i wyzwania Lekarz

Największe problemy i wyzwania polskiego szpitalnictwa, zmiany systemowe i terapeutyczne w okulistyce, szczepienia przeciw HPV, 2023 r. w onkologii, diagnostyka genetyczna i nowoczesne terapie genowe, największe przełomy w leczeniu cukrzycy w Polsce ...

higienistka stomatologiczna1
USA: 4 na 10 higienistek może zmienić pracę w 2024 r. Asysta

Z badania ankietowego przeprowadzonego przez Dental Post wynika, że aż 42% higienistek stomatologicznych pracujących w Stanach Zjednoczonych rozważa wybór nowej pracy w 2024 r. 12% respondentek już podjęło stosowane działania lub uczyni to przed końc...

sztuczna inteligencja2
ChatGPT tworzy notatki medyczne równie dobrze jak lekarze Lekarz

ChatGPT może tworzyć administracyjne notatki medyczne nawet 10 razy szybciej niż lekarze przy zachowaniu podobnej dokładności – wynika z badania przeprowadzonego przez naukowców z Uniwersytetu w Uppsali. Szwedzcy naukowcy z Uniwersytetu w Uppsali we...

sztuczna inteligencja
ChatGPT 4.0 „zdał” egzaminy stomatologiczne w USA i UK Lekarz

Z badania przeprowadzonego przez naukowców z Hongkongu wynika, że ChatGPT 4.0 uzyskał wystarczający odsetek poprawnych odpowiedzi, by zdobyć prawo wykonywania zawodu lekarza stomatologa w Stanach Zjednoczonych i Wielkiej Brytanii. W przypadku USA był...