Porady udzielane pacjentom przez ChatGPT często oceniane były jako bardziej „empatyczne” niż te, których udzielali lekarze – piszą naukowcy na łamach periodyku „JAMA Internal Medicine”.
Zdaniem naukowców prowadzenie „empatycznej” konwersacji z pacjentem to obszar, gdzie sztuczna inteligencja, czyli w tym wypadku algorytm generujący zdania, może się sprawdzić lepiej od samych lekarzy.
CZYTAJ TAKŻE: Alkohol wzmacnia przewlekły ból
Naukowcy porównywali pisemne odpowiedzi lekarzy na zapytania pacjentów z odpowiedziami udzielanymi przez ChatGPT. Odpowiedzi oceniane były przez panel ekspertów, profesjonalistów w zakresie służby zdrowia.
W 79 proc. przypadków preferowali oni odpowiedzi, których udzielał ChatGPT, uznając je za lepsze jakościowo i bardziej empatyczne – informuje zespół naukowców, który pracował pod kierunkiem Johna W. Ayersa z Qualcomm Institute przy University of California w San Diego (USA).
Naukowcy podjęli badania, chcąc przyjrzeć się możliwości wprzęgnięcia sztucznej inteligencji jako pomocnika lekarzy do kontaktów z pacjentami.
“ChatGPT mógłby zdać egzamin z medycyny, ale bezpośrednie odpowiadanie na pytania pacjentów, w sposób dokładny i empatyczny, to osobna sprawa” – wyjaśnia współautor badań, Davey Smith z University of California w San Diego.
Naukowcy analizowali wpisy pacjentów i lekarzy na portalach medycznych, m.in. na amerykańskim portalu AskDocs. Następnie te same pytania zadali sztucznej inteligencji.
Eksperci, którzy oceniali posty, nie wiedzieli, które z nich napisali lekarze, a które wygenerował ChatGPT. Oceniali posty pod względem jakości informacji oraz empatii.
Okazało się, że na prawie 200 przypadków w 79 proc. pierwszeństwo przyznano sztucznej inteligencji.
CZYTAJ TAKŻE: Naukowcy: trzydniowe weekendy korzystne dla zdrowia
PAP / RL / opr. KS
Fot. Gustavo Fring, pexels.com