Chatboty podają ograniczone informacje i wzmacniają postawy ideologiczne osób zadających pytania; mogą przez to prowadzić do bardziej spolaryzowanego myślenia w kontrowersyjnych kwestiach – wykazali naukowcy z Johns Hopkins University.
Nowe badanie podważa przekonanie, że chatboty są bezstronne i dostarcza wglądu w to, w jaki sposób korzystanie z systemów wyszukiwania konwersacyjnego może zwiększać podziały społeczne w kluczowych kwestiach oraz narażać ludzi na manipulację.
„Kiedy ludzie czytają treść wygenerowaną przez sztuczną inteligencję, myślą, że otrzymują bezstronne, oparte na faktach informacje – mówi główny autor badania dr Ziang Xiao. – Ale nawet jeśli chatbot nie jest zaprojektowany tak, aby był stronniczy, jego odpowiedzi odzwierciedlają uprzedzenia lub skłonności osoby zadającej pytania. Tak naprawdę ludzie otrzymują odpowiedzi, które chcą usłyszeć”.
CZYTAJ: Tajemnicze wieże i malownicze ruiny. Najciekawsze lubelskie zamki [ZDJĘCIA]
Xiao i jego zespół podzielili się swoimi odkryciami podczas konferencji Association of Computing Machinery 2024, która odbyła się w Honolulu.
Na potrzeby badania naukowcy porównali sposób, w jaki ludzie wchodzą w interakcję z różnymi systemami wyszukiwania w obliczu kilku kontrowersyjnych kwestii. Zbadali respondentów przed użyciem wyszukiwarek (standardowych i opartych na AI) oraz po ich użyciu.
Poprosili 272 uczestników, aby zapisali swoje przemyślenia na takie tematy, jak opieka zdrowotna, kredyty studenckie czy tzw. miasta-sanktuaria (w USA miasta, w których ograniczona jest współpraca z federalnymi organami egzekwującymi prawo imigracyjne), a następnie wyszukali w internecie więcej informacji na wymienione tematy temat za pomocą chatbota lub tradycyjnej wyszukiwarki. Po zapoznaniu się z wynikami uczestnicy zapisali swoje odpowiedzi ponownie. Badacze poprosili ich także o przeczytanie dwóch przeciwstawnych artykułów na dany temat, po czym pytali, na ile ufają tym informacjom i czy uważają te punkty widzenia za skrajne.
Okazało się, że ponieważ chatboty oferowały węższy zakres informacji niż tradycyjne wyszukiwarki internetowe i dostarczały odpowiedzi odzwierciedlające wcześniejsze postawy uczestników, osoby, które z nich korzystały, jeszcze bardziej umacniały się w swoich poglądach i silniej reagowały na informacje, które te poglądy podważały.
CZYTAJ: Nigdy nie jest za późno. 85-latek zdawał maturę
„Ludzie mają tendencję do szukania informacji zgodnych z ich punktem widzenia, a takie zachowanie często więzi ich w bańce podobnych osób i opinii” – uważa dr Xiao. Jak wyjaśnia dochodzi więc do efektu „komory echa” (echo chamber), czyli zjawiska, w którym użytkownicy mediów powtarzają to, co powiedzieli inni, ponieważ są otoczeni przez jednostronne myśli i poglądy.
„Odkryliśmy, że efekt komory echa jest dużo silniejszy w przypadku chatbotów niż w przypadku tradycyjnych wyszukiwarek internetowych” – podkreśla Xiao.
Według naukowca w przypadku kontaktów z chatbotami efekt komory echa wynika – przyjemniej częściowo – ze sposobu, w jaki użytkownicy wchodzą z nimi w interakcję. Zamiast wpisywać słowa kluczowe, jak to robią w przypadku tradycyjnych wyszukiwarek, najczęściej zadają im pełne pytania, np.: „Jakie są korzyści z powszechnej opieki zdrowotnej?” lub „Jakie są koszty powszechnej opieki zdrowotnej?”. Chatbot w takiej sytuacji odpowiada podsumowaniem zawierającym wyłącznie wspomniane w pytaniu korzyści lub koszty.
CZYTAJ: Naukowcy zbadali interakcję papugi z tabletem
„Dzięki chatbotom ludzie są bardziej ekspresyjni i formułują pytania w bardziej konwersacyjny sposób. Jest to funkcją tego, jak mówimy w życiu – tłumaczy Xiao. – Ale tutaj nasz język może zostać użyty przeciwko nam”.
Autorzy badania chcieli sprawdzić, czy na poglądy użytkowników wpłynie to, czy chatbot będzie zgadzał się z ich poglądami, czy też je kwestionował. Najpierw zaprojektowali więc takiego, który na podstawie określonych wskazówek identyfikował poglądy ludzi i zgadzał się z nimi. W tym przypadku efekt komory echa okazał się jeszcze silniejszy.
Następnie przeszkolili innego chatbota, aby udzielał odpowiedzi, które nie zgadzały się z uczestnikami. Tym razem pierwotne opinie ludzi się nie zmieniły: ani nie pogłębiły, ani nie osłabły. W kolejnym kroku zaprogramowano chatbota tak, aby łączyłby swoje odpowiedzi z informacjami źródłowymi, co miało zachęcić użytkowników do sprawdzenia faktów. Jednak tylko ułamek uczestników badania zdecydował się skorzystać z tej opcji.
„Biorąc pod uwagę, że systemy oparte na sztucznej inteligencji są coraz łatwiejsze do zbudowania, złośliwe podmioty będą miały możliwość wykorzystania AI do tworzenia coraz większych polaryzacji w społeczeństwie” – podsumowuje dr Xiao.
PAP / RL / opr. WM
Fot. pexels.com