Sztuczna inteligencja (AI) odgrywa coraz większą rolę w codziennym życiu, oferując wsparcie w komunikacji, organizacji pracy czy edukacji. Jednak nie wszyscy podchodzą do niej z entuzjazmem – w wielu przypadkach pojawia się nieufność, lęk czy wręcz awersja wobec tej technologii. Jednym z obszarów, który może wpływać na stosunek do AI, jest wykluczenie społeczne. Nowe badanie analizuje, w jaki sposób osoby doświadczające wykluczenia społecznego kształtują swoje nastawienie do konwersacyjnej AI (cAI), takiej jak chatboty czy asystenci głosowi.
Głównym celem badania było sprawdzenie, czy osoby społecznie wykluczone rzadziej nawiązują pozytywne interakcje z AI, a jeśli tak – jakie mechanizmy za tym stoją. Autor postawili hipotezę, że istotnym czynnikiem pośredniczącym w tym procesie są stereotypy dotyczące rzekomej skłonności AI do oszukiwania. Innymi słowy, jeśli osoba wykluczona postrzega AI jako nieuczciwą, może być mniej skłonna do korzystania z tej technologii w pozytywny sposób.
W badaniu przeprowadzonym na 120 uczestnikach wykazano, że osoby doświadczające wykluczenia społecznego częściej wierzą w negatywne stereotypy dotyczące AI, zwłaszcza w jej skłonność do manipulacji czy dezinformacji. W konsekwencji rzadziej angażują się w pozytywne kontakty z AI. Wyniki te potwierdzają założenia teorii, według której ludzie skłonni są traktować grupy zewnętrzne z dystansem, a nawet uprzedzeniami – w tym przypadku AI może być postrzegana jako „obcy”, budzący nieufność.
Wyniki badania mają ważne konsekwencje społeczne. Wskazują, że wykluczenie społeczne może prowadzić nie tylko do izolacji w kontaktach międzyludzkich, ale także do „cyfrowego wykluczenia” poprzez negatywne nastawienie do AI. To z kolei może ograniczać korzyści płynące z nowych technologii dla osób, które mogłyby najbardziej ich potrzebować. Zdaniem autora konieczne są dalsze badania oraz działania edukacyjne, które pomogą zmniejszyć nieuzasadnioną nieufność wobec AI i promować jej odpowiedzialne wykorzystanie.