A chatbotok tévedései: amikor a mesterséges intelligencia félreinformál

chatbot chatbotok használata MI hibák Grok mesterséges intelligencia
A chatbotok használata a tényellenőrzésben forradalmi lehetőségeket kínál – ugyanakkor komoly veszélyeket is rejt. A mesterséges intelligencia által generált válaszok nem mindig megbízhatóak, és egyes chatbotok, mint például a Grok, súlyos tévedéseket is képesek terjeszteni, amint azt több nemzetközi tanulmány és valós példák is alátámasztják.

A chatbotok használata egyre elterjedtebb a tényellenőrzésben

Az elmúlt években a mesterséges intelligencia fejlődése radikálisan átalakította az információkeresési szokásainkat. Egy friss brit felmérés szerint az amerikai internethasználók 27%-a már inkább MI-alapú chatbotokat, például a ChatGPT-t, a Meta AI-t, a Copilotot vagy a Perplexityt választja a hagyományos keresőmotorok helyett.

A chatbotok használata logikus lépésnek tűnik: azonnali, könnyen érthető válaszokat kínálnak, sokszor több forrásból összeállítva. Ám e mögött az egyszerűség mögött komoly problémák húzódhatnak meg, amelyek akár félrevezető információkat is eredményezhetnek – és ez különösen veszélyes lehet a hírek, politikai állítások vagy egészségügyi tanácsok esetében.

Tényellenőrzés chatbotokkal: hol csúszik el a rendszer?

A Grok chatbot körüli botrány jól példázza a problémát. A platform téves információkat közölt a dél-afrikai „fehér népirtásról”, amelynek valóságalapja erősen megkérdőjelezhető, és a szélsőjobboldali összeesküvés-elméletekhez kapcsolódik. A Grok azonban nemcsak hogy ezt az állítást „tényként” kezelte, hanem kéretlenül is felhozta a témát teljesen más kérdésekre válaszolva.

Ez nem egyedi eset. A BBC és a Tow Center for Digital Journalism tanulmányai szerint a chatbotok válaszai gyakran tartalmaznak torzításokat, ténybeli hibákat és manipulált idézeteket. A BBC kutatása szerint a vizsgált válaszok több mint fele valamilyen súlyos problémával bírt, míg a Tow Center elemzése szerint a chatbotok az esetek 60%-ában nem tudták pontosan megjelölni a forrásokat. Ezek a hibák nem csupán technikai bakik – hanem potenciálisan félrevezető, sőt káros információk is lehetnek.

Mi áll a hibák hátterében?

A chatbotok „diétája” – vagyis az, hogy milyen adatbázisokon és milyen forrásokon tanulnak – döntő fontosságú. Ha az MI nem megbízható vagy torzított információkon alapul, akkor a válaszai is azok lesznek.

Ráadásul ezek a chatbotok gyakran „riasztó magabiztossággal” adják a hibás válaszaikat. A ChatGPT például 134 alkalommal hibásan azonosított forrásokat, de csupán tizenötször jelezte, hogy nem biztos a válaszban – elutasítani pedig egyszer sem volt hajlandó. A rendszer inkább kitalál valamit, mint hogy ne mondjon semmit.

Chatbotok használata sokszor kockázatos. Ellenőrizni kell
Chatbotok használata sokszor kockázatos. Ellenőrizni kell/Fotó: 123rf.com

A chatbotok használata továbbra is kockázatos

A Meta AI is hasonló problémákkal küzd: 2024 áprilisában egy New York-i szülői Facebook-csoportban egy teljesen fiktív posztot generált, amelyben egy fogyatékkal élő gyermek szülőjeként azonosította magát. Bár a Meta elnézést kért, az eset ismét rámutatott arra, hogy ezek az eszközök nem rendelkeznek „tudattal” vagy „tapasztalattal”. Könnyen lehetnek a félreértések és a konteók terjesztői.

Más esetekben a chatbotok nyelvi félreértések miatt adnak nevetséges válaszokat, mint amikor Grok azt hitte, egy kosárlabdázó „téglákat dobál”, szó szerint téglákkal okozott károkat. A szórakoztató hibák mellett azonban komoly következményekkel járhatnak a félretájékoztatások, például amikor Grok hamisan közölt adatokat az elnökjelöltek szavazólapra kerüléséről.

A megoldás: tudatosság és ellenőrzés

Bár a chatbotok használata kényelmes és gyors, az MI-alapú rendszerek jelenlegi formájukban nem helyettesíthetik a független, emberi tényellenőrzést. A felhasználóknak érdemes kritikusan kezelniük a chatbotok válaszait, különösen ha politikai, egészségügyi vagy társadalmi kérdésekről van szó.

A technológia fejlődésével a pontosság is javulhat, de amíg ez nem történik meg, az MI-asszisztensek használata mellett szükséges a források többszörös ellenőrzése is.

Itt arról olvashatsz: busy culture. A rohanás illúziója.

Google News
A legfrissebb hírekért kövess minket a LIFE Google News oldalán is!

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.