Mi történik, ha a mesterséges intelligencia elfogadja az abszurd tüneteket? Az ítélet már megjelent tudományos szövegekben
Sok ember számára elég egy magabiztos hangnemben írt válasz ahhoz, hogy azt gondolja, egy gép valóban tudja, miről beszél. A chatbotok Szövegek összefoglalására, dokumentumok fordítására vagy gyors kétségek megoldására használják, de továbbra is generálnak hamis adatok roppant könnyedséggel, ráadásul rendszerint ugyanazzal a határozott hangnemben fejezik ki ezeket, mint amilyeneket akkor használnak, amikor jól sikerül.
Ez a probléma sokkal kényesebbé válik, amikor a beszélgetés az orvosi területre kerül. Egy gyakori tünet egy kitalált betegséggel járhat, a fáradt vagy aggódó felhasználó pedig fogadd el ezt a magyarázatot mert szaknyelvvel írva jelenik meg. A mesterséges intelligencia rendszerek még mindig nem különböztetik meg egyértelműen a megbízható forrást a megtévesztésre konstruált szövegtől, különösen akkor, ha a hazugság tudományos megjelenést kölcsönöz.
Éppen ezért több szakember azt tanácsolja, hogy ezeket az eszközöket ne használják orvosok, pszichológusok vagy egészségügyi szakemberek helyettesítésére, bár sokan már most is naponta használják, hogy választ keressenek egészségi állapotukra.
Almira Osmanovic Thunström kitalált egy betegséget, hogy tesztelje őket
Egy orvoskutató valódi kísérletté változtatta ezt az aggodalmat. Almira Osmanovic Thunströma Göteborgi Egyetemen létrehozott egy nem létező betegséget bixonimánia és számos hamis szöveget publikált annak tesztelésére, hogy a mesterséges intelligencia modelljei végül elfogadják-e hitelesnek. Természet elmagyarázta, hogy a hamis betegség véget ért megjelenni a különböző chatbotok orvosi válaszaiban annak ellenére, hogy a montázs abszurd jeleket tartalmazott az első sorokból.
A bixonimánia először 2024 márciusában jelent meg, és tünetei egészen hétköznapinak tűntek. Szemviszketés, rózsaszínes szemhéj és kellemetlen érzés a képernyő előtt eltöltött órák után. Osmanovic Thunström úgy tervezte a hamis cikkeket, mintha lehetetlen lenne elhinni. Hívták a feltételezett főnyomozót Lazljiv IzgubljenovicAI segítségével létrejött nem létező identitás. Ezek is hamisak voltak Asteria Horizon Egyetem a kaliforniai Nova City és a finanszírozó szervezetek, köztük a Bob Középfokú Tanári Alapítvány és a A Gyűrű és a Galaktikus Triád Szövetségének Egyeteme.
Az egyik szöveg még megköszönte „Maria Bohm, a Csillagflotta Akadémia professzora” segítségét, amiért „a USS Enterprise fedélzetén” együttműködött. Maga a cikk is elismerte, hogy „ez a munka mind ki van találva”, és „ötven kitalált embert” toboroztak.
Ezek egyike sem akadályozta meg több chatbotot abban, hogy a betegséget hitelesnek tekintse. 2024. április 13-án a Copilot a bixonimániát „érdekes és viszonylag ritka állapotként” határozta meg. A Gemini azt javasolta, hogy keressen fel egy szemészt, ha kompatibilis tünetek jelentkeznek, és a Perplexity szerint 90 000 emberből egy szenved ettől. A ChatGPT válaszolt azoknak a felhasználóknak is, akik megkérdezték, hogy kellemetlen érzésük egybeesik-e ezzel a feltételezett betegséggel.
Egy orvosi folyóirat visszavonta a bixonimániára hivatkozó tanulmányt
Osmanovic Thunström elmagyarázta Természet hogy „aggasztó, hogy ezek a fontos állítások vitathatatlanul áthaladnak az irodalomban”. A kutató hozzátette Valószínűleg van még több hasonló hiba, amelyet még nem észleltek. A cégek eltérően reagáltak. Az OpenAI biztosította a tudományos folyóiratot arról, hogy jelenlegi modelljei „jelentősen jobbak” az orvosi információk szolgáltatásában. A Google azt állította, hogy ezek a válaszok a Gemini régebbi verzióiból származtak, és a Microsoft nem válaszolt. Ennek ellenére 2026 márciusában a Copilot még mindig „még széles körben nem ismert” betegségként írta le a bixonimániát.
Az eset is felkeltette a figyelmet Mahmud OmarHarvard kutató, aki publikálta munkáját Lancet Digital Health. A tanulmány rámutatott, hogy a nyelvi modellek könnyebben elfogadják a hamis szöveg, ha tudományos megjelenést kölcsönöz.
Minél professzionálisabbnak tűnik a dokumentum, annál valószínűbb, hogy az AI megbízható információként kezeli. Alex Ruani, az egészségügyi téves információk doktora University College Londonazt mondta neki Természet hogy a kísérlet az voltmesterkurzus a félretájékoztatás működéséről”.
A történet újabb aggasztó lépést tett, amikor az egyik hamis cikk véget ért egy lektorált kiadvány idézi. Egy tanulmány jelent meg ben Cureusmagazin Springer Nature Egy indiai orvosi intézet kutatói által készített dokumentum a bixonimániát a periorbitális melanózis „feltörekvő formájaként” említette. Természet Később felvette a kapcsolatot a magazinnal, és a cikket végül visszavonták. A visszavonási közlemény elismerte „három irreleváns hivatkozás jelenlétét, köztük egy fiktív betegségre való hivatkozást”.
Az olcsó egészségügyi válaszok egyre több személyes konzultációt vonzanak
Ezeknek az eszközöknek a növekedése azt is megváltoztatta, ahogyan egyesek érzelmi segítséget kérnek. Egyre több felhasználó fordul a ChatGPT-hez és más chatbotokhoz, hogy szorongásról, személyes problémákról vagy testi tünetekről beszélhessen, mert költsége sokkal alacsonyabb mint a hagyományos konzultációé.
Egy 45 perces pszichológiai ülés legalább 60 euróba kerül, míg a chatbot havi előfizetése körülbelül 23 euróba kerül. Ez a gazdasági különbség sok felhasználót arra késztetett konzultáljon az AI-val a nap bármely szakában. Több szakember azonban emlékszik arra, hogy ezek a rendszerek nem helyettesítik az egészségügyi szakembert, és már volt olyan, aki követte a mesterséges intelligencia által generált káros tanácsokat.