Világ

A ChatGPT, a Claude, a Grok és a Perplexity adatokat szivárogtat ki beszélgetéseiből a hirdetéskövetés érdekében

A fő mesterséges intelligencia chatbotok megosztják az online hirdető multinacionális cégekkel folytatott felhasználói beszélgetések adatait, amelyek személyre szabott profilok létrehozására és hiperszegmentált hirdetések értékesítésére használják. Ez a fő következtetése annak az új tanulmánynak, amely bizonyítékot talált ezekre a szivárgásokra a ChatGPT, Claude, Grok és Perplexity cégeknél, amelyek elküldik az információkat a Meta, a Google, a TikTok és más, digitális nyomon követéssel és webes elemzéssel foglalkozó cégek hirdetéseinek adatbázisaiba.

A szivárgás a chat állandó linkjein keresztül történik, más néven állandó hivatkozások. A platformok ezeket a webcímeket felhasználói azonosítókkal, például titkosított e-mailekkel vagy cookie-kkal együtt elküldik a nyomkövetőknek, ami lehetővé teszi, hogy a beszélgetések adatait harmadik felek által a felhasználó tudta nélkül készített hirdetési profilokhoz társítsák.

„Ez a központi kockázat: az URL-ek szűrése nem csupán metaadatok, hanem egyenértékű lehet magának a beszélgetésnek a szűrésével” – figyelmeztet az IMDEA Networks kutatóközpont által koordinált és Narseo Vallina spanyol kutató által vezetett tanulmány. „A megfigyelt gyakorlatok arra is utalnak, hogy a hagyományos webes adatvezérelt üzleti modellek (például a reklámozás vagy az elemzés) korlátozott felügyelet mellett reprodukálódnak a nyelvi modellek ökoszisztémáiban.”

A vállalatok tisztában vannak azzal, hogy ezek a gyakorlatok sérthetik az adatvédelmi előírásokat. A Perplexity például 2026. április 3-án eltávolította webhelyéről a Meta trackert, miután az Egyesült Államokban egy csoportos keresetet indítottak a felhasználók magánéletével kapcsolatban. Ez leállította a linkek és cookie-k elküldését a közösségi hálózatra, és megszüntette a nyilvános hozzáférést a be nem jelentkezett felhasználók által létrehozott beszélgetésekhez.

Ugyanez a gyakorlat, csak még mindig aktív, az, ami Grokban (az xAI által kifejlesztett asszisztens, Elon Musk tulajdonában) fordul elő. „Ez a legsúlyosabb dolog, amit találtunk” – emeli ki Vallina: „Az URL-ek és a beszélgetések nyilvánosan hozzáférhetők. A nyomkövetők szóról szóra hozzáférhetnek a beszélgetéshez. Nincs bizonyítékunk arra, hogy olvassák, de tudjuk, hogy fennáll a kockázat.”

adatszivárgás

A zavarodottság annak ellenére, hogy deaktiválja a beszélgetések harmadik felek általi olvasásának lehetőségét, más nyomkövető rendszereket is aktívan tart. A tanulmány lebontja, hogy minden alkalommal, amikor egy személy használja az asszisztenst, a cég automatikusan elküldi titkosítatlan e-mail címét, a beszélgetés pontos linkjét és a készülék műszaki adatait a Datadog rendszerfigyelő platformnak; és a Singular, egy analitikára és marketingre szakosodott cég.

A talált bizonyítékok szerint az OpenAI elküldi a ChatGPT ingyenes verzióját használó felhasználók beszélgetéseinek címét és címét a Google Analytics számára. A maga részéről Claude, az Anthropic cégtől közvetlenül küld felhasználói adatokat olyan platformokra, mint a LinkedIn, a TikTok, a Google és nyolc másik különböző hirdetési hálózat saját szervereiről, ez a technika megakadályozza, hogy a böngészők hirdetésblokkoló eszközei elfogják az adatforgalmat.

Az elDiario.es felvette a kapcsolatot az OpenAI-val, az Anthropic-kal, az xAI-val (a Grok fejlesztője) és a Perplexity-vel, hogy belefoglalja helyzetüket az információba, de nem kapott választ. Vallina szerint a szerzők jelentették a tényeket az európai adatvédelmi ügynökségeknek. Tanulmányukat még nem vizsgálták át más független kutatók, de úgy gondolták, hogy nyilvánosságra kellene hozniuk, hogy figyelmeztessék a felhasználókat.

„A felhasználói beszélgetések gyakran tartalmaznak érzékeny információkat, mivel hajlamosak a nyelvi modelleket megbízható asszisztensnek tekinteni” – figyelmeztet a tanulmány: „Ez a felfogás növeli annak valószínűségét, hogy a szükségesnél több érzékeny információt osztanak meg.” Más kutatások kimutatták, hogy a felhasználók hajlamosak részleteket felfedni szexuális preferenciáikról, egészségi állapotukról vagy pszichológiai támogatásukról, még akkor is, ha erre nincs szükség a beszélgetés során.

„Amikor a beszélgetési adatokat megosztják harmadik felekkel, például a Metával és a Google-lal, a cookie-kkal és más felhasználói azonosítókkal együtt” – magyarázzák az IMDEA Networks kutatói, „új kockázati forgatókönyv merül fel.”

A tanulmány rámutat arra, hogy a Meta, a Google Gemini és a Microsoft Copilot mesterséges intelligenciája kimaradt ebből az első elemzésből, mivel ezek a cégek egyszerre chatbot-fejlesztők és hirdetéskövetők. Mivel az üzlet mindkét oldalán (saját szolgáltatásukban gyűjtik az adatokat, és irányítják a nyomkövető hálózatokat is) a kutatók úgy vélik, hogy ezek az asszisztensek „más fenyegetési modellt” tartalmaznak, mint a ChatGPT, Claude, Grok vagy a Perplexity. Azt mondják azonban, hogy a következő hetekben azt tervezik, hogy kutatásuk körét kiterjesztik a Google, a Meta és a Microsoft asszisztenseire.

Source link

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük