A Facebook az európai felhasználók személyes információit használná fel a mesterséges intelligencia fejlesztéséhez.


A Max Schrems által vezetett NOYB (None Of Your Business) szerdán felszólító levelet küldött a Metának, amely

május 27-től tervezi az Instagram és Facebook európai felhasználóinak személyes adatait AI-fejlesztésre használni.

A Meta az Európai Unió adatvédelmi törvényeire hivatkozva "jogos érdek" kategóriába sorolta a felhasználói adatok alkalmazását generatív mesterséges intelligencia modelljeinek és más AI eszközöknek a fejlesztésére, amelyek esetében lehetőségük van ezek megosztására harmadik felekkel is.

Az amerikai technológiai cég áprilisban bejelentette, hogy a felhasználók számára elérhetővé tesz egy űrlapot, amely lehetőséget biztosít számukra, hogy kifejezzék ellenérzésüket adataik betanítási célú felhasználásával kapcsolatban. A vállalat ígérete szerint a magánüzenetek és a 18 év alatti felhasználók nyilvános információi nem kerülnek felhasználásra a gépi tanulási folyamatokhoz.

Schrems éles szavakkal kritizálta a Meta érvelését:

Az Európai Bíróság már megállapította, hogy a Meta nem hivatkozhat jogos érdekre a felhasználók célzott hirdetésekkel való megcélzásakor. Hogyan lehetne akkor jogos érdeke minden adatot felszívni AI-betanítás céljából?

A NOYB jelenleg a jogi lehetőségeit tanulmányozza, beleértve egy lehetséges csoportos kártérítési eljárás megindítását is. "Ha figyelembe vesszük a több mint 400 millió európai Meta-felhasználót, akik mindannyian akár 500 euró kártérítést követelhetnek, könnyen belátható, hogy milyen jelentős összeg jöhetne létre" - fogalmazott Schrems.

Az adatvédelmi szervezet az EU kollektív jogorvoslati mechanizmusa alapján nyújthat be keresetet, amely lehetővé teszi a fogyasztók számára, hogy kollektív pereket indítsanak vállalatok ellen az EU-ban. A Meta számára május 21-i határidőt szabtak a válaszadásra.

A NOYB véleménye szerint a Meta jobban illeszkedhetne az uniós adatvédelmi előírásokhoz, ha az opt-out megoldás helyett az opt-in lehetőséget választaná a felhasználók számára. Emellett fontos lenne, hogy világos és átlátható feltételeket állítson fel az AI-betanításhoz, például az anonim felhasználói adatok felhasználásának alkalmazásával.

Zárójelben: (Reuters)

Related posts