Чатботовете с AI крият риск за личните ви данни

Технологии
Не бъди безразличен, сподели статията с твоите приятели:

Нидерландският орган за неприкосновеност на личните данни (Autoriteit Persoonsgegevens) излезе с предупреждение за използването от компаниите на чатботове с изкуствен интелект след няколко случая на изтичане на лична информация, включително медицински данни, съобщават местни медии, цитирани от БТА.

Служителите, които използват цифрови асистенти като ChatGPT и Copilot, за да отговарят на въпроси на клиенти или да обобщават големи файлове, може да пестят време, но също така представляват риск за защитата на данните, казват от институцията.

В случай на нарушаване на сигурността на данните се получава достъп до лични данни, без това да е разрешено или предвидено. Често служителите използват чатботовете по собствена инициатива и в разрез с изискванията на работодателя. Ако в този процес са въведени лични данни, това означава, че е налице нарушение на сигурността на данните.

Понякога използването на чатботове с изкуствен интелект е част от политиката на организациите. В този случай това не е нарушение на данните, но често не е разрешено от закона. Организациите трябва да предотвратят и двете ситуации, посочва Нидерландският орган за неприкосновеност на личните данни.

Повечето компании, които стоят зад чатботовете, съхраняват всички въведени данни. В резултат на това тези данни се оказват на сървърите на тези технологични компании, често без лицето, което е въвело данните, да разбере и без да знае какво точно ще направи тази компания с тези данни. Нещо повече, лицето, чиито данни се обработват, също няма да знае.

В един от случаите асистент на семеен лекар е подал лична информация за пациенти в програма, базирана на “ЧатДжиПиТи”, която след това е била съхранявана на сървърите на технологичната компания и евентуално използвана за обучение на софтуера.

Хората трябва да могат да вярват, че медицинската им информация е в безопасност, заяви говорителката Карин Брюненберг пред телевизионния канал Ен О Ес (NOS). “Но след като тази информация попадне в системата, вие вече нямате контрол върху нея”.

Друг инцидент е свързан с изтичане на данни в телекомуникационна фирма, при което служител е подал на чатбот база данни, включваща адреси.

Ако дадена компания разрешава използването на чатботове, управлявани от изкуствен интелект, тя трябва да сключи ясни споразумения с персонала относно използването им, казват от Нидерландския орган за неприкосновеност на личните данни.

Източник/ци: nixanbal.com, it.dir.bg


Коментари

Коментара

There is no ads to display, Please add some

Не бъди безразличен, сподели статията с твоите приятели:

Вашият коментар