V souvislosti s riziky umělé inteligence je důležité připomenout, že již dnes AI nástroje pracují s velkým množstvím osobních a citlivých dat, která jim sami poskytujeme (často si ani neuvědomujeme, že se tak děje). Tyto údaje jsou pak využívány různými způsoby, například pro personalizaci vyhledávání, cílení reklam, zpracování personalistiky nebo práci s e-maily s využitím AI. Z těchto důvodu je nezbytné se při využívání umělé inteligence řídit specifickými zásadami ochrany osobních údajů.
Klíčová je transparentnost – uživatelé by měli mít jasnou představu o tom, jaké údaje jsou shromažďovány, za jakým účelem a kdo k nim má přístup. Často se totiž jedná o vysoce citlivé informace, jako jsou naše aktivity na internetu, osobní preference, lokalizační údaje či dokonce biometrické informace. Jasná komunikace a získání souhlasu se zpracováním dat tvoří základ pro budování důvěry a respektování práv uživatelů. V praxi to můžeme vidět například ve způsobu, jakým mobilní aplikace žádají o přístup k různým funkcím zařízení, nebo v případě webových stránek, které vyžadují souhlas s cookies. U generativní AI by se uživatelé měli ujistit, zda nejsou jejich data využívána k trénování AI modelů. Většina známých AI nástrojů umožňuje vypnout tuto funkci v nastavení.
Dalším důležitým principem je minimalizace shromažďovaných dat. AI by měla sbírat pouze ty informace, které jsou nezbytné pro splnění konkrétního úkolu. Sbírání nadbytečných dat zvyšuje nejen riziko jejich zneužití, ale také to může vést k etickým problémům, zejména pokud jsou osobní data využívána způsoby, které uživatel neschválil.
Bezpečnost dat představuje další klíčovou oblast. Shromážděné informace musejí být chráněny proti neoprávněnému přístupu, úniku nebo zneužití. To zahrnuje technická opatření, jako jsou šifrování a pseudonymizace, ale také organizační opatření, například školení zaměstnanců a pravidelné audity bezpečnostních postupů.
Nesmíme zapomenout, že nástroje umělé inteligence se často učí z dat, která do nich vkládáme, což může zahrnovat i citlivé osobní informace. Z tohoto důvodu se důrazně nedoporučuje zadávat do AI nástrojů (zejména do jejich bezplatných či veřejných verzí) jakékoli osobní údaje, pokud si nejste jisti, jak s nimi bude nakládáno. V případě modelu GPT od OpenAI jsme již v minulosti zaznamenali úniky dat, kdy byly informace z privátních konverzací zobrazeny jiným uživatelům. Tato data zahrnovala přihlašovací údaje a další osobní informace, které uživatelé zadávali v rámci společných konverzací.
Připomínáme, že společnosti typu OpenAI či Microsoft mají ve svých nástrojích zabudována nastavení, která umožňují zabránit tomu, aby se AI učila z uživatelských dat (tedy aby je nevyužívala k trénování). Ovšem většina společností používá pro trénování umělé inteligence data, která jsou veřejně dostupná, například informace z diskusních fór či sociálních sítí. Tato data často zahrnují i osobní údaje (fotografie, kontaktní informace, jména a příjmení apod.).
Musíme zohlednit i princip odpovědnosti (tzv. accountability). Organizace, které využívají umělou inteligenci ke zpracování osobních údajů, musí být schopny prokázat, že dodržují právní předpisy na ochranu osobních údajů, jako je například nařízení GDPR. To zahrnuje pravidelnou kontrolu, posuzování rizik spojených se zpracováním dat a implementaci vhodných nápravných opatření.
V neposlední řadě je důležité dbát na práva jednotlivců. To zahrnuje právo na přístup k informacím (jaká data jsou shromažďována a jakým způsobem jsou využívána), právo na opravu chybných údajů, právo na výmaz osobních dat, pokud již nejsou potřebná, a také právo vznést námitku proti automatizovanému rozhodování, které by mohlo významně ovlivnit jejich životy.
Dodržování těchto principů je klíčové nejen pro zajištění práv uživatelů, ale také pro posílení důvěry v technologie umělé inteligence. Bez důvěry ve způsob, jakým jsou naše údaje zpracovávány, je velmi obtížné naplno využívat potenciál umělé inteligence pro tvorbu inovativních a přínosných řešení.
Vedle výše zmíněných pravidel je důležité zohlednit také etické otázky spojené s používáním AI při zpracování osobních dat. AI by měla být navržena a využívána tak, aby respektovala lidskou důstojnost a soukromí, aniž by sloužila jako nástroj k diskriminaci či poškozování jednotlivců. Algoritmy by měly být objektivní a data by měla být spravována s ohledem na možná zkreslení, která mohou vést k nespravedlivým výsledkům. Nicméně jak zmiňujeme v textu AI bias a halucinování, umělá inteligence není zcela bez předsudků, může se dopouštět chyb či biasů a její etické limity nejsou vždy zcela funkční.
Rovněž je nezbytné podporovat informační gramotnost uživatelů, aby si uvědomovali, jakým způsobem mohou být jejich data využívána a jaká rizika z toho plynou. Informovaní uživatelé mají lepší schopnost činit uvědomělá rozhodnutí o tom, jaké informace sdílejí a jaká oprávnění poskytují, což posiluje jejich schopnost chránit své soukromí.
Z hlediska budoucího vývoje umělé inteligence je důležité sledovat dopady jejího používání a upravovat právní a regulační rámce tak, aby odpovídaly rychlým technologickým změnám. Je důležité, aby zákonodárci, vývojáři a organizace spolu úzce spolupracovali, aby zajistili, že inovace v oblasti umělé inteligence budou probíhat v souladu s ochranou osobních údajů i s etickými normami.
Tato opatření umožňují nalézt rovnováhu mezi využíváním možností, které umělá inteligence nabízí, a ochranou práv jednotlivců, což je klíčové pro zajištění etického a odpovědného rozvoje AI technologií ve společnosti.
Otázky k zamyšlení:
Zdroje:
Poremba, S. (2024). ChatGPT confirms data breach, raising security concerns. In https://securityintelligence.com/articles/chatgpt-confirms-data-breach/.
Digitálními stopami se zabýváme také v naší online hře Internet Highway, která je zcela zdarma na webu https://www.internethighway.cz.
Jaké informace bude aplikace shromažďovat?
Zamyslete se, jaké konkrétní údaje aplikace potřebujete, aby správně fungovala. Například: pokud děláte aplikaci na sledování sportovních aktivit, možná budete potřebovat přístup k poloze uživatele. Potřebujete ale opravdu znát jejich jméno nebo kontakty?
Cílem je zamyslet se nad tím, jaké údaje jsou nezbytné a jaké už mohou být nadbytečné.
Jak budou tyto informace chráněny?
Budete například šifrovat data (To znamená, že informace jsou uloženy v takové podobě, že jim bez speciálního klíče nikdo nerozumí.)? Nebo omezíte přístup (Jen určití lidé nebo části aplikace budou mít přístup k těmto údajům.)? Zkuste navrhnout nějaká další řešení!
Jaké konkrétní zásady ochrany dat byste nastavili a proč?
Například budete shromažďovat pouze ty údaje, které jsou opravdu potřeba? Budete požadovat informovaný souhlas uživatele, aby věděl, jaká data sbíráte a proč (Dáte jim možnost rozhodnout se, zda chtějí vaše aplikaci používat.)? Nebo uživatelům rovnou vysvětlíte, jaká data shromažďujete a jak s nimi nakládáte? Díky tomu možná získáte jejich důvěru, ale také si třeba vaši aplikaci ani nenainstalují.
Cílem je, aby si studenti uvědomili, jak náročné a zodpovědné je pracovat s osobními údaji uživatelů. Měli by se zamyslet nad tím, že sbírání dat není jen o technickém procesu, ale že za tím stojí i etické a právní principy, které mají chránit soukromí lidí. Jako „vývojáři“ se tedy studenti snaží vytvořit aplikaci, která nejen dobře funguje, ale také respektuje a chrání soukromí uživatelů.
Pokud by měli žáci problém s pochopením posledního úkolu, mohou si představit, že vytvářejí aplikaci, kterou chtějí sami používat. Jaká opatření by tam chtěli mít, aby se cítili bezpečně při zadávání svých osobních údajů? Úkol tak rozvíjí schopnost přemýšlet o ochraně dat z pohledu vývojáře a zároveň z pohledu uživatele. Zároveň by tento i ostatní úkoly měli pomoci žákům pochopit důležitost ochrany osobních údajů při používání nejen umělé inteligence, ale i jiných digitálních technologií.
Tým E-Bezpečí