pondelok 31. júla 2023

GDPR: RIziká umelej inteligencie

Umelá inteligencia (AI) dokáže vytvárať vlastné texty aj obrázky, zvládne robiť zápisy z porád či dokonca navrhovať stratégie a rozhodovať o rôznych záležitostiach na základe vstupných dát. Jej schopnosti sa každým dňom posúvajú vpred. Ako sú však chránené dáta používateľov internetu, ktoré pre svoje výstupy AI potrebuje? Tejto otázke sa dnes venujú už viaceré dozorné orgány v Európe. 

Využívanie umelej inteligencie predstavuje neuveriteľné šetrenie času aj zdrojov. Okrem množstva benefitov, ktoré prináša, však existujú aj riziká, predovšetkým pokiaľ k implementácii AI dochádza nekontrolovaným spôsobom. „Umelá inteligencia funguje na základe učenia sa, čo znamená, že sa neriadi vopred naprogramovanými pokynmi. V dôsledku toho môže vytvoriť viacero nejasností a právnych obáv, napr. neobjektívne či diskriminačné prijímanie rozhodnutí, ktoré porušuje všeobecné požiadavky na spravodlivosť a zodpovednosť stanovené GDPR,“ upozorňuje Jakub Berthoty. Takéto situácie môžu podľa neho nastať, keď by AI rozhodovala v pracovno-právnej oblasti (začatie, zmena, ukončenie zmluvných pracovných vzťahov), v oblasti verejnej pomoci (hodnotenie oprávnenosti prideľovania dávok, overovanie pravosti dokladov), v bankovom sektore (rozhodovanie o bonite klienta) či v oblasti súdnictva (posúdenie dôkazov, ich prijateľnosť) a rôznych iných rizikových sektoroch, kedy je nevyhnutné posúdenie ľudským faktorom. Umelá inteligencia často zhromažďuje a analyzuje veľké množstvo osobných údajov, čo vyvoláva otázky týkajúce sa ochrany súkromia a bezpečnosti údajov. Chatboty akým je napr. ChatGPT, využívajú na trénovanie svojho jazykového modelu nespočetné množstvo dostupných údajov z webu, vrátane príspevkov na sociálnych sieťach. Mnohé z týchto údajov sú osobné údaje alebo sú chránené autorskými právami. „Dotknuté osoby musia byť v každom prípade adekvátne informované o používaní umelej inteligencie na spracovanie ich osobných údajov. Ak navyše dochádza k automatizovanému individuálnemu rozhodovaniu (AIR) o ich právach, majú dotknuté osoby právo, aby sa takéto rozhodovanie na nich za stanovených podmienok nevzťahovalo. Pri nezohľadnení týchto faktorov môže dôjsť k porušeniu transparentnosti a zákonného spracúvania osobných údajov,“ zdôrazňuje Jakub Berthoty.

Riziká AI si začali všímať európske dozorné orgány. Taliansky dozorný orgán, ako najaktívnejší spomedzi európskych úradov na ochranu osobných údajov v postupe voči AI technológiám, už zakročil proti ChatGPT, AI Chatbot aj voči Clearview. Dôvodom bolo využívanie množstva údajov zozbieraných z internetu bez právneho základu a ďalších náležitostí. O AI sa však aktívne zaujíma aj nemecký a španielsky dozorný orgán a pracovnú skupinu už vytvoril aj Európsky výbor pre ochranu údajov (EDPB). Napriek rizikám je možné umelú inteligenciu využívať v súlade s GDPR. Dôležitá je zvýšená miera senzitivity pri ochrane súkromia, tak zo strany štátnych inštitúcií, ako aj samotných dotknutých osôb. „Pri používaní AI je potrebný proaktívny prístup k zabezpečeniu ochrany osobných údajov a dbať na dodržanie všetkých podmienok stanovených GDPR. Predovšetkým ide o dodržiavanie základných zásad pri spracúvaní osobných údajov, v rámci vopred vymedzených účelov a existujúcich právnych základov. Rovnako treba dbať na zvýšenú mieru transparentnosti a v tom zmysle náležité informovanie dotknutých osôb, že dochádza k spracúvaniu ich údajov - predovšetkým informovanie dotknutých osôb v prípade AIR, profilovania, či spracúvania osobitných kategórií osobných údajov,“ vysvetľuje Jakub Berthoty. Súčasná regulácia na európskej úrovni má len dopomôcť tomu, aby sa z dobrého sluhu nestal zlý pán. V tomto smere bude vítaným prvkom aj návrh Aktu o umelej inteligencii, ktorý zastreší v budúcnosti predmetnú problematiku na európskej úrovni.