China Justitie Observer

中 司 观察

het EngelsArabischVersimpeld Chinees)NederlandsFransDuitsHindiItaliaansJapanseKoreanPortugeesRussianSpaansSwedishHebreeuwsIndonesianVietnameesThaiTurksMalay

Hoe gaat China om met platformverantwoordelijkheid bij algoritmische besluitvorming?

Sun, 28 november 2021
Model: Inzichten
Medewerkers: Guodong Du

Avatar

 

Sleutelfaciliteiten:

  • Chinese wetgevers hebben de centrale rol van algoritmen in de werking van internetplatforms gerealiseerd en gedefinieerd als "geautomatiseerde besluitvorming" in de wet op de bescherming van persoonlijke informatie (PIPL) die op 20 augustus 2021 van kracht werd en deze technologie voor het eerst reguleert.
  • Op grond van de PIPL beoordelen platforms vooraf de impact van algoritmen en zijn achteraf aansprakelijk voor de resultaten van de besluitvorming.
  • De PIPL breidt het recht op kennis van de platformgebruikers uit en vereist dat platforms de "informatiecocons" doorbreken die zijn gecreëerd door algoritmische gepersonaliseerde aanbevelingen aan gebruikers.


China's wet op de bescherming van persoonlijke gegevens (个人信息保护法), uitgevaardigd in augustus 2021, trekt de grenzen voor internetplatforms die geautomatiseerde besluitvorming uitvoeren door middel van algoritmen.

. Achtergrond

Chinese internetplatforms, meestal TopBuzz en TikTok of ByteDance, maken veelvuldig gebruik van aanbevelingsalgoritmen om inhoud en producten naar hun gebruikers te pushen.

Dergelijke algoritmen, die naar verluidt de rechten van gebruikers op vrije beslissingen hebben geschonden en zo moreel risico hebben gecreëerd, worden echter in twijfel getrokken door het publiek en regelgevers.

Chinese wetgevers hebben zich de centrale rol van algoritmen in de werking van dergelijke platforms gerealiseerd en hebben dit gedefinieerd als "geautomatiseerde besluitvorming" in de wet op de bescherming van persoonsgegevens (hierna 'de PIPL') die op 20 augustus 2021 van kracht is geworden en deze technologie voor de eerste keer.

In overeenstemming met de PIPL verwijst geautomatiseerde besluitvorming naar de activiteiten van het automatisch analyseren en beoordelen van de gedragsgewoonten, hobby's of financiële, gezondheids- en kredietstatus van individuen door middel van computerprogramma's en het nemen van beslissingen daarover. (Artikel 73)

Daarvoor waren de meningen verdeeld over de aansprakelijkheid van platforms voor geautomatiseerde besluitvorming. Sommige mensen waren bijvoorbeeld van mening dat de platforms niet aansprakelijk zouden moeten zijn voor de resultaten van hun geautomatiseerde besluitvormingsalgoritmen, die in wezen een soort neutrale technologie waren. De PIPL maakt echter het tegendeel duidelijk.

. Beperkingen op platforms

1. Regelgevers beoordelen de algoritmen rechtstreeks

Als verwerkers van persoonlijke informatie zullen platforms regelmatig controleren of hun verwerking van persoonlijke informatie voldoet aan de wet- en administratieve regelgeving. (Artikel 54)

Dit vereist dat platforms hun algoritmische geautomatiseerde besluitvorming en andere informatieverwerkingsactiviteiten periodiek controleren.

Volgens de regel kunnen de toezichthouders ook interne audits uitvoeren op de werking van de algoritmen van platforms, in plaats van alleen extern toezicht op de handelingen van platforms en de gevolgen ervan.

De toezichthouders maken de algoritmen dan ook tot direct regulerend object, waardoor de toezichthouders kunnen ingrijpen in de techniek en details van geautomatiseerde besluitvorming.

2. Platforms beoordelen vooraf de impact van algoritmen 

Als verwerkers van persoonsgegevens voeren platforms vooraf een effectbeoordeling van de bescherming van persoonsgegevens uit en registreren ze de verwerkingsinformatie als ze persoonsgegevens gebruiken voor geautomatiseerde besluitvorming. (Artikel 55)

De beoordeling door platforms omvat het volgende:

A. Of de doeleinden, methoden of enig ander aspect van de verwerking van persoonsgegevens wettig, legitiem en noodzakelijk zijn;

B. De impact op persoonlijke rechten en belangen en risiconiveau; en

C. Of de genomen beveiligingsmaatregelen rechtmatig, effectief en in verhouding tot het risiconiveau zijn.

Dienovereenkomstig voeren de platforms een voorafgaande beoordeling uit voordat algoritmen voor geautomatiseerde besluitvorming live gaan. De risicobeoordeling omvat de legitimiteit en noodzaak van de algoritmische geautomatiseerde besluitvorming, evenals de impact en het risico ervan.

Defecte algoritmische geautomatiseerde besluitvorming van platforms kan schade toebrengen aan de eigendommen en persoonlijke rechten van burgers, zelfs aan openbare belangen en nationale veiligheid.

Daarom kunnen de negatieve gevolgen van invloed zijn op duizenden gebruikers. Op dat moment, ook al worden de platforms verantwoordelijk gehouden, kan het moeilijk zijn om de schade die al is aangericht te herstellen.

Om een ​​dergelijke situatie te voorkomen, stelt de wet een voorafgaand beoordelingssysteem in voor de algoritmen van platforms in een poging om vooraf in de algoritmen in te grijpen.

3. Platforms zijn aansprakelijk voor de uitkomsten van de besluitvorming achteraf

Platforms nemen de volgende verplichtingen op zich voor resultaten van geautomatiseerde besluitvorming (artikel 24):

A. Platforms zorgen ervoor dat de resultaten eerlijk en onpartijdig zijn

Wanneer verwerkers van persoonlijke informatie geautomatiseerde besluitvorming met persoonlijke informatie uitvoeren, zorgen zij voor transparantie van de besluitvorming en eerlijkheid en onpartijdigheid van de resultaten, en geven zij geen onredelijke verschillende behandeling aan individuen in termen van transactieprijzen of andere transactievoorwaarden.

B. Platforms bieden geautomatiseerde besluitvormingsopties die niet gericht zijn op persoonlijke kenmerken van hun gebruikers.

Wanneer op push gebaseerde informatielevering of commerciële marketing aan individuen wordt uitgevoerd door middel van geautomatiseerde besluitvorming, worden tegelijkertijd opties aan de individuen aangeboden die niet gericht zijn op persoonlijke kenmerken van de individuen of gemakkelijke manieren om de ontvangst te weigeren.

C. Platforms geven toelichting bij de besluitvormingsresultaten.

Wanneer een besluit dat materiële gevolgen heeft voor de rechten en belangen van een persoon wordt genomen door middel van geautomatiseerde besluitvorming, heeft de persoon het recht om de verwerker van persoonsgegevens te verzoeken om uitleg, evenals het recht om het nemen van beslissingen door de verwerker van persoonsgegevens uitsluitend door middel van geautomatiseerde besluitvorming.

De regel stelt platforms aansprakelijk voor de resultaten van geautomatiseerde besluitvorming, waaronder:

A. De regel erkent niet de verdediging van "technologieneutraliteit" die door platforms is gebruikt. Platforms moeten verantwoordelijk zijn voor de resultaten van de algoritmische geautomatiseerde besluitvorming en moeten ervoor zorgen dat de resultaten eerlijk en redelijk zijn.

B. De regel breidt het recht om te weten van de platformgebruikers uit. De gebruikers kunnen de transparantie van de geautomatiseerde besluitvormingsresultaten opvragen, evenals uitleg van platforms in geval van "een materiële impact".

C. De regel vereist dat platforms de "informatiecocons" doorbreken die zijn gecreëerd door algoritmische gepersonaliseerde aanbevelingen aan gebruikers, en vereist dat platforms het recht van gebruikers op informatie beschermen.

III. Onze opmerkingen

China heeft een doorbraak bereikt in de PIPL door wettelijke regels toe te voegen voor de algoritmen van geautomatiseerde besluitvorming van platforms. Het moet echter nog verder verfijnd worden. De wet verduidelijkt bijvoorbeeld niet:

A. voorwaarden voor platforms om algoritmebeoordeling te starten.

B. of en in hoeverre de beoordelingsrapporten openbaar worden gemaakt nadat platforms hun algoritmen hebben geëvalueerd, en 

C. hoe platforms aansprakelijk zouden moeten zijn voor de schade veroorzaakt door hun algoritmische geautomatiseerde besluitvorming.

Ik neem aan dat Chinese regelgevers nog steeds de mogelijkheid onderzoeken om een ​​reeks specifieke verordeningen vast te stellen om de PIPL verder uit te voeren.

 

Foto door Roadtrip met Raj on Unsplash

 

 

 

 

 

Medewerkers: Guodong Du

Opslaan als PDF

Gerelateerde wetten op China Laws Portal

Andere klanten bestelden ook:

Casestudy: administratieve bestraffing van gezichtsherkenning

Een studie van meer dan 400 gevallen van administratieve straffen werpt licht op de huidige houding van de Chinese regering ten aanzien van gezichtsherkenning en biedt een scenario om te beoordelen hoe de Chinese wet op de bescherming van persoonlijke informatie van toepassing zou zijn als de gevallen zich vandaag zouden voordoen.

Wat zegt de Chinese rechtsbijstandswet?

Wat is de dienstdoende advocaat? Wie treedt op als juridisch medewerker? Welke juridische diensten kunnen worden verleend? Hier zijn de belangrijkste vragen die moeten worden beantwoord om kennis te maken met de Chinese rechtsbijstandswet.

Arbeidsveiligheidswet van China (2021)

Wet op de arbeidsveiligheid (安全生产法) werd afgekondigd op 29 juni 2002 en gewijzigd in respectievelijk 2009, 2014 en 2021. De laatste herziening is op 1 september 2021 in werking getreden.

Bepalingen met betrekking tot verschillende kwesties met betrekking tot de toepassing van het recht in het proces van civiele zaken met betrekking tot het gebruik van gezichtsherkenningstechnologieën om persoonlijke informatie te verwerken (2021)

Bepalingen van het Hooggerechtshof over verschillende kwesties met betrekking tot de toepassing van de wet in het proces van civiele zaken waarbij gezichtsherkenningstechnologieën worden gebruikt om persoonlijke informatie te verwerken (最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定) zijn afgekondigd op 27 juli 2021 en zijn op 1 augustus 2021 in werking getreden.