CorporatieGids Magazine

JUNI 2025 I 17 16 I CORPORATIEGIDS MAGAZINE AI neemt razendsnel een plek in de maatschappij in. Wat zijn volgens jou de belangrijkste risico’s waar woningcorporaties mee te maken hebben op het gebied van AI en privacy? AI kennen we al langer in verschillende vormen, denk aan een credit score of fraudeopsporing met behulp van algoritmes, Vanuit de privacywetgeving weten we al langer dat het van belang is dat je kunt uitleggen hoe zulke algoritmes werken. Met de opkomst van ChatGPT en CoPilot is AI veel toeganke- lijker geworden, maar hebben we geen zicht op hoe deze toepassingen hun antwoorden genereren en wat ze verder met de persoonsgegevens doen die je ze voedt. De grote risico’s zitten daar dus ook in; het invoeren van persoonsgegevens in AI-systemen, terwijl onbekend is wat daar verder mee gebeurt en het vertrouwen op antwoorden, terwijl we onvoldoende weten hoe deze tot stand komen en ze er echt nog vaak naast zitten. Wat gebeurt er wanneer een corporatie te weinig oog heeft voor privacy en compliance als het gaat om het gebruik van AI? Feitelijk creëer je dan een lek in je organisatie. Je moet ervan uitgaan dat medewerkers gebruikmaken van AI. Zonder duidelijk beleid of instructies, raak je grip op je data kwijt en loop je het risico dat wetten overtreden worden. Dat kan de AVG zijn, maar er is nu ook de AI Act, waarvan dit jaar al de eerste maatregelen zijn ingegaan en volgend jaar nog meer. Veel mensen kennen AI van programma’s als ChatGPT of Microsoft CoPilot. Wanneer is het gebruik van zo’n tool onschuldig en wanneer is er sprake van te hoog risico? Dat soort programma’s kunnen goed gebruikt worden om bijvoorbeeld stukjes tekst te schrijven of om te zetten in helder taalgebruik. Als schrijfhulp dus. Maar dan lees je het nog wel altijd na en je zorgt er natuurlijk voor dat er geen persoons- gegevens ingevoerd worden. Ga je AI inzetten om dingen uit te zoeken, voorspellingen te maken of zelfs besluiten te nemen, dan zit je snel in een hoog risicogebied. Betekent dit automatisch dat je ‘hoog risico programma’s’ eigenlijk niet kunt gebruiken? De AI Act werkt met een risico-indeling. Afhankelijk van waar je AI voor inzet, moet je meer maatregelen nemen. Zoiets als het voorspellen van crimineel gedrag valt in de verboden categorie en mag gewoonweg niet meer. En het gebruik van AI voor bijvoorbeeld recruitment, credit scores, biometrie of onderwijs valt in de hoge risicocategorie. Dat betekent dat je een hele reeks maatregelen moet treffen als je AI zo wilt gebruiken, waaronder een Fundamental Rights Impact Assessment om te beoordelen of er geen mensenrechten in gevaar zijn. Het wordt dus een stuk lastiger om AI voor zulke toepassingen in te zetten, maar dat is niet voor niks. Er kleven nou eenmaal grote risico’s aan. Tegelijkertijd hoef je voor het inzetten van bijvoorbeeld een chatbot alleen maar te zorgen voor voldoende transparantie daarover, dat valt in een veel lagere risicocategorie. Je bent als corporatie wel verantwoor- delijk voor de antwoorden die de chatbot geeft. En eerlijk gezegd ben ik nog nooit een klantenservicebot tegengekomen waar ik niet woest van werd. Een ander soort risico dus. AI kan ook bijvoorbeeld algoritmes behelzen, wat voor risico’s en regels gelden er dan? Als een algoritme met persoonsgegevens werkt, moet je kunnen uitleggen hoe het werkt en je moet transparant zijn over de inzet ervan. Iemand mag dan altijd vragen om menselijke tussenkomst bij de besluitvorming. Deze regels zijn afkomstig uit de AVG en gelden dus al een tijd. Maar ook vanuit de AI Act geldt dat je moet snappen waar je mee bezig bent bij de inzet van AI. Hoe kan Audittrail woningcorporaties daarbij helpen? Wij kunnen helpen bij het opstellen van een beleid en richtlijnen voor de organisatie, meedenken met wat nou waardevolle inzet is én inzicht geven in waarmee je juist alleen maar meer risico’s en verplichtingen op je hals haalt. Via trainingen en opleidingen kunnen we woningcorporaties ook helpen om aan de kennisplicht – AI-geletterdheid – te voldoen. En uiteraard kunnen we helpen bij de Impact Assessments, zowel vanuit privacyperspectief, de AI-act als de bredere mensenrechten. Verwacht je dat de AI-act geüpdatet wordt en dat er nieuwe regels gaan gelden in de sector? De AI Act is wel heel alomvattend en als het goed is aardig toekomstbestendig. Maar zoals met alle nieuwe wetgeving zijn er nog veel vragen over de precieze interpretaties en onduidelijkheid over hoe maatregelen er precies uit komen te zien. Daarom verwachten we de komende jaren nog veel nadere uitleg vanuit de toezichthouders. Hoe zie je het gebruik van AI de komende jaren veranderen in de sector? Ik ben vooral benieuwd naar de impact van AI op de kern- processen van corporaties. Welke invloed gaat het bijvoorbeeld hebben op bouwen, verduurzamen of het verhuurproces? Ik hoop daarbij dat de menselijke maat niet vergeten wordt, in het persoonlijk contact maar ook vooral in de besluitvorming. AI kun je zien als een hele slimme, maar onbetrouwbare werknemer. Aan ons de taak om daar waakzaam op te blijven. AI-toepassingen zijn in razend tempo ingeburgerd geraakt in het dagelijks werk van woningcorporaties. Ze bieden gemak, snelheid en innovatie, maar brengen ook aanzienlijke risico’s met zich mee. Want wat gebeurt er met ingevoerde persoonsgegevens? En hoe transparant is het algoritme achter een ogenschijnlijk slimme beslissing? CorporatieGids Magazine sprak daarover met Joyce de Jong, Partner bij Audittrail: “Corporaties zijn zich nog onvoldoende bewust van de juridische en ethische implicaties van AI.” Joyce de Jong (Audittrail): AI is een heel slimme, maar onbetrouwbare werknemer Foto’s: Heidi Borgart

RkJQdWJsaXNoZXIy Mzg5Mzg=