Begrip

Wat is de AI Act? Uitleg voor de Nederlandse vastgoedsector

De EU AI Act reguleert AI-systemen op basis van risico. Voor vastgoed: AI-taxaties, algoritmische huurprijsbepaling en biometrische toegang.

Laatst gecontroleerd op 22 april 2026

Wat is AI Act?

De AI Act (officieel Verordening EU 2024/1689) is de eerste brede AI-wetgeving ter wereld. Hij classificeert AI-systemen in risicocategorieën en legt steeds strengere regels op naarmate het risico hoger wordt. Voor de vastgoedsector heeft de wet directe gevolgen: AI-taxaties kunnen als 'high-risk' worden aangemerkt, algoritmische huurprijsbepaling valt onder verscherpt toezicht en biometrische toegangssystemen in gebouwen krijgen nieuwe verplichtingen.

Wanneer treedt de AI Act in werking?

De AI Act is in augustus 2024 in werking getreden en wordt gefaseerd toegepast. De verboden praktijken (zoals social scoring) gelden vanaf februari 2025. High-risk systemen — waar AI-taxaties en algoritmische huurprijzen mogelijk onder vallen — moeten uiterlijk augustus 2026 voldoen. Voor AI-systemen die vóór die datum al bestonden, geldt in sommige gevallen een overgangsregime tot 2030. Nederlandse vastgoedpartijen die AI inzetten, moeten nu al hun systemen inventariseren en classificeren.

De vier risico-categorieën

Onaanvaardbaar risico (verboden): social scoring door overheden, manipulatieve AI, real-time biometrische identificatie in publieke ruimte. High-risk (strikt gereguleerd): AI die beslist over krediet, huisvesting, werk, onderwijs. Beperkt risico (transparantie-plicht): chatbots, generatieve AI, deepfakes — gebruiker moet weten dat hij met AI te maken heeft. Minimaal risico (geen specifieke regels): spamfilters, AI in videogames. De meeste vastgoed-AI valt in de tweede of derde categorie.

Blijf bij over AI en vastgoed

Tweewekelijks: de belangrijkste internationale ontwikkelingen, voor Nederlandse vastgoedprofessionals gecontextualiseerd.

Wat betekent high-risk concreet?

Systemen in de high-risk categorie moeten: (1) een risico-beheersysteem hebben, (2) trainingsdata van aantoonbare kwaliteit gebruiken, (3) technische documentatie kunnen overleggen, (4) automatische logs bijhouden, (5) transparant zijn over hun beperkingen, (6) menselijk toezicht mogelijk maken, (7) accuraat, robuust en cyberveilig zijn. De verantwoordelijke partij (meestal de aanbieder) moet een CE-markering aanvragen na conformiteitsbeoordeling.

Impact op Nederlandse vastgoedpraktijk

AI-taxatie (AVM's van Calcasa, PriceHubble, Validata) kan onder high-risk vallen wanneer het een bepalende factor is in hypotheekbeslissingen — wat nu bij NHG-taxaties het geval is. Algoritmische huurprijsbepaling, in de VS onder vuur via de RealPage-rechtszaak, krijgt in Europa directe regulering. Smart building-systemen met biometrische toegang (vingerafdruk, gezichtsherkenning) worden beperkt risico — transparantie over het gebruik is verplicht. AI voor woningomschrijvingen en generative AI is beperkt risico: melden dat AI is gebruikt.

Boetes en handhaving

De AI Act hanteert forse boetes: tot 35 miljoen euro of 7% van de wereldwijde omzet voor verboden praktijken. Voor high-risk overtredingen tot 15 miljoen of 3% van de omzet. In Nederland handhaaft de Autoriteit Persoonsgegevens (AP) voorlopig de AI Act, al komt er mogelijk een specifieke AI-toezichthouder. Compliance is geen optionele oefening.

Hoe bereid je je voor?

Maak een inventarisatie van alle AI-systemen in je organisatie. Classificeer elk systeem op risico. Voor high-risk systemen: documenteer de trainingsdata, test op bias (werkt het model even goed in Amsterdam-Zuid als in Groningen?), zorg voor audit-trail en menselijke review. Vraag je leverancier expliciet naar CE-conformiteit. Voor generatieve AI: voeg een disclaimer toe aan woningomschrijvingen ('mede opgesteld door AI').

Veelgestelde vragen over AI Act

Valt ChatGPT gebruiken voor woningomschrijvingen onder de AI Act?
Ja, maar in de laagste risico-categorie (beperkt risico / transparantie). Je moet als gebruiker kunnen weten dat AI is ingezet. Een vermelding bij de advertentie ('tekst deels AI-gegenereerd, handmatig gecontroleerd') volstaat doorgaans. Controleer je advertentie-platform voor specifieke richtlijnen.
Mag een makelaar nog werken met een AVM na de AI Act?
Ja. AVM's blijven toegestaan, maar als ze onderdeel zijn van bindende financiële beslissingen (hypotheek) vallen ze onder high-risk. De leverancier (Calcasa, PriceHubble etc.) moet conformiteit aantonen. Jij als gebruiker moet de uitkomst kritisch kunnen beoordelen — blind vertrouwen op een AVM voldoet niet.
Hoe verhoudt de AI Act zich tot de AVG / GDPR?
De AI Act vult de AVG aan, overlapt maar vervangt niet. De AVG gaat over persoonsgegevens; de AI Act over AI-systemen (ook als er geen persoonsgegevens aan te pas komen). Voor vastgoed-AI geldt meestal beide: AVG voor data over huurders/kopers, AI Act voor het model zelf.
Wanneer is een AI-systeem in vastgoed 'high-risk'?
Bij beslissingen over toegang tot essentiële diensten (zoals huisvesting), kredietwaardigheid, of werk. AI die beslist of iemand huurder kan worden, of wat de huur mag zijn bij een bepaalde persoon, valt hieronder. Ook AI voor taxaties die meewegen in hypotheekverlening.
Wie is aansprakelijk bij een foute AI-beslissing?
De provider (bouwer van het AI-systeem) is primair verantwoordelijk voor conformiteit. De deployer (jij als gebruiker) is verantwoordelijk voor correcte inzet, monitoring en eventueel menselijke review. In de praktijk betekent dit dat contracten met AI-leveranciers herzien moeten worden om aansprakelijkheid duidelijk te maken.

Recent nieuws over AI Act

Meer over ai act

Gerelateerde begrippen