Nieuwe truc van oplichters: vertrouwde stemmen met AI nagemaakt

vrijdag, 20 maart 2026 (10:08) - Metro

In dit artikel:

Oplichters gebruiken steeds vaker AI om stemmen van bekenden of professionals na te bootsen en zo slachtoffers te verleiden tot het overmaken van geld of het geven van inloggegevens. HCC, de vereniging voor techliefhebbers, waarschuwt hiervoor en Metro sprak recent (gisteren) met Nadine, die nadat ze op een valse ‘Post‑NL’ sms had geklikt ontdekte dat haar bankrekening was leeggehaald.

Criminelen hebben vaak maar enkele seconden aan geluidsmateriaal nodig — afkomstig van social media, voicemails of andere openbare opnames — om een zeer overtuigende kopie van iemands stem te maken. Tijdens telefoongesprekken kan zo’n stem bijna realtime reageren, wat het nepgesprek extra geloofwaardig maakt.

Signalen dat je met een gesimuleerde stem te maken hebt: onnatuurlijke pauzes na vragen, een te glad en foutloos stemgeluid zonder ademhalingen of achtergrondgeluid, herhalende zinnen of het volgen van een strak script, en moeite met onverwachte of afwijkende vragen (bijvoorbeeld het uitspreken van moeilijke namen). Door onverwachte, persoonlijke vragen te stellen kun je zo’n poging ontmaskeren.

Advies bij een verdachte oproep: beëindig het gesprek onmiddellijk en bel zelf het bekende nummer van de organisatie of het familielid (niet het nummer dat je belde). Spreek met naasten een codewoord af voor gevoelige transacties. Aanvullende voorzorgsmaatregelen zijn onder meer direct je bank bellen bij ongewone transacties, accounts blokkeren, 2‑stapsverificatie inschakelen, incidenten melden bij de politie en minder stemmateriaal online delen. De waarschuwing benadrukt dat de technologie snel ontwikkelt en dat waakzaamheid en praktische tegenmaatregelen nu cruciaal zijn om financiële en persoonlijke schade te voorkomen.