Vermutlich hast du schon einmal vom sogenannten Enkeltrick gehört. Beim traditionellen Enkeltrick rufen Betrüger gezielt ältere Menschen an und geben sich als deren Enkel aus, die sich in einer Notlage befinden und dringend Geld benötigen. Beim traditionellen Enkeltrick schaltet sich oft auch eine Person ein, die sich als Polizist ausgibt, um die Geschichte glaubwürdiger erscheinen zu lassen und zusätzlichen Druck auf die potenziellen Opfer auszuüben.
Nun gehen Trickbetrüger auch mit der Zeit und erweitern regelmäßig ihr Betrugsrepertoire. In diesem Fall um Künstliche Intelligenz (KI). So hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) kürzlich vor einer neuen und besonders perfiden Form des Enkeltricks gewarnt. Diese moderne Betrugsmethode nutzt Künstliche Intelligenz, um Stimmen von Enkelkindern täuschend echt zu imitieren.
Das steckt hinter der neuen Masche
Der Enkeltrick heißt nicht umsonst Enkeltrick: Meist wählen Telefonbetrüger gezielt ältere Menschen aus, die technologisch nicht auf dem neuesten Stand sind und sich – wie in diesem Fall – die Möglichkeiten von Künstlicher Intelligenz gar nicht vorstellen können.
Zum Weiterlesen:
Schenkkreise: Diese neue Betrugsmasche ist gerade im Umlauf.
Die neuesten Betrugsmaschen über WhatsApp und Co.
Betrug in den sozialen Medien: Woran erkennt man Scamming?
BSI-Präsidentin Claudia Plattner erklärte im Gespräch mit dem Stern, dass es teils schon heute möglich ist, echte Enkelstimmen so perfekt nachzuahmen, dass sich kein Unterschied mehr zum Original erkennen lässt. Damit wird es für Betrüger noch einfacher, ihre Opfer zu täuschen und sie um Geld zu bringen. Beziehungsweise für Opfer noch schwieriger, nicht über den Tisch gezogen zu werden. Doch es gibt immerhin eine relativ simple Möglichkeit, derartigem Betrug zu entgehen.
Codewort ausmachen und genau auf die Stimme achten
Um der KI-Betrugsmasche entgegenzuwirken, solltest du Eltern und Großeltern über diese Gefahr aufklären. Es ist wichtig, sie darauf vorzubereiten und mit ihnen zu üben, wie sie sich im Ernstfall verhalten sollen. Essenziell ist es dabei, ein Codewort zu vereinbaren, das ihr euch im Zweifel gegenseitig sagen könnt – beispielsweise der Name des ersten Haustiers. Dieses Codewort sollte nur euch bekannt sein und kann helfen, einen echten Notfall von einem Betrugsversuch zu unterscheiden.
Um möglichen Betrug mit KI-generierter Stimme zu entlarven, gilt es auch, auf kleinste Unregelmäßigkeiten in der Stimme zu achten. Abgehackt klingende Wortfetzen oder eine ungewöhnliche Sprechweise können auf einen Täuschungsversuch hindeuten. Wenn das sich scheinbar in Not befindende Familienmitglied dann auch noch das Codewort nicht weiß, kannst du sicher sein, dass es sich um einen Betrugsfall handelt.