Chatbot

Warnung vor neuer Betrugsmasche mit Fake ChatGPT

Chat mit gefälschtem Bot, der vorgibt, die Finanzmärkte zu analyiseren. (Bild: Bitdefender)
Chat mit gefälschtem Bot, der vorgibt, die Finanzmärkte zu analyiseren.

07.03.2023 - Cyberkriminelle nutzen aktuelle Trends aus, um neue Betrugsstrategien zu entwickeln und dadurch ihre Opfer zu täuschen. Aktuell betrifft es den KI-gesteuerten Chatbot ChatGPT von OpenAI. Das KI-Tool wird demnach für Finanzbetrug und Identitätsdiebstahl missbraucht.

von Frauke Schobelt

Der Cybersecurity-Dienstleister Bitdefender   hat eine neue Betrugskampagne beobachtet, in der Cyberkriminelle versuchen, über eine Plattform mit einer gefälschten Version der KI-Software ChatGPT an Geld und Benutzerdaten zu gelangen. Der Chatbot dient für den ersten Kontakt, danach übernehmen menschliche Betrüger in einem vermeintlichen Callcenter und wollen die Opfer am Telefon überreden, Geld unter anderem in Kryptowährungen zu investieren und zu überweisen. Wenn die Anwender für die Anlage eines angeblich notwendigen WhatsApp-Accounts neben der Telefonnummer auch noch zur Verifikation die letzten sechs Ziffern ihres Personalausweises eingeben, können die Angreifer die Identität des Nutzers kapern. Bitdefender beobachtet die Kampagne weltweit und verzeichnet verstärkte Aktivitäten in Dänemark, Deutschland, Österreich, Irland und den Niederlanden.

Am Anfang steht das Phishing

Wie bei vielen Betrugsversuchen kontaktieren die Cyberkriminellen auch diesmal die Nutzerinnen und Nutzer zunächst mit einer Phishing-Mail, die zum Öffnen eines Links verleitet. Die Betreffzeilen der Mail lauten unter anderem:

Screenshot der Phishing-Mail: Der Inhalt der Betrugsmail ist überschaubar. Opfer sollen auf den Link klicken, um mehr zu erfahren. (Bild: Bitdefender)
Screenshot der Phishing-Mail: Der Inhalt der Betrugsmail ist überschaubar. Opfer sollen auf den Link klicken, um mehr zu erfahren.

  • "ChatGPT: New AI bot has everyone going crazy about it"
  • "ChatGPT: New AI bot has everyone in shock from it"
  • "New ChatGPTchatbot is make everyone crazy now - but it'll very soon be as mundane a tool as Google"
  • "Why is all people panic about ChatGPT bot?"

Der eingebettete Link leitet die Opfer zur Fake-Plattform, wo sie mit der betrügerischen Bot-Version chatten können. Diese verspricht ein monatliches Einkommen von bis zu 10.000 US-Dollar und gibt vor, die Finanzmärkte zu analysieren und dem Nutzer bei der Anlagewahl zu helfen.

Eine Fake-KI lockt zur Preisgabe von Daten

Die CyberexpertInnen aus den Bitdefender Labs chatteten in der Folge zunächst mit der gefälschten KI. Hier stellte der Bot allgemeine Fragen zur Arbeitssituation und -zufriedenheit, die der Nutzer nur aus vorgefertigten Antwortmöglichkeiten auswählen konnte - schon das ist laut Bitdefener ein ungewöhnliches Zeichen. Im Verlauf des Chats verlangt der falsche Bot die Eingabe einer EMail-Adresse, um sich zu verifizieren. Nach der Kalkulation eines vermeintlichen Monatseinkommens bittet er um persönliche Informationen, um einen eigenen WhatsApp-Account für die kommenden Investmentgeschäfte einzurichten, sowie um eine gültige Telefonnummer für ein persönliches Gespräch mit einem Berater oder einer Beraterin. Die Bitdefender-ExpertInnen gaben nur ihre Telefonnummer an.

Simulierte Call-Center-Atmosphäre

Betrügerische Eingabemaske für den Bezahlprozess (Bild: Bitdefender)
Betrügerische Eingabemaske für den Bezahlprozess

Danach erfolgte innerhalb von nur zehn Minuten nach Angabe der Nummer ein Anruf einer Mitarbeiterin von Import Capital, eines angeblich in London sich befindlichen Investment-Unternehmens. Der Anruf kam tatsächlich aus Großbritannien. Die angebliche Investment-Betreuerin versuchte nun, den Nutzer zur Investition in Kryptowährungen, Öl und internationale Aktien zu überreden - mit einem Startkapital von mindestens 250 Euro. Sie insistierte dabei mehrfach, einen WhatsApp-Account für die Finanzanalyse einzurichten und dabei die letzten sechs Ziffern der Personalausweisnummer zur Verifikation einzugeben.

Die Bitdefender-Experten gaben diesen Bitten nicht nach und baten um das Zusenden eines Links für die Überweisung. Die vermeintliche Sachbearbeiterin erfragte nun bei einem Kollegen den Link, auf dem persönliche Daten (Vor- und Nachnamen, Adresse, Geburtstag, Telefonnummer) einzutragen sind. Das Opfer kann als Zahlungsmethode eine Bankkarte, eine Kreditkarte oder Klarna wählen. Diese gesammelten Daten können die Betrüger für einen Identitätsdiebstahl nutzen.

Was das Ganze real erscheinen ließ: Stimmen und ein allgemeiner Geräuschpegel deuteten darauf hin, dass der Anruf tatsächlich aus einem Callcenter mit echten Mitarbeitern stammte. Beim Eingeben einer frei erfundenen Kreditkartennummer blieben die Betrüger im Dialog mit den Bitdefender-Experten. Sie forderten die Opfer auf, die richtige Nummer einzugeben, um ein Sperren der Karte zu verhindern.

Wichtige Verdachtsmomente

Die Domain importcapital.cc der vermeintlichen Investmentfirma ist laut Bitdefender bereits bekannt aus einer Warnung der Financial Conduct Authority (FCA)   , wonach dem Unternehmen keine Geschäftstätigkeit in Großbritannien erlaubt ist. Die Fake-Version von ChatGPT ist über einen Link erreichbar, der schon auf einer Blacklist aufgeführt ist. Der Rat der Experten: Generell sollten Nutzer und Nutzerinnen nur über die offizielle Seite von ChatGPT mit dem KI-Tool arbeiten. Auch eine Webseite für Überweisungen, die dann in keinerlei Form ChatGPT oder die vermeintlichen Finanzberater von Import Capital erwähnt, sollte unbedingt den Verdacht erregen.

Ihr Guide im New Marketing Management - ab 6,23 im Monat!

Hat Ihnen diese Beitrag weiter geholfen? Dann holen Sie sich die ONEtoONE-Premium-Mitgliedschaft. Sie unterstützen damit die Arbeit der ONEtoONE-Redaktion. Sie erhalten Zugang zu allen Premium-Leistungen von ONEtoONE, zum Archiv und sechs mal im Jahr schicken wir Ihnen die aktuelle Ausgabe.

Mehr zum Thema:
Diskussion:

Vorträge zum Thema:

  • Bild: Christian Bennefeld
    Christian Bennefeld (Initiative datenschutz-zwecklos.de)

    Klarheit in der KI-Kakophonie: Orientierung für die Zukunft

    In seiner Key Note gibt Christian einen Überblick über den aktuellen Stand der KI-Entwicklung und bietet Orientierung in der Kakophonie aus Algorithmen und Innovationen. Wo stehen wir heute tatsächlich? Was können wir in der Zukunft erwarten?
    Christian ordnet die zentralen Entwicklungen ein und zeigt, welche Trends 2025 wichtig werden. Sind es autonome Agenten, Open-source Modelle oder General Purpose AI-Systeme, die bald unsere Arbeit bestimmen? Was passiert mit der KI-Regulierung und dem Datenschutz? Und worauf müssen wir achten, um auch zukünftig auf der Gewinnerseite zu stehen?

    Der kurzweilige Vortrag gibt überraschende Antworten und lädt zum Nachdenken wie Mitdiskutieren ein.

    Vortrag im Rahmen der Zukunftskonferenz 25. am 03.12.24, 09:30 Uhr

Anzeige
www.hightext.de

HighText Verlag

Mischenrieder Weg 18
82234 Weßling

Tel.: +49 (0) 89-57 83 87-0
Fax: +49 (0) 89-57 83 87-99
E-Mail: info@onetoone.de
Web: www.hightext.de

Kooperationspartner des

Folgen Sie uns:



Besuchen Sie auch:

www.press1.de

www.ibusiness.de

www.neuhandeln.de