Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
0 8 -24 · w w w c o m p u t e r - a u t o m a t i o n d e | 15 Se r i e K Iu n d Se c u r i t y – Te i l 3 ■ FLEXIBEL - Webbasierte Visualisierung mit HTML5 CSS3 JavaScript - Einfaches Konfigurieren mit einsatzbereiten Controls - Im Hochund Querformat einsetzbar ■ PERFORMANT - Flüssiger Seitenaufbau durch leistungsstarke CPUs - Integrierter Webbrowser bzw -server ■ VIELFÄLTIG Widescreen Multitouch-HMIs von 7 bis 21 5 Zoll und für mobile Anwendungen im 10 1-Zoll-Format Halle 7 Stand 270 www sigmatekautomation com WEB-PANELS MODERNES BEDIENEN Die Methodik Dieser Artikel untersucht ob moderne Large-Language-Modelle wie WormGPT für Phishing-Angriffe eingesetzt werden können Zudem werden Social-Engineering Experimente mit KI-Unterstützung durchgeführt Dazu verwenden wir Deepfake-Werkzeuge wie ‚roop‘ und Voice-Cloning-Werkzeuge wie ‚ElevenLabs‘ Phishing Kommerzielle KI-Werkzeuge zum Beispiel ChatGPT oder Claude verhindern aufgrund ihrer sicherheitstechnischen Richtlinien die Generierung von schädlichen Inhalten Für die hier dargestellten Experimente zu Phishing-Attacken wird daher das KI-Werkzeug WormGPT verwendet das die Plattform flowgpt com anbietet WormGPT basiert auf dem Open-Source-Sprachmodell GPT-J Dieses LLM wird speziell für bösartige und kriminelle Zwecke trainiert und unterliegt keinen ethischen Richtlinien Dazu werden während des Trainingsprozesses keine Inhalte gefiltert und es unterliegt keiner Kontrolle oder Nutzungseinschränkung Die Phishing-Experimente beinhalten Aufforderungen auf einen Phishing-Link zu gehen oder Geldüberweisungen zu tätigen Ziel der Experimente ist es authentische Inhalte zu generieren um potenziell erfolgreiche Phishing-Angriffe durchzuführen Zusätzlich zur Generierung von Phishing-Inhalte wird untersucht wie WormGPT zur Unterstützung von Phishing-Kampagnen eingesetzt werden kann WormGPT soll in diesem Experiment detaillierte Schrittfür-Schritt-Anleitungen für Phishing-Angriffe erstellen die die wesentlichen Schritte sowie die benötigten Werkzeuge und Ressourcen umfassen Social-Engineering Im Bereich des Social-Engineerings sind Experimente im Umgang mit Deepfakeund Voice-Cloning-Werkzeugen relevant da sich eine kriminelle Verwendung der Werkzeuge für audiovisuelle Täuschungen nicht verhindern lässt Für die Experimente mit Deepfakes wird für die visuelle Komponente – also für das Video – das Open-Source-Werkzeug ‚roop‘ verwendet Da sich dieses Tool in der Infrastruktur von Google Colab ausführen lässt wird der Installationsund Anwendungsprozess erleichtert und die Nutzung der umfangreichen GPU-Ressourcen von Google Colab ermöglicht Obwohl die aktive Entwicklung von ‚roop‘ im September 2023 aufgrund eines von den Entwicklern veröffentlichten problematischen Videos eingestellt wurde bleibt das Werkzeug für die Öffentlichkeit weiterhin zugänglich Für die auditive Komponente des Social-Engineering-Angriffs durch Voice-Cloning-Werkzeuge wurde ‚ElevenLabs‘ verwendet Dieses liefert im Unterschied zu anderen betrachteten Optionen neben vortrainierten Stimmen auch die Möglichkeit der Feinabstimmung mit benutzerdefinierten Stimmen und erfüllt damit die wichtigste Voraussetzung für gezielte Social-Engineering-Angriffe Des Weiteren ist ‚ElevenLabs‘ aktuell als eine der führenden Plattformen auf dem Gebiet des Voice-Clonings anerkannt [3] Um die Sprachmuster der Zielperson optimal zu erfassen benötigt ‚ElevenLabs‘ bei der