Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
Se r i e K Iu n d Se c u r i t y – Te i l 3 0 9 -24 · w w w c o m p u t e r - a u t o m a t i o n d e | 17 sps 2024 Wir sind dabei computerautomation sps neuron AZ SPS 1 8 Satzspiegel neuron indd 1 15 07 2024 14 43 30 daten aufzuzeichnen und zu analysieren Das Voice-Cloning zeigte in den Ergebnissen weniger Artefakte Um die Stimme der Zielperson zu klonen wurde das KI-Modell mit fünf Minuten Audioaufnahmen fein abgestimmt Die Plattform von ElevenLabs erleichterte den Prozess und bot umfassende Optionen sowohl für die Textto-Speechals auch für die Speechto-Speech-Umwandlung Die Textto-Speech-Funktion ermöglichte es Texteingaben in gesprochene Sprache mit der Zielstimme umzuwandeln mit Speechto-Speech konnten gesprochene Inhalte direkt mit der Zielstimme wiedergegeben werden Die daraufhin generierten synthetischen Stimmen klangen akustisch wie die Originalstimmen – ohne Artefakte Für eine Zusätzliche Überprüfung wurden die generierten Stimmen über die Online-Plattform Deepfake-Total analysiert Die Plattform kennzeichnete die geklonte Stimme mit einer Wahrscheinlichkeit von 85 % als authentisch wodurch diese nicht als synthetisch und somit nicht als Voice-Clone klassifiziert wurden Die Originaltonaufnahmen wurden ebenfalls mit 85 % Wahrscheinlichkeit als authentisch klassifiziert Hohes Missbrauchspotenzial von KI-Tools Die Experimente zu KIgestützten Phishing-Angriffen und Social-Engineering zeigen das hohe Missbrauchspotenzial moderner KI-Technologien in der Cyberkriminalität Das Verwenden von Werkzeugen wie WormGPT steigert die Effektivität von Phishing-Angriffen da gezielte und authentische Nachrichten die Dringlichkeit und Vertrauenswürdigkeit glaubhafter wiedergeben Zudem erleichtert das KI-Tool indem es detaillierte Anleitungen bereitstellt die vor allem für Personen ohne Erfahrung zur Umsetzung von Phishing-Angriffen hilfreich sind Die Deepfakeund Voice-Cloning-Experimente haben ähnliche Risiken gezeigt Obwohl das Erstellen von Deepfakes mit öffentlich verfügbaren Werkzeugen keine optimalen Ergebnisse liefert besteht die Gefahr dass sie in Social-Engineering-Angriffen verwendet werden können Um die Deepfakes noch realistischer wirken zu lassen sind allerdings nachträgliche Videobearbeitung und umfassende Kenntnisse von Deepfake-Werkzeugen notwendig Die geklonten Stimmen die durch ‚ElevenLabs‘ erstellt wurden hatten keine erkennbaren Tonartefakte und entgingen der Identifizierung durch das Analysewerkzeug Deepfake-Total des Fraunhofer AISEC Mit Voice-Clones lassen sich authentische Social-Engineering-Angriffe durchführen weil diese nur schwer zu erkennen sind Die Integration von Technologien wie Deepfakes und Voice-Clones in Social-Engineering-Angriffen zeigt die Notwendigkeit für verbesserte Sicherheitsmaßnahmen und eine erhöhte Wachsamkeit bei Individuen und Organisationen Die zunehmende Zugänglichkeit von KI-Modellen vereinfacht das Erstellen von Social-Engineering-Angriffen Gleichzeitig lassen sich die bestehenden Werkzeuge die Deepfakes erkennen sollen leicht täuschen hap ag Nils Lohmiller ist wissenschaftlicher Mitarbeiter für IT-Sicherheit an der Hochschule Esslingen Dieter Holstein ist Masterstudent an der Hochschule Esslingen Lukas Bechtel ist wissenschaftlicher Mitarbeiter für IT-Sicherheit an der Hochschule Esslingen Prof Dr Tobias Heer ist Professor für IT-Sicherheit und Dekan der Fakultät IT an der Hochschule Esslingen Literatur [1] Alkhalil Z Hewage C Nawaf L Khan I Phishing Attacks A Recent Comprehensive Study and a New Anatomy 03 2021 [2] Soni B Gautam A Dr Soni G Exploring the Advancements and Implications of Artificial Intelligence International Journal of Scientific Research in Engineering and Management 01 2023 [3] Begou N Vinoy J Duda A Korczynski M Exploring the Dark Side of AI Advanced Phishing Attack Design and Deployment Using ChatGPT IEEE Conference on Communications and Network Security CNS 2023 Seite 1-6 [4] Sangwan S GitHub https github com s0md3v roop Zugriff Juli 2024 [5] Mehta Pet al Can Deepfakes be created on a whim? https dl acm org doi pdf 10 1145 3543873 3587581 Zugriff 19 07 2024