Not logged in.

Contribution Details

Type Bachelor's Thesis
Scope Discipline-based scholarship
Title Adversarial Training for Improved Adversarial Stability in Open-Set Networks
Organization Unit
Authors
  • Uros Dimitrijevic
Supervisors
  • Manuel Günther
Language
  • English
Institution University of Zurich
Faculty Faculty of Business, Economics and Informatics
Date 2023
Abstract Text Deep neural networks have found great success in various recognition tasks. While their performances speak for themselves, they are still not fully understood. In particular, deep neural networks are susceptible to adversarial attacks. Research has found ways to defend against these attacks, one of the strategies being adversarial training, where networks are introduced to adversarial samples during training time. Another field where deep neural networks face problems are open-set recognition tasks, where the neural network has to address samples that do not belong to any known class. Some of the approaches addressing this problem incorporate samples, not belonging to any known class, whilst using a specific loss functions like the entropic open-set loss. The question remains if these two problems are somehow related to each other. Prior work suggested that open-set performance can be achieved by utilizing adversarial training. In this thesis we perform adversarial training on different types of loss functions, research these networks for adversarial stability, and evaluate their open-set recognition performances.
Zusammenfassung Deep neural networks haben bei verschiedenen Erkennungsaufgaben große Erfolge erzielt. Obwohl ihre Leistungen für sich sprechen, sind diese Netzwerke nicht vollständig erkundet. Insbesondere sind deep neural networks anfällig für "adversarial" Angriffe. Die Forschung hat Wege gefunden, sich gegen diese Angriffe zu verteidigen. Eine dieser Strategien ist das adversarial Training, bei dem Netzwerke während der Trainingszeit mit adversarial Proben vertraut gemacht werden. Ein weiterer Bereich, in dem deep neural networks auf Probleme stoßen, sind Open-Set-Erkennungsaufgaben, bei denen das Netzwerk Proben adressieren muss, die keiner bekannten Klasse angehören. Einige der Ansätze zur Lösung dieses Problems beziehen Stichproben ein, die keiner bekannten Klasse angehören, und verwenden gleichzeitig spezifische Verlustfunktionen wie den entropic open-set loss. Es bleibt die Frage, ob diese beiden Probleme irgendwie miteinander zusammenhängen. Frühere Arbeiten legten nahe, dass relativ gute Open-Set Leistung durch adversarial Training erreicht werden kann. In dieser Arbeit führen wir adversarial Training für verschiedene Arten von Verlustfunktionen durch, untersuchen diese Netzwerke auf adversarial Stabilität und bewerten ihre Open-Set Leistung.
PDF File Download
Export BibTeX