Not logged in.

Contribution Details

Type Bachelor's Thesis
Scope Discipline-based scholarship
Title Adversarial Training with Layerwise Origin-Target Synthesis
Organization Unit
Authors
  • Michael Hodel
Supervisors
  • Manuel Günther
Language
  • English
Institution University of Zurich
Faculty Faculty of Business, Economics and Informatics
Date 2021
Abstract Text Deep neural networks are capable of solving various tasks very well and in certain cases even outperform humans. However, they are vulnerable to inputs designed to cause the network to give faulty output, so-called adversarial examples. There does not yet exist a solution for the problem that they pose with respect to the robustness of neural networks. However, there are various techniques to alleviate the vulnerability of neural networks towards adversarial examples. Adversarial training, that is, incorporating adversarial examples into the training data, is amongst the most effective currently existing defense techniques. Layerwise Origin-Target Synthesis (LOTS) is a method to create adversarial examples. This work inspects how well adversarial training increases the robustness of neural networks against adversarial examples created using LOTS.
Zusammenfassung Mehrschichtige neuronale Netze sind in der Lage, verschiedene Probleme sehr gut zu lösen und in bestimmten Fällen sogar den Menschen zu übertreffen. Sie sind jedoch anfällig für Eingaben, die darauf ausgelegt sind, das Netzwerk zu einer fehlerhaften Ausgabe zu veranlassen, so genannte Adversarial Examples. Es gibt noch keine Lösung für das Problem, das sie bezüglich der Robustheit von neuronalen Netzen darstellen. Es gibt jedoch verschiedene Techniken, um die Anfälligkeit neuronaler Netze gegenüber solchen Beispielen zu vermindern. Adversarial Training, das heisst das Einbringen von Adversarial Examples in die Trainingsdaten, gehört zu den effektivsten derzeit existierenden Abwehrtechniken. Layerwise Origin-Target Synthesis (LOTS) ist eine Methode zur Erzeugung von Adversarial Examples. In dieser Arbeit wird untersucht, wie gut Adversarial Training die Robustheit von neuronalen Netzen gegen LOTS-Beispiele erhöht.
PDF File Download
Export BibTeX