Not logged in.

Contribution Details

Type Master's Thesis
Scope Discipline-based scholarship
Title Adversarial Training for Open-Set Classification
Organization Unit
Authors
  • Andres Palechor
Supervisors
  • Manuel Günther
Language
  • English
Institution University of Zurich
Faculty Faculty of Business, Economics and Informatics
Date 2022
Abstract Text Open Set Recognition (OSR) is a promising field that aims to adapt deep neural models to a real-world scenario, i.e., the presence of unknown data distributions at inference time. Recent approaches address OSR by including into the training set negative classes that a classifier learns to reject, expecting that these data increase the robustness of the classifier on unknown classes. Furthermore, a critical question on OSR is how to select representative negative classes. In this work, we study the performance an OSR approach, the Entropic open-set and Objectosphere, two recently proposed loss functions to deal with unknowns. We show that these losses can be used in complex custom scenarios that use natural images and several levels of similarity between the negative classes. Additionally, we investigate a method to adapt adversarial training into OSR scenarios. Our experimental results show that it is possible to use synthetic adversarial examples to increase the robustness of a classifier in OSR.
Zusammenfassung Open Set Recognition (OSR) ist ein vielversprechender Bereich, der darauf abzielt, tiefe neuronale Modelle an ein reales Szenario anzupassen, d. h. an das Vorhandensein unbekannter Datenverteilungen zum Zeitpunkt der Inferenz. Neuere Ansätze befassen sich mit OSR, indem sie in die Trainingsmenge negative Klassen aufnehmen, die ein Klassifikator abzulehnen lernt, in der Erwartung, dass diese Daten die Robustheit des Klassifikators bei unbekannten Klassen erhöhen. Eine wichtige Frage im Zusammenhang mit OSR ist, wie repräsentative negative Klassen ausgewählt werden können. In dieser Arbeit untersuchen wir die Leistung eines OSR-Ansatzes, der Entropic open-set und Objectosphere, zwei kürzlich vorgeschlagene Verlustfunktionen für den Umgang mit unbekannten Klassen. Wir zeigen, dass diese Verlustfunktionen in komplexen benutzerdefinierten Szenarien verwendet werden können, die natürliche Bilder und verschiedene Ähnlichkeitsgrade zwischen den Negativklassen verwenden. Darüber hinaus untersuchen wir eine Methode, mit der sich das adversarische Training in OSR-Szenarien anpassen lässt. Unsere experimentellen Ergebnisse zeigen, dass es möglich ist, synthetische Negativbeispiele zu verwenden, um die Robustheit eines Klassifikators in OSR zu erhöhen.
PDF File Download
Export BibTeX