Not logged in.
Quick Search - Contribution
Contribution Details
Type | Master's Thesis |
Scope | Discipline-based scholarship |
Title | Adversarial Training for Open-Set Classification |
Organization Unit | |
Authors |
|
Supervisors |
|
Language |
|
Institution | University of Zurich |
Faculty | Faculty of Business, Economics and Informatics |
Date | 2022 |
Abstract Text | Open Set Recognition (OSR) is a promising field that aims to adapt deep neural models to a real-world scenario, i.e., the presence of unknown data distributions at inference time. Recent approaches address OSR by including into the training set negative classes that a classifier learns to reject, expecting that these data increase the robustness of the classifier on unknown classes. Furthermore, a critical question on OSR is how to select representative negative classes. In this work, we study the performance an OSR approach, the Entropic open-set and Objectosphere, two recently proposed loss functions to deal with unknowns. We show that these losses can be used in complex custom scenarios that use natural images and several levels of similarity between the negative classes. Additionally, we investigate a method to adapt adversarial training into OSR scenarios. Our experimental results show that it is possible to use synthetic adversarial examples to increase the robustness of a classifier in OSR. |
Zusammenfassung | Open Set Recognition (OSR) ist ein vielversprechender Bereich, der darauf abzielt, tiefe neuronale Modelle an ein reales Szenario anzupassen, d. h. an das Vorhandensein unbekannter Datenverteilungen zum Zeitpunkt der Inferenz. Neuere Ansätze befassen sich mit OSR, indem sie in die Trainingsmenge negative Klassen aufnehmen, die ein Klassifikator abzulehnen lernt, in der Erwartung, dass diese Daten die Robustheit des Klassifikators bei unbekannten Klassen erhöhen. Eine wichtige Frage im Zusammenhang mit OSR ist, wie repräsentative negative Klassen ausgewählt werden können. In dieser Arbeit untersuchen wir die Leistung eines OSR-Ansatzes, der Entropic open-set und Objectosphere, zwei kürzlich vorgeschlagene Verlustfunktionen für den Umgang mit unbekannten Klassen. Wir zeigen, dass diese Verlustfunktionen in komplexen benutzerdefinierten Szenarien verwendet werden können, die natürliche Bilder und verschiedene Ähnlichkeitsgrade zwischen den Negativklassen verwenden. Darüber hinaus untersuchen wir eine Methode, mit der sich das adversarische Training in OSR-Szenarien anpassen lässt. Unsere experimentellen Ergebnisse zeigen, dass es möglich ist, synthetische Negativbeispiele zu verwenden, um die Robustheit eines Klassifikators in OSR zu erhöhen. |
PDF File | Download |
Export | BibTeX |