Not logged in.

Contribution Details

Type Master's Thesis
Scope Discipline-based scholarship
Title A Secure Aggregation Protocol for Decentralized Federated Learning
Organization Unit
Authors
  • Janosch Baltensperger
Supervisors
  • Chao Feng
  • Alberto Huertas Celdran
  • Burkhard Stiller
Language
  • English
Institution University of Zurich
Faculty Faculty of Business, Economics and Informatics
Date 2023
Abstract Text Poisoning attacks pose a substantial threat to the trustfulness of Federated Learning. For example, malicious participants can degrade the model performance of honest members or implement backdoors that can be exploited at inference time to take advantage of incorrect predictions. Researchers have been highly active to mitigate poisoning attacks. Existing approaches prominently aim for defenses against poisoning attacks in centralized settings. While decentralized Federated Learning has gained significant attention as a promising approach without a central entity, the security aspects related to poisoning attacks remain largely unaddressed. This work introduces a defense approach called “Sentinel” for mitigating poisoning attacks in horizontal, decentralized Federated Learning. Sentinel leverages the advantage of local data availability and defines a three-step aggregation protocol composed of similarity filtering, bootstrap validation and normalization to protect against malicious model updates. The proposed defense mechanism is evaluated on various datasets under different types of poisoning attacks and threat levels. An extension of Sentinel, called SentinelGlobal, is presented, which incorporates a global trust protocol to reduce computational complexity and further improve the effectiveness against adversaries. Both Sentinel and SentinelGlobal demonstrate promising results against untargeted and targeted poisoning attacks. Hence, this work contributes to the advances in research against poisoning attacks in decentralized federated systems. Additionally, the results of this work highlight the need for more sophisticated defense strategies against backdoor attacks, independent of the Federated Learning architecture.
Zusammenfassung Verfälschungsangriffe („Poisoning Attacks“) stellen eine erhebliche Bedrohung für die Vertrauenswürdigkeit des föderalen Lernens („Federated Learning“) dar. Böswillige Teilnehmer können beispielsweise die Modellleistung ehrlicher Mitglieder verschlechtern oder Hintertüren implementieren, die zum Zeitpunkt der Inferenz ausgenutzt werden können, um von falschen Vorhersagen zu profitieren. Forscher haben sich intensiv mit der Abschwächung von Verfälschungsangriffen befasst. Bestehende Ansätze zielen vor allem auf die Abwehr von Verfälschungsangriffen in zentralisierten Umgebungen ab. Während dezentralisiertes föderiertes Lernen als vielversprechender Ansatz ohne zentrale Instanz grosse Aufmerksamkeit erlangt hat, bleiben die Sicherheitsaspekte im Zusammenhang mit Verfälschungsangriffen weitgehend unbehandelt. In dieser Arbeit wird ein Verteidigungsansatz namens „Sentinel“ zur Abschwächung von Verfälschungsangriffen in horizontalem, dezentralisiertem föderiertem Lernen vorgestellt. Sentinel nutzt den Vorteil der lokalen Datenverfügbarkeit und definiert ein dreistufiges Aggregationsprotokoll, das aus Ähnlichkeitsfilterung, „Bootstrap“-Validierung und Normalisierung besteht, um vor böswilligen Modellaktualisierungen zu schützen. Der vorgeschlagene Verteidigungsmechanismus wird an diversen Datensätzen unter verschiedenen Arten von Verfälschungsangriffen und Bedrohungsstufen evaluiert. Es wird eine Erweiterung von Sentinel, genannt SentinelGlobal, vorgestellt, die ein globales Vertrauensprotokoll implementiert, um die Rechenkomplexität zu reduzieren und die Wirksamkeit gegen Angreifer weiter zu verbessern. Sowohl Sentinel als auch SentinelGlobal zeigen vielversprechende Ergebnisse gegen ungezielte und gezielte Verfälschungsangriffe. Daher trägt diese Arbeit zu den Fortschritten in der Forschung gegen Verfälschungsangriffe in dezentralen föderierten Systemen bei. Darüber hinaus unterstreichen die Ergebnisse dieser Arbeit den Bedarf an ausgefeilteren Verteidigungsstrategien gegen Backdoor-Angriffe, unabhängig von der föderalen Lernarchitektur.
PDF File Download
Export BibTeX