Not logged in.

Contribution Details

Type Master's Thesis
Scope Discipline-based scholarship
Title Supervised and Unsupervised Alignment of Knowledge Graphs with pre-trained embeddings
Organization Unit
Authors
  • Terézia Bucková
Supervisors
  • Matthias Baumgartner
  • Daniele Dell' Aglio
  • Abraham Bernstein
Language
  • English
Institution University of Zurich
Faculty Faculty of Business, Economics and Informatics
Date 2021
Abstract Text Knowledge Graphs (KGs), directed graphs representing real-world objects and relations between them, have gained significant attention in the past few years, and progress has been made to construct such KGs in various contexts. However, no current KG holds the complete knowledge and in order to obtain a holistic view about an entity of interest, one must therefore gather data from multiple KGs. This usually means to align different KGs and to figure out which entities refer to the same real-world objects. The alignment algorithms often benefit from aligning a KG embeddings, in which case every entity, and possibly relation, is represented by an embedding vector. The embedding methods and embedding-based word alignment techniques in language processing have been researched for a longer period of time. This effort has led to more accurate assumptions about embedding spaces and high performance in alignment tasks in both supervised and unsupervised scenarios. In our work, we test state-of-the-art word embedding alignment methods using KG embedding spaces as input data. We show that typical word alignment methods are on par with typical KG alignment methods in terms of their hits@k score. Moreover, word alignment methods balance the results so that correctly aligned entities are mutual nearest neighbours in the aligned embedding spaces. In addition, we investigate the effect of various embedding models on KG alignment and conclude that the choice of the embedding model has a large impact on the final alignment results. At the same time, we challenge the assumption that both KGs have to be embedded by two instances of the same embedding model and show that embedding them with different models yields results up to 20 percentage points worse at hits@k.
Zusammenfassung Knowledge Graphs (Knowledge Graphs, KGs) sind gerichtete Graphen welche real ex- istierende Konzepte und Beziehungen dazwischen modellieren. KGs wurde in den letzten Jahren viel Aufmerksamkeit geschenkt, und es wurden bedeutende Fortschritte bei deren Konstruktion unter verschiedenen Bedingungen erzielt. Jedoch existiert aktuell kein KG welcher jegliches Wissen enthällt — um eine ganzheitliche Sicht auf ein Konzept von In- teresse zu erhalten muss man daher Informationen aus mehreren KGs zusammenfu ̈hren. In der Regel bedeutet dies, dass man verschiedene KGs abgleichen muss um her- auszufinden welche ihrer Entitäten sich auf dasselbe Konzepte beziehen. Algorithmen die eine solche Alignierung (alignment) bestimmen können oft verbessert werden in dem sie dafür eine Einbettung (embedding) nutzen welches jede Entität und jede Beziehung durch einen Vektor repräsentiert. In dieser Arbeit testen wir typische embedding-basierte Alignierungsmethoden für Wörter auf ihre Anwendbarkeit auf KGs, in dem wir die KG embeddings als Eingabe annehmen. Wir zeigen, dass diese Methoden mit typischen KG Alignierungsmethoden in Bezug auf die Hits@k Metrik gleichauf sind, wie auch dass sie die Ergebnisse so aus- balancieren, dass die Entitäten der KGs im embedding als nächste Nachbaren auftreten. Des weiteren untersuchen wir die Auswirkungen verschiedener embedding-Modelle auf die Alignierung von KGs und kommen zum Schluss, dass die Wahl des Modells das Ergebnis stark beeinflusst. Gleichzeitig zeigen wir, dass die Alignierung um etwa 20 Prozentpunkte schlechtere Ergebnisse in Bezug auf Hits@k liefert wenn die KGs mit unterschiedlichen Modellen eingebettet werden.
PDF File Download
Export BibTeX