Nodegoat Workshop

Linked Open Data in eine virtuelle Forschungsumgebung importieren und auswerten (April / Mai 2021)

Dieser Workshop zeigt in vier Sessions, wie man die virtuelle Forschungsumgebung Nodegoat mit externen Datenquellen verbindet, Daten in die eigene Nodegoat-Forschungsumgebung importiert und auswertet. Ermöglicht wurde der Workshop durch das SNF SPARK Projekt 'Dynamic Data Ingestion', zu dem auch einige Ergebnisse präsentiert werden. Informationen zum Projekt: https://histdata.hypotheses.org/category/spark-news

Der Workshop findet am 28. April /  05. Mai / 12. Mai und 26. Mai 2021 statt, jeweils von 14:00 bis 17:00 Uhr  via ZOOM. Die Sessions werden aufgezeichnet und können nachgeschaut werden. Der Workshop ist öffentlich und richtet sich speziell an Studierende, Forschende, Lehrende ohne Erfahrung mit Nodegoat (der Besuch aller vier Sessions wird sehr empfohlen) sowie an Fortgeschrittene, die erst ab Session 3 einsteigen können. Anmeldungen für den Workshop bis zum 25.04.2021 an Kaspar Gubler (kaspar.gubler@hist.unibe.ch). Wer noch keine Nodegoat-Forschungsumgebung besitzt, soll bitte vor dem Workshop eine beantragen (siehe Nodegoat GO für Mitglieder der Phil.-Hist. Fakultät der Universität Bern). Wer keinen Zugang zu einer institutionellen Forschungsumgebung (Nodegoat GO) an seiner Bildungseinrichtung hat, kann eine Umgebung bei nodegoat.net beantragen.

 

Session 1: Datenmodellierung (28.04.2021)

Nach einer kurzen Einführung in Nodegoat werden wir ein Datenmodell in unsere eigene Nodegoat-Umgebung implementieren. Dieses Datenmodell wird sich auf Personen und Publikationen konzentrieren. Sobald das Datenmodell steht, werden wir eine kleine Menge an Daten manuell eingeben, um das Datenmodell zu testen. Theoretische und konzeptionelle Überlegungen zur Datenmodellierung und zu Ontologien runden die erste Session ab.

Session 2: Daten importieren (05.05.2021)

In dieser Sitzung werden wir eine CSV-Datei importieren, die eine Teilmenge aktueller Forschungsdaten aus einer prosopographische Datenbank enthält. Wir werden auch räumliche und zeitliche Daten importieren, um diese abzufragen (Filter-Abfrage) und zu visualisieren. Nach diesen beiden ersten Sessions werden wir eine vollständig konfigurierte Nodegoat-Forschungsumgebung haben, die ein operationelles Datenmodell enthält, das mit einem gut strukturierten Datenset ausgestattet wurde.

Session 3: Prosopographische Daten anreichern (12.05.2021)

Unser Datenset, das wir in den Sessions 1 und 2 zusammengestellt haben, werden wir nun mit Hilfe von Ingestion-Prozessen anreichern. Wir konfigurieren eine Reihe von Linked-Data-Ressourcen und Ingestion-Prozessen (z.B. werden wir Personen unserers Datensets mit Daten von Wikipedia oder Wikidata anreichern). Wir werden uns auch einige einfache Konvertierungsskripte ansehen, mit denen wir Datenformate aus externen Datenquellen, die nicht in unsere Datenbank passen, vor der Data Ingestion ins passende Format bringen können.

Session 4: Data Ingestion verwandter Daten (26.05.2021)

In dieser Session werden wir Daten aus anderen Datenquellen mittels Dateningestion importieren. Beispielsweise können wir Daten einer Bibliothek abfragen, um alle Publikationen einer Personen in unsere Datenbank zu speichern. Oder wir importieren Daten von Wikidata, die noch nicht in unserem Datenset vorhanden sind, etwa alle Schlösser im Herzogtum Brabant, Herkunftsorte schottischer Hexen in der Frühen Neuzeit oder Kunstobjekte u.a.

Zum Abschluss des Workshops diskutieren wir Perspektiven sowie praktische Anwendungsfälle der Data Ingestion für die Vernetzung und Harmonisierung von Forschungsdaten.