Program

Monday, 23/02/2026
02:00 p.m. – 05:30 p.m.
Query by Graph — Visuelle Anfragen an Wissensgraphen
Der Workshop führt in den Entwurf komplexer SPARQL-Abfragen mittels des visuellen Editors „Query by Graph“ ein. Als Anwendungsfall dient der Wissensgraph FactGrid. Das vorgestellte Werkzeug zielt darauf ab, die methodische Lücke zwischen Wissensgraphen und geisteswissenschaftlicher Forschung zu verringern und Forschenden einen niedrigschwelligen Zugang zu ermöglichen. Die als grundlegende Einführung konzipierte Veranstaltung adressiert Teilnehmende ohne technische Vorkenntnisse. Die praktische Anwendung wird anhand von Daten zu den Teilnahmen und Publikationen vergangener DHd-Konferenzen demonstriert.
Arbeiten mit der μEdition: In wenigen Schritten von der Idee zur digitalen Edition
Das μEdition Projekt verfolgt das Ziel die Schwellen für die Erstellung digitaler Editionen zu reduzieren. Dazu hat es mit der μEdition und dem μEditor zwei Werkzeuge entwickelt, die es ermöglichen in wenigen Schritten von der Editionsidee zur veröffentlichten, digitalen Edition zu kommen. In diesem Workshop werden die Teilnehmerinnen und Teilnehmer in die Nutzung dieser zwei Werkzeuge eingeführt und haben die Möglichkeit die ersten Schritte für die Entwicklung ihrer eigenen Edition auszuprobieren. Alle Lehrmaterialen werden nach dem Workshop frei zugänglich gemacht, damit die Teilnehmer und Teilnehmerinnen leicht auf diese zurückgreifen können, während sie ihre μEditionen weiterentwickeln.
Library Labs als Innovation Hubs für DH – Worldcafé & Community Building
In diesem Workshop stehen Library Labs im DH-Kontext als agile und innovative Plattformen der methodischen und digitalen Vermittlung im Fokus. Anders als klassische Makerspaces in Bibliotheken fördern Library Labs gezielt offene Kulturdaten, Schnittstellen für Datennachnutzung und interdisziplinäre Zusammenarbeit. Durch Workshops, Beratungsangebote und die Entwicklung neuer Methoden – etwa in den Bereichen Digitale Edition oder Forschungsdatenmanagement – fungieren sie als Orte des Austauschs und Innovationstreiber. Im Worldcafé-Format können interessierte Teilnehmende zusammen mit Forschenden und Lab-Anbietern dieses zielgruppenorientierte Angebot diskutieren und gemeinsam weiterentwickeln. Die Workshop-Organisator*innen stellen einführend verschiedene Lab-Konzepte ihrer Institutionen (DHELab, DNBLab, DigiPop, Stabi Lab und Makerspace Klassik Stiftung Weimar) vor und diskutieren Alleinstellungsmerkmale sowie Möglichkeiten der Profilbildung. Ziel ist es, die Rolle von Library Labs zu schärfen und innovative Potenziale sichtbar zu machen.
Beyond entities: Inhaltsbasierte Erschließung digitaler Editionen mit KI
Die semantische Erschließung anhand von Entities (Personen, Orte, Werke, Sach- und Zeitangaben) ist eine geübte Praxis der digitalen Editorik, einschließlich der Anwendung von Normdaten und der Entwicklung automatisierter Verfahren. Eine inhaltliche Erschließung darüber hinaus scheitert in der Regel an dem erforderlichen manuellen Aufwand. Die Verfügbarkeit und Mächtigkeit großer Sprachmodelle (LLMs) eröffnet neues Potenzial auf diesem Feld. Der Workshop vermittelt vor diesem Hintergrund die KI-gestützte semantische Anreicherung digitaler Editionen in Form von RDF-Triples sowie die grundlegenden Konzepte der verwendeten Technologien und Standards. Das Workshop-Szenario ist auf eine experimentelle Herangehensweise ausgerichtet: die gleiche Aufgabenstellung kann Hands-On in Arbeitsgruppen durch Auswahl verschiedener LLMs und unterschiedlicher Prompting-Strategien angegangen werden. Damit wird zugleich eine kritische Einschätzung und Diskussion gefördert.
Sammlungsdaten als Forschungsdaten in den Digital Humanities
Welches Potenzial haben Sammlungsdaten aus Bibliotheken, Museen und Archiven für die DH? Spätestens seit der Initiative Collections as Data ist die digitale Bereitstellung kultureller Sammlungen zur maschinellen Nachnutzung als Desiderat benannt. Einige Sammlungseinrichtungen machen ihre Datenbestände bereits methodenoffen verfügbar, beteiligen sich am Aufbau von Infrastrukturen, entwickeln Best Practices und öffnen experimentelle Labs. Dabei orientieren sie sich an den Open-Access-, FAIR- und CARE-Prinzipien für ein offenes, nachhaltiges und verantwortungsvolles Datenmanagement. Die DHd-AG „Digitales Museum“ legt als neue AG „Sammlungen als Daten“ den Fokus auf die datenbasierte Forschung und stärkt die Kooperation zwischen DH und Kulturerbeeinrichtungen. Die Arbeit mit Sammlungsdaten erfordert die Bereitschaft, mit den Sammlungseinrichtungen in den Dialog zu treten und sich auf domänenspezifische Formate, Standards und Erschließungspraktiken einzulassen. Im Workshop werden drei Themen behandelt: Zugang zu Sammlungsdaten und rechtliche/technische Rahmenbedingungen, die Rolle der Datenqualität sowie die Frage, wie aus Sammlungsdaten Forschungsdaten werden und welche Forschungspotenziale sie bergen.
Beyond “m/w/d” – Queere Perspektiven auf die Modellierung geschlechtlicher Diversität und der Gender Data Gap in den Digital Humanities
Der Gender Data Gap bezeichnet ein Ungleichgewicht in der Erhebung von Daten zu Ungunsten eines bestimmten Geschlechts – in der Regel sind dies Frauen. Wir wollen im Workshop einerseits Raum geben, über die Data Gaps der Teilnehmenden selbst zu sprechen und gemeinsam Lösungsvorschläge zu erarbeiten, und andererseits über Ansätze für eine angemessen Repräsentation von Queerness und die Modellierung von Geschlechts-Daten jenseits von Geschlechterbinarität sprechen. Den Workshop leiten weniger Antworten als Fragen. Wie sollte mit der Anwendung von jenseits des binären Spektrums liegenden Geschlechtskategorien in historischen Kontexten umgegangen werden? Wie wirken unterschiedliche kulturelle und zeitgeschichtlichen Kodierungen auf Kategorisierungen für queere und von Normen abweichende Identitäten? Wie verändert sich das Sprechen über Nichtbinarität oder Transgeschlechtlichkeit über die Jahrhunderte, wie adäquat sind gegenwärtige Begriffe um diese Phänomene in historischen Kontexten zu beschreiben?
DOI-Stories: Erfolgreich Daten Publizieren in den DH
Der Workshop „DOI-Stories“ widmet sich den Publikationspraktiken von Forschungsdaten in den Digital Humanities. Forschungsdaten bilden zunehmend ein zentrales Element der digitalen Geisteswissenschaften. Der Workshop analysiert anhand konkreter und von den Teilnehmenden eingebrachten Fallbeispiele („DOI-Stories“) die vielfältigen Publikationspraktiken sowie die damit verbundenen Hürden, Standards und Erfahrungen. Leitfragen untersuchen u. a., welche Daten veröffentlicht werden, über welche Kanäle und Formate, mit welcher Dokumentation, Unterstützung und Motivation. Ziel ist es, Erfolgsfaktoren zu identifizieren, Orientierung für die Community zu bieten und den Austausch zum Thema Datenpublikationspraxis zu fördern. Die „DOI-Stories“ dokumentieren dabei nicht nur technische, sondern auch ideelle Aspekte der Veröffentlichung und werden in einer Best-Practice-Sammlung aufbereitet. Der Workshop richtet sich an alle Interessierten, unabhängig von ihrer bisherigen Erfahrung mit Datenpublikationen.
Beyond the Cloud: Democratizing GPU Access for the Digital Humanities with DHInfra.at
This half-day workshop invites DH researchers and developers to shape Austria’s next-generation research infrastructure. As demand for specialized AI computing grows, the DHInfra project is deploying federated GPU infrastructure to bridge local hardware limitations and commercial cloud challenges. Inspired by leading HPC centers and advised by EuroCC, we’re building a managed, powerful, user-friendly environment. Timed as a key validation phase before full launch, participants receive early access to infrastructure that has undergone months of rigorous internal testing. Focusing on Large Language Models, attendees will work in prepared containerized environments to fine-tune models and build API-driven workflows. This unique opportunity allows the DH community to test state-of-the-art resources, provide critical feedback, and ensure the platform aligns perfectly with real-world humanities research needs.
Tuesday, 24/02/2026
09:00 a.m. – 12:30 p.m.
DNBLab – Von der Forschungsidee zum Datenkorpus
Der Workshop bietet einen Einblick in die Arbeit mit den Daten der Deutschen Nationalbibliothek (DNB) und praktische Unterstützung bei automatisiertem Datenbezug sowie -aufbereitung für die Beantwortung von Forschungsfragen. Im Vordergrund steht eine Einführung in die Datenselektion mit der SRU-Schnittstelle sowie die Extraktion ausgewählter Daten aus dem komplexen Metadatenformat MARC21-xml ins CSV-Format als Voraussetzung von Datenanalysen. Mit der Sammlung konkreter Anwendungsfälle der Teilnehmer*innen soll der sich in der DNB gezeigte Bedarf der Digital Humanities so praxisnah wie möglich gedeckt werden. Im ersten Teil steht daher eine gemeinsame exemplarische Aufbereitung eines Datensets im Vordergrund. Im zweiten Teil können die Teilnehmer*innen dann mit verschiedenen Skripten und dem zuvor erworbenen Wissen selbst ausgewählte Fragestellungen bearbeiten. Ziel ist eine niedrigschwellige Einführung mit ausreichend Raum zum Ausprobieren und Fragen. Die Inhalte des Workshops werden anhand der Zugänge und Daten der DNB erklärt, sind aber auch auf die Angebote anderer Bibliotheken übertragbar.
Graphbasierte Text- und Wissensmodellierung mit dem ATAG-Editor und Entity-Manager
Der Workshop führt praxisorientiert in die graphbasierten Modellierungsansätze Applied Text as Graph (ATAG) und Reusable Abstraction Model for Editorial Needs (RAMEN) ein. Im Zentrum stehen zwei offene, browserbasierte Werkzeuge: der ATAG-Editor zur strukturierten Bearbeitung und Annotation von Texten sowie der Entity-Manager zum Aufbau vernetzter Wissensbasen. Beide Tools ermöglichen die flexible Verknüpfung von Texten, Annotationen und Entitäten in einem gemeinsamen Netzwerk auf Basis von Labeled Property Graphs (LPG). Teilnehmende lernen, komplexe textuelle Phänomene wie überlappende Strukturen, alternative Lesarten oder fragmentarische Textverläufe präzise zu modellieren – ebenso wie Wissenselemente systematisch zu erfassen, zu kategorisieren und mit Textstellen zu verknüpfen. Der Workshop richtet sich an alle, die im Umfeld digitaler Editionen arbeiten – unabhängig von Vorkenntnissen in TEI oder Graphtechnologien. Eigene Textbeispiele können eingebracht werden; Programmierkenntnisse sind nicht erforderlich.
02:00 p.m. – 05:30 p.m.
Wissenschaftliche Bibliotheken und Digital Humanities: Chancen, Potenziale und Perspektiven auf Zusammenarbeit und Vernetzung
Wissenschaftliche Bibliotheken spielen in den Digital Humanities (DH) eine vielfältige Rolle. Sie fungieren als Datengeber von Digitalisaten, Meta- und Normdaten, Softwarelösungen und Forschungsumgebungen und bieten Möglichkeiten zur Vermittlung von Kompetenzen, Methoden und Werkzeugen, auch über text- und datenzentrierte Ansätze hinaus. In diesem Workshop soll mit den Teilnehmer*innen im Rahmen eines World Café partizipativ darüber diskutiert werden, wie und auf welchen Themengebieten Wissenschaftliche Bibliotheken und Digital Humanities in Zukunft noch stärker miteinander verknüpft und wie darauf aufbauend Akteure aus Wissenschaftlichen Bibliotheken und den Digital Humanities langfristig miteinander vernetzt werden können. Als zentrale Leitplanke des Workshops fungiert dabei die Frage nach einer potenziellen Institutionalisierung von Wissenschaftlichen Bibliotheken in der DH-Community und möglichen Gestaltungs- und Kommunikationsformen.
Kontext und Klarheit: Fachspezifische Metadaten für offene Bildungsressourcen (OER) zu Data Literacy
Der Workshop vermittelt theoretisches und praktisches Wissen zum Einsatz offener großer Sprachmodelle (OpenLLMs) in den Digital Humanities. Im Zentrum stehen Fragen der Transparenz, Reproduzierbarkeit und methodischen Offenheit im Umgang mit generativer KI. Neben einer Einführung in Modelle, Lizenzierung und Anwendungsszenarien umfasst der Workshop zwei praktische Teile: die lokale Nutzung eines kleinen Modells (z. B. über Ollama) sowie der Zugriff auf leistungsstärkere Modelle auf einem bereitgestellten Server. Ziel ist es, Berührungsängste abzubauen, technische Grundlagen zu vermitteln und kritische Perspektiven auf OpenLLMs im wissenschaftlichen Kontext zu fördern. Der Workshop richtet sich an Forschende mit ersten Erfahrungen in generativer KI, die sich tiefer mit offenen Alternativen zu kommerziellen Plattformen auseinandersetzen möchten. Programmierkenntnisse sind nicht erforderlich, aber die Bereitschaft zur aktiven Teilnahme.
09:00 a.m. – 17:00 p.m.
LLMs unter Kontrolle: Offene Modelle in Forschung und Praxis
Der Workshop vermittelt theoretisches und praktisches Wissen zum Einsatz offener großer Sprachmodelle (OpenLLMs) in den Digital Humanities. Im Zentrum stehen Fragen der Transparenz, Reproduzierbarkeit und methodischen Offenheit im Umgang mit generativer KI. Neben einer Einführung in Modelle, Lizenzierung und Anwendungsszenarien umfasst der Workshop zwei praktische Teile: die lokale Nutzung eines kleinen Modells (z. B. über Ollama) sowie der Zugriff auf leistungsstärkere Modelle auf einem bereitgestellten Server. Ziel ist es, Berührungsängste abzubauen, technische Grundlagen zu vermitteln und kritische Perspektiven auf OpenLLMs im wissenschaftlichen Kontext zu fördern. Der Workshop richtet sich an Forschende mit ersten Erfahrungen in generativer KI, die sich tiefer mit offenen Alternativen zu kommerziellen Plattformen auseinandersetzen möchten. Programmierkenntnisse sind nicht erforderlich, aber die Bereitschaft zur aktiven Teilnahme.
Wikibase als Forschungsinfrastruktur – am Beispiel der Kirchengeschichte
Der ganztägige Workshop bietet einen Einblick in die Nutzung von Wikibase-basierten Projekten für die geisteswissenschaftliche Forschung. Das Angebot ist zweiteilig. Der erste Teil versteht sich als grundlegende Einführung und richtet sich an Teilnehmende ohne Vorkenntnisse im Bereich Wikidata/Wikibase/SPARQL. Die praktische Einführung erfolgt exemplarisch anhand von Forschungsdaten zur mittelalterlichen Kirchengeschichte, ist aber auf andere Gegenstände und Disziplinen übertragbar. Der zweite Teil beginnt mit einer Vorstellung von FactGrid, einer eigenständigen Wikibase-Instanz für historische Forschung. Anschließend werden verschiedene Möglichkeiten des strukturierten Datenimports vorgestellt, etwa mit QuickStatements, OpenRefine oder API-basierten Skripten. Es folgt eine Diskussion zu Vor- und Nachteilen eigenständiger Wikibase-Instanzen, inklusive technischer Anforderungen und Datenmodellierung. Verschiedene Betriebsmodelle wie Wikibase-Cloud und Self-Hosting werden vorgestellt. In einer abschließenden Hands-on-Übung richten die Teilnehmenden eine eigene Wikibase-Cloud-Instanz ein und erfassen erste Daten.
Film- und Videoanalyse mit VIAN & TIB-AV-A – Grundlagen, Anwendungen und Schnittstellen
Der Workshop vermittelt Grundlagen und Anwendung hybrider Verfahren zur Analyse audiovisueller Inhalte mit den Open-Source-Tools VIAN Light und TIB-AV-A. Ziel ist es, qualitative, manuelle Annotation und automatisierte Verfahren in methodisch reflektierten Workflows produktiv zu verbinden. Während VIAN Light als flexibles, disziplinübergreifend nutzbares Annotationstool für die kontextsensitive Erschließung von Film- und Videomaterial entwickelt wurde, erlaubt TIB-AV-A KI-gestützte Segmentierungen und Bild-/Tonanalysen in skalierbaren Datensätzen. Im Workshop werden zentrale Funktionen beider Tools anhand praxisnaher Beispiele vorgestellt, eigene Analyseprojekte erprobt und disziplinspezifische wie interdisziplinäre Anforderungen diskutiert. Dabei stehen sowohl technische Aspekte wie Usability und Interoperabilität als auch epistemologische Fragen im Zentrum – etwa zur erkenntnisleitenden Rolle manueller Annotation. Zielgruppe sind Forschende aus den Digital Humanities und angrenzenden Disziplinen, die mit Bewegtbildmaterial arbeiten. Der Workshop fördert Austausch über Best Practices, methodische Kombinationen und Anforderungen an nachhaltige, offene Infrastrukturen zur digitalen Videoanalyse.
Vom Audio zum Text: Automatisierte Transkriptionen mit Whisper
Audioquellen wie Interviews, Zeitzeugenberichte oder gesprochene Sprachdaten sind für viele Bereiche der Digital Humanities – von Ethnografie bis Geschichtswissenschaft und Linguistik – zentrale Forschungsgrundlagen. Dieser ganztägige Workshop zeigt, wie Forschende mit Whisper, einem Open-Source-Tool für automatische Spracherkennung, effizient Audiodaten in Texte umwandeln können – lokal, datenschutzkonform und ohne Kosten. Am Vormittag lernen die Teilnehmenden nutzerfreundliche Tools (aTrain, noScribe) kennen und erstellen erste Transkriptionen. Der Nachmittag bietet einen vertiefenden Einblick in Whisper als Python-Paket: Teilnehmende führen ein Skript in Jupyter Notebooks aus, passen es an und erproben Workflows für größere Datenmengen. Der Workshop richtet sich an DH-Forschende und Multiplikator*innen, die Audioquellen effizient für digitale Workflows aufbereiten möchten. Alle Materialien stehen als Open Educational Ressource (OER) zur Nachnutzung bereit, sodass der Workshop anschließend eigenständig durchgeführt werden kann.
Reusable workflows in practice – a hands-on workshop
This full-day (8h) workshop is dedicated to research workflows and their reusability, providing an actionable contribution to the question of knowledge production addressed in the call for papers. In particular, we strive to foster community building around the recognition of the heuristic value of digital-based methodologies. The goal of this workshop is to reflect on the reusability of digital-based research workflows relevant for Digital Humanities, and to contribute to the state of the art by testing existing workflows and producing new reusable descriptions. The primary outlet for workflow descriptions is currently the SSH Open Marketplace, whose Editorial Board is contributing to improving access to reusable workflows (Barbot et al., 2024). The workflow “How to create a workflow in the SSH Open Marketplace?” is seminal in providing guidance and will serve as a basis for the second part of the workshop.
TEI Publisher reloaded: Digitale Editionen mit System – modular, nachhaltig, community-orientiert
Der Workshop vermittelt den Einsatz des TEI Publishers in der neuen Version 10, die mit dem App-Manager „Jinks“ eine modulare Architektur einführt. Anhand eines Profilsystems, bestehend aus Blueprints, Features und Themes, lassen sich digitale Editionsumgebungen flexibel zusammenstellen und erweitern. Ziel ist es, nachhaltige, leicht zugängliche und wiederverwendbare Lösungen für digitale Editionen zu schaffen im Sinne eines „Prêt-à-Porter“-Ansatzes. Der Workshop kombiniert eine Einführung in die neuen Funktionen mit einem praktischen Teil, in dem Teilnehmende eigene Profile entwickeln und anpassen. Vorgestellt wird außerdem das Projekt „Kleine Editionen“ der Universitätsbibliothek Kiel, das drei wiederverwendbare Profile für kleinere Editionsprojekte bereitstellt. Der Workshop richtet sich an alle, die TEI Dokumente publizieren möchten und legt den Fokus auf modulare, standardbasierte Infrastrukturen für nachhaltige DH-Projekte.

To be announced