Workshop
Modellieren, vernetzen, analysieren – Methoden und Techniken zur digitalen Erschließung und Strukturierung geisteswissenschaftlicher Textkorpora
Termin: 13. Februar 2017, 9.00–18.30 Uhr
Ort: Bergische Universität Wuppertal, Campus Grifflenberg (Hauptcampus)
Raum: K.11.07 (Senatssaal)
Programm
09:00
Begrüßung (Jochen Johrendt)
Einführung/Moderation: Julia Nantke, Frederik Schlupkothen, Daniela Schulz
09:15
Øyvind Eide (Köln): Modelling in scholarly editing: between investigation and production
10:30
Stefan Gradmann (Leuven): Beyond Infrastructure!
11:45
Pause
12:00
Immanuel Normann (Tübingen): Semantic-Web-Technologien für die Textwissenschaft
13:15
Mittagspause
14:35
Steffen Lohmann (Sankt Augustin): Möglichkeiten der IT-gestützten Textanalyse mittels NLP und Linked Data
15:50
Ulrike Henny (Köln/Würzburg): Von Themen zu Topics: über die Einsatzmöglichkeiten von Topic Modeling für quantitativ gestützte Inhaltsanalysen in den Geisteswissenschaften
17:05
Pause
17:20
Gioele Barabucci (Köln): Computer-assisted collation and digital documents: possibilities, limits and open research questions
anschließend: Abschlussdiskussion