Das 21. Jahrhundert ist ein ludisches Jahrhundert (Zimmerman 2015). An die Stelle von vernetzten Informationssystemen sind komplexe Systeme getreten, in denen Informationen nach Prozeduren bearbeitet werden, die dem Modell des Spiels folgen. Dabei sind Spiele Medien ganz eigener Logik, die sich fundamental von der Logik traditioneller linearer Medien unterscheiden (Seiffert / Nothaft 2015). Wenn Kultur sich im Spiel und als Spiel entfaltet, wie der Anthropologe Johan Huizinga (2022 [1938]) formulierte, dann ist eine ludologische Betrachtung von Kommunikation, die das Spiel als Modell für (digitale) Kommunikation nutzt (Thimm / Wosnitza 2010, Lampe 2015), ein wichtiger Baustein einer Linguistik, die die kulturelle Dimension von Kommunikation in den Blick nimmt.
In meinem Vortrag möchte ich ...
1. zeigen, inwiefern es adäquat und produktiv ist, Konzepte der Game Studies auf digitale Kommunikation zu übertragen. Dies soll einerseits für abstrakte Konzepte des Spieldesigns wie Regeln und Mechaniken, Möglichkeitsraum, Prozeduralität und Feedback, Progression und Emergenz erfolgen, andererseits auch für konkretere Design Pattern wie Ökonomien, Nudging oder Endowed Value.
2. das Konzept der prozeduralen Rhetorik (Bogost 2007) für die Analyse der soziokulturellen Effekte gängiger Kommunikationsplattformen vorschlagen, das auch eine kritische Perspektive auf das Selbstbild unserer Gesellschaft, das Platformdesigner:innen und -nutzer:innen in der digitalen Kommunikation entwerfen, ermöglicht.
3. methodologische Schlüsse ziehen, die sich aus der Modellierung von Kommunikation als Spiel ergeben. Diese liegen in einer Hinwendung zu datenintensiven Methoden, die die Sequenzialität und Prozeduralität der Kommunikation stärker berücksichtigen als die vorherrschenden strukturalistisch orientierten Ansätze.
Institution
Wie können wiederkehrende Einheiten, wie Personennamen oder Titel literarischer Werke in großen Textkorpora automatisch ausfindig und annotiert werden? Wie kann eine erste inhaltliche Erschließung literarischer Texte digital umgesetzt werden und auf welche Art und Weise lassen sich Verfahren des maschinellen Lernens für geisteswissenschaftliche Forschungsszenarien fruchtbar machen?
Diesen und anderen Fragen, die mit dem Einsatz digitaler Verfahren der Textanalyse einhergehen, werden wir im Rahmen des Workshops “Named Entity Recognition für Geisteswissenschaftler:innen mit Stanford CoreNLP” nachgehen. Dabei lernen Sie ein ausgewähltes Tool im Hands-On-Modus kennen, das in den Digital Humanities zur sog. Named Entity Recognition, also: die automatische Klassifikation/Annotation wiederkehrender Entitäten wie Personen, Werke, Orte und Organisationen, eingesetzt wird. Neben einer kurzen inhaltlichen Einführung in die Named Entity Recognition steht vor allem die praktische Anwendung der Methode im Vordergrund.
Dabei können Sie entweder direkt mit eigenen Texten arbeiten oder auf vorbereitete Materialien zurückgreifen. Technische Vorkenntnisse sind für die Teilnahme nicht vonnöten. Bringen Sie lediglich einen internetfähigen Laptop, für Ihre Forschung relevante Texte (optional) und eine große Portion Neugier auf digitale Verfahren der Textanalyse mit.
Referent:in: Marie Flüh (UHH). Die Teilnehmer:innenzahl ist beschränkt auf 15, daher wird um Anmeldung an forschungsdienste@sub.uni-hamburg.de gebeten.
Verfahren des maschinellen Lernens im Kontext der Sprachverarbeitung sind momentan in aller Munde. Noch ist unklar, wie und wo genau Systeme wie etwa ChatGPT in der Forschung zum Einsatz kommen werden. Schon lange werden jedoch, auch in den Digital Humanities, mit regel-basierten und statistischen Verfahren Texte automatisiert analysiert. Für Forschende bleibt es wichtig ein Verständnis der Methoden zu entwickeln, um so jeweils die passende Technik zur Anwendung zu bringen und dabei insbesondere die Schwächen der Methoden zu berücksichtigen.
In seinem Vortrag beleuchtet Hans Ole Hatzel zunächst die Grundlagen der computergestützten Textverarbeitung und erklärt dabei von Tokens und Types bis hin zu Word Embeddings und Sentiment Analyse unterschiedliche etablierte Techniken. Einige Verfahren werden mit Beispielen aus den Digital Humanities hinterlegt, um neben den Methoden selbst auch zu verdeutlichen, wie sie konkret Anwendung finden. Am Schluss folgt ein Ausblick auf die Verwendung von Large Language Models, der Technologie hinter ChatGPT, in den Digital Humanities.
Referent:in: Hans Ole Hatzel (UHH)
Die KI-Verordnung (KI-VO) ist ein Prestigeprojekt der EU. Es ist zu erwarten, dass das groß angelegte Regulierungsvorhaben die Verbreitung und den Einsatz von künstlicher Intelligenz (KI) in der Union und über ihre Grenzen hinaus erheblich beeinflussen wird.
In diesem Workshop wollen wir die Inhalte der KI-Verordnung, die Bezüge zum Urheber- und Datenschutzrecht, die Bezüge zu OpenData und insbesondere für (öffentliche) Hochschulen relevante Bezüge herausarbeiten.
Die Teilnehmenden sind eingeladen, vorab ggf. eigene Fragen/Fälle vorzubereiten und bei Interesse im Workshop vorzutragen.
Schwerpunkte sind:
Anmeldung hier
Als virtuellen Lernort werden wir ZOOM nutzen. Der ZOOM-Link wird einen Tag vor Schulungsbeginn bis 13:00 Uhr versendet.
Institution
In DaVincis Resolve gibt es verschiedene KI-Tools, die die Postproduktion erleichtern sollen.
In 30 Minuten erhalten Sie einen Überblick über den aktuellen Stand der Möglichkeiten, die es bereits gibt und die vielleicht bald hinzukommen. Wir schauen uns an, wie die Tools funktionieren und wie sie in den eigenen Workflow integriert werden können.
Grundkenntnisse in DaVinci Blackmagic Resolve sind nicht erforderlich, aber hilfreich.
Anmeldung hier
Als virtuellen Lernort werden wir ZOOM nutzen. Der ZOOM-Link wird einen Tag vor Schulungsbeginn bis 13:00 Uhr versendet.
Institution
In the humanities and cultural studies, OCR (Optical Character Recognition) and HTR (Handwritten Text Recognition) remain difficult tasks. All users have access to a free and simple-to-use tool through OCR4all to carry out their own OCR workflows. The fundamental ideas and concepts of OCR will be covered in this workshop, along with a brief overview of the OCR4all program.
- What kinds of files and data are necessary for OCR?
- How does the OCR or HTR workflow integration in OCR4all adapt according to the source material and the anticipated (human) effort?
- With regard to the content at hand, how much of the workflow can be automated?
- What is an OCR model, and how can one train a specific text recognition model?
- What level of recognition accuracy can be expected?
- How much work should be put into producing texts if they are going to be used later?
By the end of the session, all participants will be able to work independently on challenging OCR tasks thanks to the discussion and explanation of these and other topics.
The participants may use the offered sample texts as well as their own materials. There is no prerequisite for this training, and all skill levels can participate.
Speaker: Florian Langhanki (JMU)
The number of participants is limited to 15, so please register at forschungsdienste@sub.uni-hamburg.de.
This event is in the series "Digital Humanities – How does it work?" of the Department for Digital Scholarship Services.
Examining historical sources in the form of printed and manuscript textual material is a crucial component of the work done by scholars in the humanities, as well as in the cultural and human sciences. These are frequently only accessible as scans, which drastically restricts how useful they may be because automatic indexing techniques like full-text search or quantitative analysis methods cannot be applied. The so-called machine-processable full text must first be extracted from the digitized data for this purpose, and methods for automatic text recognition of prints (OCR) or manuscripts (HTR) are becoming increasingly crucial in this process. Old prints and manuscripts, in particular, can still be exceedingly difficult to work with for a variety of reasons. Fortunately, historical OCR/HTR has made significant strides in recent years, leading to the development of some high-performance solutions.
OCR4all, a freely downloadable open source program created by the University of Würzburg's Center for Philology and Digitization (ZPD), seeks to make it possible for users of all skill levels to independently and accurately index complex printed materials and manuscripts. OCR4all is a single application that includes the whole text recognition workflow as well as all necessary tools. It is simple to install and use because to its user-friendly graphical user interface.
In addition to introducing OCR4all and its features through a live demonstration, the lecture goes through the fundamentals of automatic text recognition. Additionally, the performance and application on various materials will be shown, and an overview of recent work as well as a prognosis for future advances will be provided.
Speaker: Christian Reul
This event is in the series "Digital Humanities – How does it work?" of the Department for Digital Scholarship Services.
Sie schreiben an einer Hausarbeit im Bereich Digital Humanities und benötigen Unterstützung bei einer Fragestellung? Sie haben Probleme mit den nötigen Text-Annotationen für Ihr Promotionsprojekt? Sie möchten DH-Methoden in Ihre Arbeit einbringen, haben auch schon eine erste Idee, aber wissen nicht, wie und wo Sie anfangen sollten? Das Referat für Digitale Forschungsdienste bietet an jedem ersten Montag des Monats eine offene Online-Sprechstunde zu Themen in den Digital Humanities an, in dem Sie sich über diese und weitere Fragen und Herausforderungen austauschen können. Die Sprechstunde findet über Zoom statt, eine vorherige Anmeldung ist nicht nötig.
Visualisierungen sind in aller Munde oder besser: in aller Auge. Mit der zunehmenden datenbasierten digitalen Forschung in allen Disziplinen gibt es kaum noch einen Bereich, der Analyseergebnisse oder auch Analyseworkflows selbst nicht visuell gestaltet. Besonders in den geisteswissenschaftlichen Disziplinen, die sich auf textbasierte Forschung konzentrieren, wird die Fähigkeit zur kritischen Bewertung von Visualisierungen jedoch oft vernachlässigt und findet nur selten Eingang in die Ausbildung. Angesichts der zunehmenden Generierung digitaler Forschungsdaten und Analyseergebnisse in den digitalen Geisteswissenschaften ist jedoch die visuelle Darstellung und Interpretation dieser Daten unausweichlich geworden, um zukunftsfähig zu bleiben. Dies erfordert eine ausgeprägte visuelle Kompetenz als Teil der Data Literacy. Mit dem Bereich der Datenvisualisierung scheint jedoch (wiederum) ein neues Paradigma wissenschaftlichen Arbeitens in die Geisteswissenschaften Einzug zu halten und für mehr oder weniger produktive Reibungen zu sorgen. Vagheiten, Ambivalenzen, Eindeutigkeiten oder überhaupt Sichtbarkeiten interpretativer Schritte der Datengenerierung und -auswahl sind jedoch von genuin geisteswissenschaftlichem Interesse. Hermeneutische und computationelle Zugänge lassen sich im Feld der Datenvisualisierung miteinander in Verbindung bringen. In diesem Vortrag werden das Problemfeld beleuchtet und potenzielle Kriterien für die Kategorisierung und kritische Bewertung von geisteswissenschaftlichen Datenvisualisierungen vorgestellt.
Referent: Jan Horstmann (SCDH, Uni Münster)
Eine Veranstaltung im Rahmen der Veranstaltungsreihe „Digital Humanities – Wie geht das?“ des Referats für Digitale Forschungsdienste.
Der Vortrag findet als Coffee Lecture hybrid statt. Für eine Teilnahme vor Ort bitten wir um Anmeldung an forschungsdienste@sub.uni-hamburg.de.
DH-Projekte sind komplexe Vorhaben aufgrund ihrer Interdisziplinarität, Innovativität und der meist stark begrenzten Ressourcen durch Drittmittelförderung. In Projekten sollen ToDos erledigt werden, die aber auch irgendwie in Abhängigkeit zueinander stehen. Personal und Finanzmittel müssen verfügbar sein, aber auch verplant werden. Das Projekt soll natürlich erfolgreich sein, aber wer entscheidet alles darüber?
Um sich diesen Herausforderungen zu stellen und DH-Projekten zum Erfolg zu verhelfen, bedarf es eines weiteren Tools im DH-Projekt-Werkzeugkasten, das ein überlegtes und systematisches Vorgehen fördert: Projektmanagement.
Im Workshop “Projektmanagement als wichtiges Tool für Digital Humanities Projekte” an der SUB Hamburg möchten wir die typischen Herausforderungen von DH-Projekten mit dem Potential von Projektmanagement-Methoden zusammenbringen.
Neben kompakten Inputs zu Projektmanagement, wird es Raum geben für eigene Erfahrungen aus der Projektpraxis und dem Erproben von PM-Methoden, die künftig auch in der eigenen Projektarbeit Anwendung finden können.
Das Angebot richtet sich an Interessierte aus der wissenschaftlichen Projektarbeitspraxis an Universitäten, Forschungseinrichtungen oder wissenschaftlichen Bibliotheken, Vorkenntnisse sind nicht nötig.
Die Teilnehmer:innenzahl ist beschränkt auf 15, daher wird um Anmeldung an forschungsdienste@sub.uni-hamburg.de gebeten.
Eine Veranstaltung im Rahmen der Veranstaltungsreihe „Digital Humanities – Wie geht das?“ des Referats für Digitale Forschungsdienste.
Ob fotorealistisch oder kunstvoll, es gibt viele Möglichkeiten Adobe Firefly in kurzer Zeit einzigartige Bilder generieren zu lassen. Über zahlreiche Einstellmöglichkeiten lassen sich die Ergebnisse immer weiter verfeinern oder schnell verändern.
Wir wollen in 30 Minuten einen beispielhaften Workflow für die Bildgenerierung kennenlernen, der uns durch die verschiedenen Arbeitsschritte führt. Am Ende können wir mit einem generierten Bild in andere Adobe Anwendungen wechseln, um dort weiter daran zu arbeiten.
Diese Online-Schulung richtet sich an Einsteiger*innen und es werden keine Vorkenntnisse vorausgesetzt.
Adobe Firefly lässt sich bis zu einem bestimmten Rahmen kostenlos nutzen. Darüber hinaus wird es kostenpflichtig.
Schwerpunkte sind:
Anmeldung hier
Als virtuellen Lernort werden wir ZOOM nutzen. Der ZOOM-Link wird einen Tag vor Schulungsbeginn bis 13:00 Uhr versendet.
Institution
In dieser 30-minütigen Online-Schulung erfahren Sie, wie künstliche Intelligenz die Musikproduktion revolutioniert. Sie erhalten eine grundlegende Einführung in die Möglichkeiten von KI-Tools für die Musikproduktion und Soundgenerierung.
Wir stellen Ihnen die gängigsten und benutzerfreundlichsten KI-Tools zur Musik- und Soundgenerierung vor, damit Sie selbst kreativ werden können – ohne musikalische Vorkenntnisse!
Diese Schulung ist speziell für Einsteiger*innen konzipiert, die wenig bis keine Erfahrung mit Musikproduktion oder KI haben.
Schwerpunkte sind:
Anmeldung hier
Als virtuellen Lernort werden wir ZOOM nutzen. Der ZOOM-Link wird einen Tag vor Schulungsbeginn bis 13:00 Uhr versendet.
Institution
Registration: digitale.gw@uni-hamburg.de
Wednesday, May 3th and Wednesday and June 7th, 2023, both dates can also be attended independently.
The Digital Humanities lecture series offers an introductory overview of the digital technologies and processes used today to analyze texts, present them on digital platforms, and archive them for posterity. Emphasis is placed on the procedures and tools used in linguistics and literary studies. In addition to an inventory and the presentation of sample applications, the lecture aims to reflect on the changes in the research and work process in the humanities that accompany digitization.
Institutions
Registration: digitale.gw@uni-hamburg.de, both dates can also be attended independently.
The Digital Humanities lecture series offers an introductory overview of the digital technologies and processes used today to analyze texts, present them on digital platforms, and archive them for posterity. Emphasis is placed on the procedures and tools used in linguistics and literary studies. In addition to an inventory and the presentation of sample applications, the lecture aims to reflect on the changes in the research and work process in the humanities that accompany digitization.
Institution
Dr. Melanie Andresen, DeepL, Köln
Die Digitalisierung hat mittlerweile auch in den Geisteswissenschaften Einzug gehalten – sowohl in der Forschung als auch in den außeruniversitären Berufsfeldern. Jenseits der Nutzung des Computers zum Schreiben von Texten und zum Surfen im Internet hat sich im Rahmen der so genannten Digital Humanities ein breites Spektrum an Methoden entwickelt, die das traditionelle Handwerkszeug der Geisteswissenschaften mit neuen Möglichkeiten ergänzen.
Die Vorlesung bietet einen einführenden Überblick über die digitalen Technologien und Verfahren, die heute zum Einsatz kommen, um Texte zu analysieren, auf digitalen Plattformen zu präsentieren und für die Nachwelt zu archivieren. Ein Schwerpunkt liegt dabei auf den Verfahren und Werkzeugen der Sprach- und Literaturwissenschaften. Neben einer Bestandsaufnahme und der Präsentation von Beispielanwendungen zielt die Vorlesung auf die Reflexion der mit der Digitalisierung einhergehenden Veränderungen des geisteswissenschaftlichen Forschungs- und Arbeitsprozesses. Es soll jeweils nach dem methodologischen und konzeptionellen Zugewinn gefragt werden, den das neue Methodenparadigma der Digital Humanities birgt oder bergen könnte.
Sitzungen, die in einzelne Grundlagenbereiche der Digital Humanities einführen, wechseln sich mit Berichten aus aktuellen Forschungsprojekten ab.
Die Vorlesung richtet sich an alle, die ein Interesse an digitalen Verfahren in textbezogenen Geisteswissenschaften haben. Auch wenn der Schwerpunkt der vorgestellten Projekte in den Sprach- und Literaturwissenschaften liegt, können die Methoden grundsätzlich interdisziplinär angewendet werden. Es werden keine Vorkenntnisse der digitalen Methoden vorausgesetzt.
Institutions
Prof. Dr. Julia Nantke, Institut für Germanistik, Universität Hamburg
Ringvorlesung: Digital Humanities-Vorlesung
Die Digitalisierung hat mittlerweile auch in den Geisteswissenschaften Einzug gehalten – sowohl in der Forschung als auch in den außeruniversitären Berufsfeldern. Jenseits der Nutzung des Computers zum Schreiben von Texten und zum Surfen im Internet hat sich im Rahmen der so genannten Digital Humanities ein breites Spektrum an Methoden entwickelt, die das traditionelle Handwerkszeug der Geisteswissenschaften mit neuen Möglichkeiten ergänzen.
Die Vorlesung bietet einen einführenden Überblick über die digitalen Technologien und Verfahren, die heute zum Einsatz kommen, um Texte zu analysieren, auf digitalen Plattformen zu präsentieren und für die Nachwelt zu archivieren. Ein Schwerpunkt liegt dabei auf den Verfahren und Werkzeugen der Sprach- und Literaturwissenschaften. Neben einer Bestandsaufnahme und der Präsentation von Beispielanwendungen zielt die Vorlesung auf die Reflexion der mit der Digitalisierung einhergehenden Veränderungen des geisteswissenschaftlichen Forschungs- und Arbeitsprozesses. Es soll jeweils nach dem methodologischen und konzeptionellen Zugewinn gefragt werden, den das neue Methodenparadigma der Digital Humanities birgt oder bergen könnte.
Sitzungen, die in einzelne Grundlagenbereiche der Digital Humanities einführen, wechseln sich mit Berichten aus aktuellen Forschungsprojekten ab.
Die Vorlesung richtet sich an alle, die ein Interesse an digitalen Verfahren in textbezogenen Geisteswissenschaften haben. Auch wenn der Schwerpunkt der vorgestellten Projekte in den Sprach- und Literaturwissenschaften liegt, können die Methoden grundsätzlich interdisziplinär angewendet werden. Es werden keine Vorkenntnisse der digitalen Methoden vorausgesetzt.
Institutions
Prof. Dr. Fotis Jannidis & Leonard Konle, Institut für Deutsche Philologie, Universität Würzburg / Merten Kröncke & Prof. Dr. Simone Winko, Seminar für Deutsche Philologie, Universität Göttingen
Ringvorlesung: Digital Humanities-Vorlesung
Die Digitalisierung hat mittlerweile auch in den Geisteswissenschaften Einzug gehalten – sowohl in der Forschung als auch in den außeruniversitären Berufsfeldern. Jenseits der Nutzung des Computers zum Schreiben von Texten und zum Surfen im Internet hat sich im Rahmen der so genannten Digital Humanities ein breites Spektrum an Methoden entwickelt, die das traditionelle Handwerkszeug der Geisteswissenschaften mit neuen Möglichkeiten ergänzen.
Die Vorlesung bietet einen einführenden Überblick über die digitalen Technologien und Verfahren, die heute zum Einsatz kommen, um Texte zu analysieren, auf digitalen Plattformen zu präsentieren und für die Nachwelt zu archivieren. Ein Schwerpunkt liegt dabei auf den Verfahren und Werkzeugen der Sprach- und Literaturwissenschaften. Neben einer Bestandsaufnahme und der Präsentation von Beispielanwendungen zielt die Vorlesung auf die Reflexion der mit der Digitalisierung einhergehenden Veränderungen des geisteswissenschaftlichen Forschungs- und Arbeitsprozesses. Es soll jeweils nach dem methodologischen und konzeptionellen Zugewinn gefragt werden, den das neue Methodenparadigma der Digital Humanities birgt oder bergen könnte.
Sitzungen, die in einzelne Grundlagenbereiche der Digital Humanities einführen, wechseln sich mit Berichten aus aktuellen Forschungsprojekten ab.
Die Vorlesung richtet sich an alle, die ein Interesse an digitalen Verfahren in textbezogenen Geisteswissenschaften haben. Auch wenn der Schwerpunkt der vorgestellten Projekte in den Sprach- und Literaturwissenschaften liegt, können die Methoden grundsätzlich interdisziplinär angewendet werden. Es werden keine Vorkenntnisse der digitalen Methoden vorausgesetzt.
Institutions
ClipDrop ermöglicht es, mithilfe von künstlicher Intelligenz (KI) Bilder generieren zu lassen und diese zu bearbeiten. Es gibt die Möglichkeit, Gegenstände, Personen, Texte oder Unvollkommenheiten aus Bildern zu entfernen, den Hintergrund zu verändern, die Belichtung anzupassen, die Auflösung zu verbessern und noch viele weitere Funktionen, die wir uns in der 30-minütigen Schulung anschauen werden.
Für die Teilnahme an dieser Schulung werden keine Vorkenntnisse vorausgesetzt.
Anmeldung hier
Als virtuellen Lernort werden wir ZOOM nutzen. Der ZOOM-Link wird einen Tag vor Schulungsbeginn bis 13:00 Uhr versendet.
Institution
Unit for the integration of digital humanities activities and services into the SUB portfolio
Universität Hamburg
Adeline Scharfenberg
Universität Hamburg
Adeline Scharfenberg
Universität Hamburg
Adeline Scharfenberg