Um in einen lebhaften Austausch mit Interessierten zu treten und die Diskussion rund um das Thema Daten- und Digitalkompetenzen an der Universität Hamburg anzuregen, hat das Projekt DDLitLab die Lecture Series ins Leben gerufen. In den Vorträgen mit anschließender Diskussion beleuchten die Referent:innen Ihre Perspektiven auf die Vermittlung von grundlegenden Datenkompetenzen in Schule und Hochschule. Die Veranstaltung richtet sich sowohl an Mitglieder der UHH als auch externe Gäste.
Zum Vortrag
Referent: Prof. Dr. Chris Biemann, Wissenschaftlicher Direktor HCDS und Professor für Sprachtechnologie am Fachbereich Informatik, UHH
In diesem Vortrag tasten wir uns an die Funktionsweise von Sprachmodellen heran. Wie ging die Entwicklung von einfacher Statistik bis hin zu (künstlich) intelligenten Dialogsystemen? Welche Mechanismen, welche technischen Voraussetzungen und welcher menschlicher Input ist nötig zum Erreichen der momentan verfügbaren Sprachkompetenz auf hohem Niveau? Was machen diese Modelle noch falsch, und was sind die vorhersehbaren Entwicklungen der nächste Jahre?
Melden Sie sich hier an: https://www.isa.uni-hamburg.de/ddlitlab/veranstaltungen/lecture-series-sose-2023.html
Kontakt: Carolin Scharfenberg / Tel: +49 40 42838-8889
Over the past two decades, I have developed AI tools to support decision-making in biodiversity conservation. Methods such as Markov Decision Processes (MDPs), Partially Observable MDPs (POMDPs), and adaptive management help us plan under uncertainty, incorporate feedback, and learn from dynamic ecological systems. These techniques have supported efforts from invasive species management to threatened species recovery, helping balance short-term actions with long-term outcomes.
Yet some of the most important insights lie beyond the algorithms themselves. Reversing the biodiversity extinction crisis requires more than technical capability: it demands co-design with ecologists, social scientists, landholders, and policymakers. It calls for a shift from what can we build? to what does biodiversity actually need?
This is the mission of the Environmental Informatics Hub at Monash, a new initiative I lead within the Faculty of IT: to develop AI that supports the future of biodiversity, not just the future of technology. But isolated efforts won’t be enough. If we are serious about halting biodiversity loss, we need a globally coordinated approach, a clear framework, much like the Global Biodiversity Framework (GBF), that defines the AI capabilities required to meet conservation targets.
Learning Objectives:
Institutions
Das Professor:innen-Forum des Hamburger Zentrums für Universitäres Lehren und Lernen (HUL) ergänzt als interaktives Angebot den Podcast zur Wissenschaftsdidaktik, der Professor:innen mit der Hochschuldidaktik ins Gespräch bringt (ProfCast). Am HUL ist es das einzige Angebot, das sich gezielt an die Gruppe der Professor:innen an der Universität Hamburg richtet und einmal im Semester zum gegenseitigen Austausch einlädt.
Themenschwerpunkt am 8.1.2026: Künstliche Intelligenz stellt die Hochschulbildung vor große Herausforderungen, die kontrovers diskutiert werden – abhängig von der jeweils eingenommenen Perspektive. In ihrem Impulsvortrag nimmt Gabi Reinmann eine didaktische Perspektive ein. Konkret macht sie ein „Sprachangebot“ und stellt einige Kategorien vor, von denen sie denkt, dass sie uns helfen, die aktuellen Fragen und Herausforderungen didaktisch zu betrachten. Dazu ist zunächst zu klären, was es heißt, einen didaktischen Blick einzunehmen. Sie wird hierzu unter anderem auf traditionelle Konzepte wie das didaktische Dreieck zurückgreifen, denn damit lässt sich gut analysieren, was KI derzeit und künftig mit dem Verhältnis zwischen Lehrenden, Studierenden und der Wissenschaft als Gegenstand von Hochschulbildung macht bzw. machen kann. Der Vortrag liefert keine „Instant Lösungen“, aber ein Denkwerkzeug, das dabei helfen kann, didaktische Entscheidungen in Zeiten von KI zu treffen.
Dies aufgreifend bietet das Forum in der zweiten Hälfte Raum für eine gemeinsame Diskussion mit der Möglichkeit, eigene Erfahrungen mit KI in der Hochschulbildung auszutauschen.
Anmeldung: Das Forum ist Teil des Professor:innen-Angebots am HUL. Um eine kurze Anmeldung per E-Mail an gabi.reinmann@uni-hamburg.de wird gebeten. Mit der Rückantwort wird der ZOOM-Link versendet.
Institutions
Ein besonders digitaler Abend zur Digitalisierung mit einem Science Slam von Hamburger Informatik-Expert*innen und DJ’s für die Nacht
7. Dezember ab 19 Uhr im Fundbureau.
Künstliche Intelligenz beherrscht die Schlagzeilen und eine ganze Generation wächst auf mit generativer KI. Umwälzen soll sie, was wir für normal halten, rationalisiert Jobs und Arbeit weg, macht Menschen überflüssig. Aber es ist Weihnachten – und man kann die Geschichte auch anders erzählen. Generative KI kann Bilder generieren, die uns ansprechen, Texte schreiben, die sensibler und vielfältiger sind als die von andere Autor:innen und vielleicht kann sie auch bessere Weihnachtsgeschenke auswählen. Wir können anders spenden und vielleicht verstehen wir in einem besseren Leben auch die Mathematik hinter der ganzen Magie.
Institutions
Creative Space for Technical Innovations, HAW Hamburg
The two-day event "Digital Total" is organized and conducted by the House of Computing & Data Science (HCDS) of the Universität Hamburg, in collaboration with partners from the scientific platform PIER PLUS and the Academy of Sciences and Humanities in Hamburg.
Day 1 - Computing & Data Science in the Metropolitan Region
The goal of the first day, which is co-organized by CDCS, is to showcase and consolidate the topics of Data Science / AI / Computation, which are strongly represented in the Hamburg Metropolitan Region. A key focus will be the discussion on a common PIER PLUS initiative called "PIER Computing and Data Science." Additionally, the Academy of Sciences and Humanities in Hamburg will host an interdisciplinary forum for exchanging ideas about the future of digital transformation in the metropolitan region and potential synergies among cross-institutional initiatives. The first day will be concluded with a social event in the evening.
Day 2 - Computing & Data Science at the Universität Hamburg
The second day will focus on Data Science / AI / Computation at the Universität Hamburg. It will also serve as the kickoff for introducing the Cross-Disciplinary Labs (CDLs) located within HCDS.
Alongside the presentations in Audimax 1 & 2, the foyer will feature posters showcasing various projects throughout the event, presented during two poster sessions on Day 1 and 2.
A detailed program and registration for Digital Total can be found here
Mit dem schlagartigen Aufkommen von KI-Generatoren für unterschiedlichste Medienformen seit Ende 2022 stehen Hochschulen hinsichtlich ihrer Lehre und ihrer digitalen Prüfungsumsetzung enormen Möglichkeiten aber auch Herausforderungen gegenüber. Neben Fragen des Urheberrechts und des Datenschutzes ist insbesondere der Bereich des Prüfungsrechts von diesen Entwicklungen betroffen und es bedarf geeigneter Maßnahmen für einen konstruktiven Umgang mit dieser technologischen Revolution.
Dabei stellt sich vor allem auch die Frage: Können per KI-Generator erstellte Texte und Medieninhalte überhaupt als künstlich generierte Inhalte erkannt und detektiert werden? Und wenn ja, wie verlässlich sind die Ergebnisse von KI-Detektoren und wie lassen sich diese im Prüfungsrecht berücksichtigen? Auch ergibt sich bei solch rasanten Technologieentwicklungen immer die Notwendigkeit einer staatlichen Regulierung, wie sie im Zuge des EU AI-Act beabsichtigt wird. Welche Implikationen bringt diese Regulierung allgemein und speziell für den Hochschulbereich mit sich?
Diesen und weiteren Fragen wollen wir uns im Rahmen dieses Workshops annähern und anschließend gemeinsam mit allen Teilnehmenden vertiefend darüber diskutieren.
Schwerpunkte sind:
Anmeldung hier
Als virtuellen Lernort werden wir ZOOM nutzen. Der ZOOM-Link wird einen Tag vor Schulungsbeginn bis 13:00 Uhr versendet.
Institution
Mit dem schlagartigen Aufkommen von KI-Generatoren für unterschiedlichste Medienformen seit Ende 2022 stehen Hochschulen hinsichtlich ihrer Lehre und ihrer digitalen Prüfungsumsetzung enormen Möglichkeiten aber auch Herausforderungen gegenüber. Neben Fragen des Urheberrechts und des Datenschutzes ist insbesondere der Bereich des Prüfungsrechts von diesen Entwicklungen betroffen und es bedarf geeigneter Maßnahmen für einen konstruktiven Umgang mit dieser technologischen Revolution.
Dabei stellt sich vor allem auch die Frage: Können per KI-Generator erstellte Texte und Medieninhalte überhaupt als künstlich generierte Inhalte erkannt und detektiert werden? Und wenn ja, wie verlässlich sind die Ergebnisse von KI-Detektoren und wie lassen sich diese im Prüfungsrecht berücksichtigen? Auch ergibt sich bei solch rasanten Technologieentwicklungen immer die Notwendigkeit einer staatlichen Regulierung, wie sie im Zuge des EU AI-Act beabsichtigt wird. Welche Implikationen bringt diese Regulierung allgemein und speziell für den Hochschulbereich mit sich?
Diesen und weiteren Fragen wollen wir uns im Rahmen dieses Workshops annähern und anschließend gemeinsam mit allen Teilnehmenden vertiefend darüber diskutieren.
Schwerpunkte sind:
Institutions
Mit dem schlagartigen Aufkommen von KI-Generatoren für unterschiedlichste Medienformen seit Ende 2022 stehen Hochschulen hinsichtlich ihrer Lehre und ihrer digitalen Prüfungsumsetzung enormen Möglichkeiten aber auch Herausforderungen gegenüber. Neben Fragen des Urheberrechts und des Datenschutzes ist insbesondere der Bereich des Prüfungsrechts von diesen Entwicklungen betroffen und es bedarf geeigneter Maßnahmen für einen konstruktiven Umgang mit dieser technologischen Revolution.
Dabei stellt sich vor allem auch die Frage: Können per KI-Generator erstellte Texte und Medieninhalte überhaupt als künstlich generierte Inhalte erkannt und detektiert werden? Und wenn ja, wie verlässlich sind die Ergebnisse von KI-Detektoren und wie lassen sich diese im Prüfungsrecht berücksichtigen? Auch ergibt sich bei solch rasanten Technologieentwicklungen immer die Notwendigkeit einer staatlichen Regulierung, wie sie im Zuge des EU AI-Act beabsichtigt wird. Welche Implikationen bringt diese Regulierung allgemein und speziell für den Hochschulbereich mit sich?
Diesen und weiteren Fragen wollen wir uns im Rahmen dieses Workshops annähern und anschließend gemeinsam mit allen Teilnehmenden vertiefend darüber diskutieren.
Schwerpunkte sind:
Anmeldung hier
Als virtuellen Lernort werden wir ZOOM nutzen. Der ZOOM-Link wird einen Tag vor Schulungsbeginn bis 13:00 Uhr versendet.
Institutions
AI models can make powerful predictions, from diagnosing diseases to forecasting climate extremes, but understanding why they make those predictions remains one of the biggest challenges in deploying them responsibly.
In this talk, the speaker explores what it really means for an AI system to “know” something. Using a synthetic benchmark dataset inspired by climate prediction tasks, where the true drivers of the target variable are known, the assessment focuses on explainable AI (XAI) tools and their ability to recover these drivers under varying levels of noise and data availability – conditions that mirror many real-world scientific and societal applications. Two clear insights emerge: first, explanations become reliable only when models truly learn signal rather than noise; and second, agreement among different explanation methods or models can serve as a practical indicator of whether an AI system has learned something meaningful or is still operating in a state of “epistemic ignorance”.
These findings offer guidance for building AI systems that are not only powerful but also aware of their own limits, a key step toward AI that supports science and society with confidence and transparency.
Session Objectives
By the end of this session, participants will be able to:
Institutions
Recent advances in machine learning have revolutionized dynamical modeling, yet AI weather and climate models often suffer from instability and unphysical drift when integrated over long timescales. This talk unifies three complementary works addressing this challenge. First, we present a theoretical eigenanalysis of neural autoregressive models that establishes a semi-empirical framework linking inference-time stability to the spectrum of the model’s Jacobian. This analysis reveals how integration-constrained architectures suppress unstable eigenmodes and enable predictable error growth. Building on this foundation, we identify spectral bias—a universal tendency of deep networks to under-represent high-wavenumber dynamics—as the root cause of instability in AI weather models. We demonstrate how higher-order integration schemes and spectral regularization, implemented in the FouRKS framework, mitigate this bias and produce century-scale stable emulations of turbulent flows. Finally, we translate these theoretical insights into practice with LUCIE-3D, a data-driven climate emulator trained on reanalysis data that captures forced responses to CO₂, reproduces stratospheric cooling and surface warming, and remains computationally efficient. Together, these results chart a rigorous pathway from mathematical theory to physically consistent AI climate models capable of stable, interpretable, and trustworthy long-term Earth-system emulation.
Institutions
Friedensbildung stärkt die Wahrnehmung und vermittelt Fähigkeiten zum konstruktiven Umgang mit Konflikten. Konflikte entstehen immer wieder neu. In dieser Vorlesung werden einige Konfliktfelder und Konfliktdynamiken vorgestellt und es werden Ansätze zu ihrem Verständnis und zu ihrer konstruktiven Bearbeitung vermittelt.
Das Thema wird hier in einem doppelten Sinn verstanden: Zum einen wird Bildung als "Arbeit an der Kultivierung der Gesellschaft und der eigenen Biografie" verstanden (Martin Kahl), zum anderen bedeutet Friedensbildung auch die theoriegeleitete Praxis der friedlichen Klärung und nachhaltigen Lösung von politischen und sozialen Konflikten.
Mitglieder des Initiativkreises Friedensbildung und Gäste bieten einen Einstieg in das Themengebiet. Für Studierende der Universität besteht die Möglichkeit, im Rahmen einer Klausur Leistungspunkte für den Wahlbereich Friedensbildung zu erwerben.
Institutions
Dr. Susanne Draheim, Department Informatik, HAW Hamburg / Prof. Dr. Gertraud Koch, Institut für Volkskunde/Kulturanthropologie, Universität Hamburg / Prof. Dr. Kai von Luck, Department Informatik, HAW Hamburg
Öffentliche Vorträge im Allgemeinen Vorlesungswesen Ringvorlesung: Künstliche Intelligenz zwischen Handlungsmacht und gesellschaftlichen Gestaltungsbedarfen
Informatik und Sozial-/Kulturwissenschaft im Gespräch
Darstellungen der KI in den Medien aber auch in der Politik und Wissenschaftsförderung oszillieren zwischen Schrecken, Verheißung und Notwendigkeit, vielfach ohne dass ein hinreichendes informatisches Grundverständnis besteht und informierte Entscheidungen oder Umgangsweisen mit KI-Technologien ermöglicht. Neuere Projekte zwischen Forschung und Wissenschaftskommunikation, wie etwa das "KI-Observatorium", setzen deswegen auf Wissensvermittlung und -austausch.
Das Kolloquium folgt einem ähnlichen Anliegen, das Wissen über KI-Technologien zu erweitern und dabei ein besseres Verständnis davon zu entwickeln, wie sich Handlungsmacht und -möglichkeiten durch die KI neu gestalten. Indem es interdisziplinäre Gespräche zwischen Kulturwissenschaftler*innen und Informatiker*innen initiiert, werden in kurzen Vorträgen historische und theoretische Grundlagen, sowie ausgewählte Anwendungsbereiche der Künstlichen Intelligenz vorgestellt und diskutiert. Anhand von Praxisbeispielen von KI in Anwendung und Entwicklung werden KI Technologie verständlich und für die Analyse greifbar. Das hauptsächliche Ziel des Kolloquiums besteht in beiden Disziplinen darin, die jeweils andersartige Herangehensweise kennen und verstehen zu lernen.
Institutions
Stable mobile communication requires understanding radio propagation at specific areas, especially when using high-frequency bands like millimeter waves, which are highly affected by environmental factors such as buildings. Direct measurement of propagation characteristics across areas and frequencies is impractical due to cost and effort. To address this, AI/ML-based methods can estimate area-wide propagation using limited measurement data and environmental information like building layouts. Effective application of this approach involves not only building AI/ML models but also selecting the most relevant data to improve estimation accuracy. This challenge invites participants to explore AI/ML model and data selection methods using provided propagation loss data and 3D maps.
In this webinar, the top three teams from those who participated in the challenge will present their proposed approaches. Various strategies have been suggested to solve problems in the challenge, and we believe that participants will gain new insights into the application of AI/ML for radio wave propagation estimation. Additionally, KDDI Research has allocated a prize of 3,000 CHF for the challenge. Along with an explanation of the evaluation results, the prize amounts will also be announced during the session. Please note that the technical evaluation results for the submitted teams are available under the “Results” tab at the following URL: https://challenge.aiforgood.itu.int/match/matchitem/112.
Institutions
All dates for Event Series "Physics ❤ AI" for the upcoming semester are always at 10:30-12:00 in CFEL SR1.
The detailed agenda is password protected. If you are interested in the agenda, please email the organizers (gregor.kasieczka@uni-hamburg.de / janis.kummer@uni-hamburg.de).
Or just come, it is of course allowed!
All dates for Event Series "Physics ❤ AI" for the upcoming semester are always at 10:30-12:00 in CFEL SR1.
The detailed agenda is password protected. If you are interested in the agenda, please email the organizers (gregor.kasieczka@uni-hamburg.de / janis.kummer@uni-hamburg.de).
Or just come, it is of course allowed!
All dates for Event Series "Physics ❤ AI" for the upcoming semester are always at 10:30-12:00 in CFEL SR1.
The detailed agenda is password protected. If you are interested in the agenda, please email the organizers (gregor.kasieczka@uni-hamburg.de / janis.kummer@uni-hamburg.de).
Or just come, it is of course allowed!
All dates for Event Series "Physics ❤ AI" for the upcoming semester are always at 10:30-12:00 in CFEL SR1.
The detailed agenda is password protected. If you are interested in the agenda, please email the organizers (gregor.kasieczka@uni-hamburg.de / janis.kummer@uni-hamburg.de).
Or just come, it is of course allowed!
Die Veranstaltung „Chatbot und KI‑Agent: (k)ein Freund und Helfer?“ beleuchtet die Chancen und Risiken für Verbraucherinnen und Verbraucher bei der Nutzung von künstlicher Intelligenz. Wie kann künstliche Intelligenz verbraucherfreundlich gestaltet werden? Müssen verbraucherrechtliche Schutzinstrumente wie Informationspflichten oder Verbote von Dark Patterns angepasst werden? Ist das bestehende Verbrauchervertragsrecht auf den Einsatz von „KI-Agenten“ anwendbar?
Das Ministerium für Landwirtschaft und Verbraucherschutz des Landes Nordrhein-Westfalen lädt Sie ein, am 12. März 2026 in der Jugendherberge Düsseldorf unter Teilnahme von Frau Ministerin Silke Gorißen diese und weitere Fragen zu diskutieren. Neben Gästen aus dem Verbraucherschutz, Wissenschaft und der Wirtschaft werden Herr Staatssekretär Dr. Martin Berges und Herr Wolfgang Schuldzinski, Vorstand der Verbraucherzentrale NRW, teilnehmen. Moderiert wird die Veranstaltung von Prof. Dr. Christian Thorun (ConPolicy). Das Programm wird in den kommenden Wochen hier veröffentlicht. Sie können sich bereits jetzt für die Veranstaltung anmelden.
Institutions
Western societies are marked by diverse and extensive biases and inequality that are unavoidably embedded in the data used to train machine learning. Algorithms trained on biased data will, without intervention, produce biased outcomes and increase the inequality experienced by historically disadvantaged groups.
To tackle this issue the EU commission recently published the Artificial Intelligence Act – the world’s first comprehensive framework to regulate AI. The new proposal has several provisions that require bias testing and monitoring. But is Europe ready for this task?
In this session I will examine several EU legal frameworks including data protection as well as non-discrimination law and demonstrate how despite best attempts they fail to protect us against the novel risks posed by AI. I will also explain how current technical fixes such as bias tests - which are often developed in the US - are not only insufficient to protect marginalised groups but also clash with the legal requirements in Europe.
I will then introduce some of the solutions I have developed to test for bias, explain black box decisions and to protect privacy that were implemented by tech companies such as Google, Amazon, Vodaphone and IBM and fed into public policy recommendations and legal frameworks around the world.
Prof. Dr. Sandra Wachter (Oxford Internet Institute, University of Oxford, GB)
Sandra Wachter is Professor of Technology and Regulation at the Oxford Internet Institute at the University of Oxford where she researches the legal and ethical implications of AI, Big Data, and robotics as well as Internet and platform regulation. Her current research focuses on profiling, inferential analytics, explainable AI, algorithmic bias, diversity, and fairness, as well as governmental surveillance, predictive policing, human rights online, and health tech and medical law.
At the OII, Professor Sandra Wachter leads and coordinates the Governance of Emerging Technologies (GET) Research Programme that investigates legal, ethical, and technical aspects of AI, machine learning, and other emerging technologies. [more]
Institutions
This talk presents the Large Wireless Model (LWM), the world’s first foundation model for wireless channels. Inspired by the success of foundation models in NLP, speech, and vision, LWM is a transformer-based model pre-trained in a self-supervised fashion on large-scale diverse wireless datasets. It learns rich, universal contextualized channel embeddings (features) that potentially enhance performance across a wide range of downstream tasks. I will present the model’s architecture, its self-supervised pre-training approach, and training datasets. I will also demonstrate its gains in tasks like sub-6GHz to mmWave beam prediction, LoS/NLoS classification, and localization. These gains highlight the LWM’s ability to learn from large-scale wireless data and enable complex machine learning tasks with limited data in wireless communication and sensing systems.
Finally, we introduce an ITU AI/ML 5G competition which provides a modular setup, where participants can innovate on scenario design, feature extraction, and lightweight downstream models, pushing the frontiers of robustness, generalizability, and interpretability. By contributing improved scores and model refinements, the challenge also opens doors for discussion on formats, reproducible simulations, and alignment with 6G use cases. The outcomes are expected to influence real-world deployments, research reproducibility, and standard frameworks for wireless AI.
Learning Objectives:
Institutions
Universität Hamburg
Adeline Scharfenberg
Universität Hamburg
Adeline Scharfenberg
Universität Hamburg
Adeline Scharfenberg