In diesem Workshop erfährst du, wie du generative KI als wertvolles Tool in deinen Gründungsprozess integrierst. Wir zeigen dir anhand von praktischen Beispielen (bspw. Customer Journey Mapping, Rapid Prototyping) wie du KI gezielt nutzen kannst. Dabei wirst du nicht nur die Vorteile entdecken, sondern Chancen und Risiken kennenlernen. So erhältst du das Wissen, KI effektiv und verantwortungsvoll in deinem Startup einzusetzen.
Lass uns gemeinsam herausfinden, wie KI deine (Impact) Ideen auf das nächste Level bringen kann!
Voraussetzung für den Workshop: Du benötigst einen eigenen ChatGPT-Zugang. Veranstaltungssprache ist Deutsch.
Institutions
The impact of artificial intelligence on society is so profound that it can be considered to be disruptive. AI does not only have radical consequences for society - as is expressed by the concept of ‘the Fourth Revolution’ and ‘Society 5.0’ that is emerging from that - but also for ethics itself. Technologies have become ethically disruptive, in the sense that they challenge and affect the very concepts with which we can do ethics in the first place. What do’ agency’, ‘responsibility’ and ‘empathy’ mean when artificial agents are entering society? What does ‘democratic representation’ mean when AI systems interfere with the very idea of representation itself? What can the notion of ‘the humane’ still mean when AI systems become an intrinsic part of human actions and decision-making? This talk will explore phenomenon of ethical disruption in detail, by investigating the various ways in which technologies – and not only human beings – can be ethically significant. Breaking the human monopoly on ethics and expanding it towards technology will make it possible to connect ethics more directly to practices of design. The resulting ‘Guidance Ethics Approach’ enables bottom-up ethical reflection that can foster the responsible design, implementation and use of new and emerging technologies.
Prof. Dr. Peter-Paul Verbeek (Universiteit van Amsterdam, NL)
Peter-Paul Verbeek (1970) is Rector Magnificus and professor of Philosophy and Ethics of Science and Technology at the University of Amsterdam. His research and teaching focus on the relationship between humans and technology, viewed from an ethical perspective and in close relation to design. He is chair of the UNESCO World Commission for the Ethics of Science and Technology (COMEST), editor-in-chief of the Journal of Human-Technology Relations, and editor of the Lexington book series in Postphenomenology and the Philosophy of Technology. More information: www.ppverbeek.nl
Institutions
Bei dieser Veranstaltung stellen Studierende, die sich auf die Förderung als studentische Forschungsgruppen beworben haben, ihre datengetriebenen Projekte in kurzen Pitches vor. Der Themenschwerpunkt dieser vierten und letzten Runde ist (generative) künstliche Intelligenz. Im Anschluss an die Pitches werden von einer Jury vor Ort die finalen Förderentscheidungen mitgeteilt, bei denen die Gruppen bis zu 10.000 EUR pro Projekt erhalten können. Nach dem Hauptprogramm um 19:00 Uhr laden wir alle Teilnehmenden zu einem gemütlichen Get-Together mit Snacks und Getränken ein.
Seien Sie dabei, um inspirierende Ideen zu entdecken und neue Kontakte zu knüpfen. Wir freuen uns auf Ihre Teilnahme! Melden Sie sich gerne direkt auf dieser Seite an.
InstitutionsAs we had a very positive echo of the Summer School 2023 “Data Science for Explainable and Trustworthy AI”, another one will be organised in 2024 on the topic of “Generative AI”.
The rise of Generative AI, especially with the advancements in Large Language Models (LLMs), marks a transformative era in artificial intelligence that is expanding across all disciplines. LLMs aim to bridge the communication gap between machines and humans, paving the way for models that can grasp the nuances of human language and generate outputs in various formats that mimic human cognition and creativity.
The critical moment for Generative AI came with the adoption of neural networks, particularly transformer-based architectures, which have become its backbone. These models stand out for their profound ability to digest and learn from extensive corpora and datasets, and also to generate original, contextually rich content. But we are just at the beginning. The emerging models present challenges related to ethics, reliability, the way we experiment with these models, the scope of their inferences, their applications to more specific domains, etc. All this has created a vibrant field of work and opens the doors to a community that we hope will find the right forum in this Summer School.
Institutions
The workshop of the special interest group Virtual Reality and Augmented Reality (VR/AR) of the Gesellschaft für Informatik e. V. (GI) is a platform for the exchange of information and ideas. Interested parties from science and practice meet once a year to discuss current results and projects from research and development with an expert audience.
Virtual Social Interaction by Sylvia Xueni Pan
From Virtual Reality to Perception Engineering by Steven M. LaValle
Institution
Generative KI durchdringt die Arbeitswelt in rasantem Tempo und verändert Arbeitsweisen und Jobprofile. Unser Ziel ist es, Hamburg fit für die Nutzung von Generativer KI zu machen.
Zusammen mit vielen Hamburger Partnern haben wir daher die Initiative HHAI-Score ins Leben gerufen. Wir möchten möglichst vielen Menschen in Hamburg die Zukunftskompetenz der produktiven und reflektierten Anwendung Generativer KI vermitteln. Unternehmen und Organisationen können sich untereinander vernetzen und erhalten Orientierung und Organisationshilfe sowie einen strukturierten Überblick über Anwendungsmöglichkeiten und Fallstricke. Multiplikatoren und Partner erzeugen dabei die notwendige Reichweite und Effektivität der Qualifizierung.
Dieses Event richtet sich an KI-Einsteiger ebenso wie an Experten. Wir bieten eine Einführung und vertiefende Workshops. Sie haben die Option, die Möglichkeiten generativer KI in Kleingruppen unter Anleitung ganz praktisch auszuprobieren (Prompt-a-thon) oder sich mit erfahrenen Experten über die Umsetzungsstrategien im Unternehmen und bereits gewonnene Erfahrungen auszutauschen und zu vernetzen (Experts Lounge).
Institution
Die Veranstaltungsreihe beschäftigt sich in diesem Herbst unter dem Titel KI und Wir mit den rasanten und grundlegenden Veränderungen unserer Gesellschaft durch künstliche Intelligenz.
Vom 9. Oktober bis zum 14. November diskutieren Expert:innen aus Wissenschaft, Politik und Praxis mit dem Hamburger Publikum über das Potenzial von ChatGPT und Co. Wie können die neuen Technologien Medizin und Klimaschutz voranbringen oder auch in der Kunst genutzt werden? Wo kann KI beim Lernen in Schule, Hochschule und darüber hinaus unterstützen? Welche Regulierungen oder Transparenzvorschriften brauchen wir dabei? Um diese und andere Fragen geht es in vielfältigen Formaten von Podiumsdiskussionen über Ausstellungen bis hin zu interaktiven Workshops, die zum
Mitdiskutieren, Dazulernen und Ausprobieren einladen. Die Veranstaltungen finden u.a. an der Uni Hamburg statt. Viele UHH-Mitglieder tragen aktiv zum Programm bei.
Institutions
Wie funktioniert Künstliche Intelligenz, wie kann man sie nutzen und welche Probleme kann es geben? Um diese Fragen und mehr geht es bei der Transferveranstaltung "KI zum Anfassen – (wie) geht das?" von Prof. Dr. Heike Zinsmeister, Prof. Dr. Julia Nantke und Prof. Dr. Ralf Möller im Jupiter Kreativkaufhaus in der Mönckebergstraße.
Ein selbstgebauter Chatbot, Shake Hands mit Roboter Pepper oder ein Avatar, der Wahlwerbung macht – alle sind eingeladen, an zahlreichen Stationen KI-Tools selbst zu testen und mit Forscher:innen der Fakultät über die Hintergründe ins Gespräch zu kommen:
Wer kennt sich schon mit den Grundlagen aus? Wir laden zu einem Quiz ein: Was ist ein Sprachmodell? Warum werden in den Großen Sprachmodellen („LLMs“) Wörter als Zahlen, genauer als Vektoren im Raum dargestellt? Was ist daran innovativ? Wie kommt es, dass diese Sprachmodelle alle unsere Vorurteile und Stereotypen mitlernen – und was kann man dagegen tun?
Der Eintritt ist frei!
Institutions
With the launch of ChatGPT last year and the ensuing debate about the benefits and potential risks of generative AI, also the work on the European AI Act shifted into a higher gear. The European Council and Parliament, working on their respective compromise texts, had to find ways to accommodate this new phenomenon. The attempts to adapt the AI Act went hand in hand with a lively public debate on what was so new and different about generative AI, whether it raised new, not yet anticipated risks, and how to best address a technology whose societal implications are not yet well understood. Most importantly, was the AI Act outdated even before is adopted? In my presentation I would like to discuss the different approaches that the Council and Parliament adopted to governing Generative AI, the most salient points of discussion and the different approaches proposed to solve some of the key ethical and societal concerns around the rise of generative AI.
Prof. Dr. Natali Helberger (Universiteit van Amsterdam, NL)
Natali Helberger is Distinguished University Professor of Law and Digital Technology, with a special focus on AI, at the University of Amsterdam and a member of the Institute for Information Law (IViR). Her research on AI and automated decision systems focuses on its impact on society and governance. Helberger co-founded the Research Priority Area Information, Communication, and the Data Society, which has played a leading role in shaping the international discussion on digital communication and platform governance. She is a founding member of the Human(e) AI research program and leads the Digital Transformation Initiative at the Faculty of Law. Since 2021, Helberger has also been director of the AI, Media & Democracy Lab, and since 2022, scientific director of the Algosoc (Public Values in the Algorithmic Society) Gravitation Consortium. A major focus of the Algosoc program is to mentor and train the next generation of interdisciplinary researchers. She is a member of several national and international research groups and committees, including the Council of Europe's Expert Group on AI and Freedom of Expression.
Institutions
Prof. Dr. Ibo van de Poel, Delft University of Technology, NL
Value alignment is important to ensure that AI systems remain aligned with human intentions, preferences, and values. It has been suggested that it can best be achieved by building AI systems that can track preferences or values in real-time. In my talk, I argue against this idea of real-time value alignment. First, I show that the value alignment problem is not unique to AI, but applies to any technology, thus opening up alternative strategies for attaining value alignment. Next, I argue that due to uncertainty about appropriate alignment goals, real-time value alignment may lead to harmful optimization and therefore will likely do more harm than good. Instead, it is better to base value alignment on a fallibilist epistemology, which assumes that complete certainty about the proper target of value alignment is and will remain impossible. Three alternative principles for AI value alignment are proposed: 1) adopt a fallibilist epistemology regarding the target of value alignment; 2) focus on preventing serious misalignments rather than aiming for perfect alignment; 3) retain AI systems under human control even if it comes at the cost of full value alignment.
Institutions
Taming the Machines — Horizons of Artificial Intelligence. The Ethics in Information Technology Public Lecture Series
This summer‘s „Taming the Machine“ lecture series sheds light on the ethical, political, legal, and societal dimensions of Artificial Intelligence (AI).Prof. Dr. Louise Amoore, Durham University, Durham, UK
Institutions
Taming the Machines — Horizons of Artificial Intelligence. The Ethics in Information Technology Public Lecture Series
This summer‘s „Taming the Machine“ lecture series sheds light on the ethical, political, legal, and societal dimensions of Artificial Intelligence (AI).Institutions
Prof. Dr. Philipp Hacker, European University Viadrina, Frankfurt (Oder), DE
Current AI regulation in the EU and globally focus on trustworthiness and accountability, as seen in the AI Act and AI Liability instruments. Yet, they overlook a critical aspect: environmental sustainability. This talk addresses this gap by examining the ICT sector's significant environmental impact. AI technologies, particularly generative models like GPT-4, contribute substantially to global greenhouse gas emissions and water consumption.
The talk assesses how existing and proposed regulations, including EU environmental laws and the GDPR, can be adapted to prioritize sustainability. It advocates for a comprehensive approach to sustainable AI regulation, beyond mere transparency mechanisms for disclosing AI systems' environmental footprint, as proposed in the EU AI Act. The regulatory toolkit must include co-regulation, sustainability-by-design principles, data usage restrictions, and consumption limits, potentially integrating AI into the EU Emissions Trading Scheme. This multidimensional strategy offers a blueprint that can be adapted to other high-emission technologies and infrastructures, such as block chain, the meta-verse, or data centers. Arguably, it is crucial for tackling the twin key transformations of our society: digitization and climate change mitigation.
Institutions
Taming the Machines — Horizons of Artificial Intelligence. The Ethics in Information Technology Public Lecture Series
This summer‘s „Taming the Machine“ lecture series sheds light on the ethical, political, legal, and societal dimensions of Artificial Intelligence (AI).Prof. Dr. Mathias Risse, John F. Kennedy School of Government, Harvard University, Cambridge, MA, USA
Institutions
Taming the Machines — Horizons of Artificial Intelligence. The Ethics in Information Technology Public Lecture Series
This summer‘s „Taming the Machine“ lecture series sheds light on the ethical, political, legal, and societal dimensions of Artificial Intelligence (AI).Prof. Dr. Andra Siibak, University of Tartu, Tartu, Estland
Present day children’s futures are decided by algorithms predicting their probability of success at school, their suitability for a job position, their likely recidivism or mental health problems. Advances in predictive analytics, artificial intelligence (AI) systems, behavioral-, and biometrics technologies, have started to be aggressively used for monitoring, aggregating, and analyzing children’s data. Such dataveillance happening both in homes, schools, and peer networks has a profound impact not only on children’s preferences, social relations, life chances, rights and privacy but also the "future of human agency - and ultimately, of society and culture" (Mascheroni & Siibak 2021: 169).
Building upon the findings of my different empirical case studies, I will showcase how the popular digital parenting practices and the growing datafication happening in the education sector, could create not only hypothetical data scares but also lead to real data scars in the lives of the young.
Institutions
Taming the Machines — Horizons of Artificial Intelligence. The Ethics in Information Technology Public Lecture Series
This summer‘s „Taming the Machine“ lecture series sheds light on the ethical, political, legal, and societal dimensions of Artificial Intelligence (AI).Vincent C. Müller is AvH Professor for Philosophy and Ethics of AI and Director of the Centre for Philosophy and AI Research (PAIR) at FAU Erlangen-Nuremberg
It is now frequently observed that there is no proper scope and no proper method in the discipline of AI-ethics. This has become an issue in the development towards maturity of the discipline, e.g. canonical problems, positions, arguments … secure steps forward. We propose a minimal, yet universal view of the field (again Müller 2020). Given this proposal, we will know the scope and the method, and we can appreciate the wide set of contributions.
Institutions
Taming the Machines — Horizons of Artificial Intelligence. The Ethics in Information Technology Public Lecture Series
This summer‘s „Taming the Machine“ lecture series sheds light on the ethical, political, legal, and societal dimensions of Artificial Intelligence (AI).Prof. Dr. Aimee van Wynsberghe, Rheinische Friedrich-Wilhelms-Universität Bonn, D
Institutions
Speaker: Prof. Dr. Elena Esposito, Universität Bielefeld, DE
Institutions
Dr. Melanie Andresen, DeepL, Köln
Die Digitalisierung hat mittlerweile auch in den Geisteswissenschaften Einzug gehalten – sowohl in der Forschung als auch in den außeruniversitären Berufsfeldern. Jenseits der Nutzung des Computers zum Schreiben von Texten und zum Surfen im Internet hat sich im Rahmen der so genannten Digital Humanities ein breites Spektrum an Methoden entwickelt, die das traditionelle Handwerkszeug der Geisteswissenschaften mit neuen Möglichkeiten ergänzen.
Die Vorlesung bietet einen einführenden Überblick über die digitalen Technologien und Verfahren, die heute zum Einsatz kommen, um Texte zu analysieren, auf digitalen Plattformen zu präsentieren und für die Nachwelt zu archivieren. Ein Schwerpunkt liegt dabei auf den Verfahren und Werkzeugen der Sprach- und Literaturwissenschaften. Neben einer Bestandsaufnahme und der Präsentation von Beispielanwendungen zielt die Vorlesung auf die Reflexion der mit der Digitalisierung einhergehenden Veränderungen des geisteswissenschaftlichen Forschungs- und Arbeitsprozesses. Es soll jeweils nach dem methodologischen und konzeptionellen Zugewinn gefragt werden, den das neue Methodenparadigma der Digital Humanities birgt oder bergen könnte.
Sitzungen, die in einzelne Grundlagenbereiche der Digital Humanities einführen, wechseln sich mit Berichten aus aktuellen Forschungsprojekten ab.
Die Vorlesung richtet sich an alle, die ein Interesse an digitalen Verfahren in textbezogenen Geisteswissenschaften haben. Auch wenn der Schwerpunkt der vorgestellten Projekte in den Sprach- und Literaturwissenschaften liegt, können die Methoden grundsätzlich interdisziplinär angewendet werden. Es werden keine Vorkenntnisse der digitalen Methoden vorausgesetzt.
Institutions
Geschlecht konstituiert Wissen und Wissen konstituiert Geschlecht. Die wechselseitige Abhängigkeit und Bedingtheit von Gender und Wissen ist allgegenwärtig – sei es in der Sprache, Literatur, Kunst, den Medien, der Geschichtsschreibung, Politik, im Gesundheitswesen, Bildungsbereich oder der Arbeitswelt. Die Ringvorlesung "Gendering Knowledge" versucht, die Strukturierung und Organisation von Wissen in diesen und anderen Bereichen zu erhellen und kritische Bezüge zu gesellschaftlichen (Macht-)Diskursen herauszuarbeiten.
In diesem Wintersemester richten wir den Blick auf den Körper und (Prozesse/Phänomene von) Verkörperung in Wechselwirkung mit Geschlecht und Wissen.
Uns interessiert:
- Wie schreibt sich Wissen in Körper ein und inwiefern können Körper zu Trägern eines bestimmten Wissens gemacht werden?
- Wie werden Körper semiotisch für Geschlechts- und Sexualitätskonstruktionen eingesetzt? In welchem Verhältnis stehen oder standen die Vielfalt von Körpern und binäre Geschlechtsmodelle?
- Welche Rolle spielt Somatizität (Körperlichkeit) für die (Re-)Produktion von Wissen?
- Welche Bedingungen stellen Räume (öffentlich, privat, urban, rural) an Körper und umgekehrt?
- Welche Vorstellungen und welches Wissens entwickeln die bildenden und performativen Künste von einer Ästhetik des Körpers? Welche Rolle spielen in diesem Zusammenhang Fragment, Bewegung, Vulnerabilität, Idealisierung usw.?
- Inwiefern werden auch Naturwissenschaften wie Biologie, Medizin, Pharmakologie und Anatomie hinsichtlich ihrer Betrachtung des menschlichen Körpers von Wissen über Geschlecht beeinflusst?
Um Antworten auf diese Fragen zu finden, haben wir Wissenschaftler:innen aus den Geistes-, Sozial- und Naturwissenschaften eingeladen, um die Trias Körper – Geschlecht – Wissen aus ihrer jeweiligen fachlichen Perspektive genauer zu beleuchten. Neben aktuellen Forschungen der Universität Hamburg ergänzen Gäst:innen die Ringvorlesung.
Institutions
Universität Hamburg
Adeline Scharfenberg
Universität Hamburg
Adeline Scharfenberg
Universität Hamburg
Adeline Scharfenberg