Die KI-Verordnung (KI-VO) ist ein Prestigeprojekt der EU. Es ist zu erwarten, dass das groß angelegte Regulierungsvorhaben die Verbreitung und den Einsatz von künstlicher Intelligenz (KI) in der Union und über ihre Grenzen hinaus erheblich beeinflussen wird.
In diesem Workshop wollen wir die Inhalte der KI-Verordnung, die Bezüge zum Urheber- und Datenschutzrecht, die Bezüge zu OpenData und insbesondere für (öffentliche) Hochschulen relevante Bezüge herausarbeiten.
Die Teilnehmenden sind eingeladen, vorab ggf. eigene Fragen/Fälle vorzubereiten und bei Interesse im Workshop vorzutragen.
Schwerpunkte sind:
Als virtuellen Lernort werden wir ZOOM nutzen. Der ZOOM-Link wird einen Tag vor Schulungsbeginn bis 13:00 Uhr versendet.
Institutions
In DaVincis Resolve gibt es verschiedene KI-Tools, die die Postproduktion erleichtern sollen.
In 30 Minuten erhalten Sie einen Überblick über den aktuellen Stand der Möglichkeiten, die es bereits gibt und die vielleicht bald hinzukommen. Wir schauen uns an, wie die Tools funktionieren und wie sie in den eigenen Workflow integriert werden können.
Grundkenntnisse in DaVinci Blackmagic Resolve sind nicht erforderlich, aber hilfreich.
Anmeldung hier
Als virtuellen Lernort werden wir ZOOM nutzen. Der ZOOM-Link wird einen Tag vor Schulungsbeginn bis 13:00 Uhr versendet.
Institution
In DaVinci Resolve gibt es verschiedene KI-Tools, die die Postproduktion erleichtern sollen.
In 30 Minuten erhalten Sie einen Überblick über den aktuellen Stand der Möglichkeiten, die es bereits gibt und die vielleicht bald hinzukommen. Wir schauen uns an, wie die Tools funktionieren und wie sie in den eigenen Workflow integriert werden können.
Grundkenntnisse in DaVinci Blackmagic Resolve sind nicht erforderlich, aber hilfreich.
Institutions
In DaVinci Resolve gibt es verschiedene KI-Tools, die die Postproduktion erleichtern sollen.
In 30 Minuten erhalten Sie einen Überblick über den aktuellen Stand der Möglichkeiten, die es bereits gibt und die vielleicht bald hinzukommen. Wir schauen uns an, wie die Tools funktionieren und wie sie in den eigenen Workflow integriert werden können.
Grundkenntnisse in DaVinci Blackmagic Resolve sind nicht erforderlich, aber hilfreich
Anmeldung hier
Als virtuellen Lernort werden wir ZOOM nutzen. Der ZOOM-Link wird einen Tag vor Schulungsbeginn bis 13:00 Uhr versendet.
Institutions
Die Entwicklungen der letzten zweieinhalb Jahre zeigen ganz deutlich, dass Künstliche Intelligenz (KI) alle Hochschulbereiche tangiert und signifikant verändern wird. Dies betrifft vor allem auch den Bereich der Hochschullehre und damit die Produktion von Lehr- und Lernmaterialien. Seitdem es mit wenigen Prompts möglich ist, Lehr- und Lernmaterialien quasi per Knopfdruck zu erstellen und da diese Inhalte dann auch als gemeinfreie Werke gelten – sofern nicht durch kreative Promptketten und eigenständige Nachbearbeitungen eine Schaffenshöhe erreicht wird, die ein individuelles Urheberrecht begründen –, ergeben sich Fragestellungen nach den Auswirkungen dieser Entwicklungen auf Open Educational Resources (OER):
Diesen und weiteren Fragen wollen wir uns in Lightning Talks sowie einem vertiefenden Zwiegespräch zwischen Dr. Sandra Schön und PD. Dr. Malte Persike widmen. Die Teilnehmenden sind herzlich dazu eingeladen, sich in einem zweiten Teil des Gespräches an der Diskussion zu beteiligen. Die Teilnahme ist kostenfrei. Eine Anmeldung über das untenstehende Formular ist aus organisatorischen Gründen erforderlich.
Programm hier
Institutions
With the launch of ChatGPT last year and the ensuing debate about the benefits and potential risks of generative AI, also the work on the European AI Act shifted into a higher gear. The European Council and Parliament, working on their respective compromise texts, had to find ways to accommodate this new phenomenon. The attempts to adapt the AI Act went hand in hand with a lively public debate on what was so new and different about generative AI, whether it raised new, not yet anticipated risks, and how to best address a technology whose societal implications are not yet well understood. Most importantly, was the AI Act outdated even before is adopted? In my presentation I would like to discuss the different approaches that the Council and Parliament adopted to governing Generative AI, the most salient points of discussion and the different approaches proposed to solve some of the key ethical and societal concerns around the rise of generative AI.
Prof. Dr. Natali Helberger (Universiteit van Amsterdam, NL)
Natali Helberger is Distinguished University Professor of Law and Digital Technology, with a special focus on AI, at the University of Amsterdam and a member of the Institute for Information Law (IViR). Her research on AI and automated decision systems focuses on its impact on society and governance. Helberger co-founded the Research Priority Area Information, Communication, and the Data Society, which has played a leading role in shaping the international discussion on digital communication and platform governance. She is a founding member of the Human(e) AI research program and leads the Digital Transformation Initiative at the Faculty of Law. Since 2021, Helberger has also been director of the AI, Media & Democracy Lab, and since 2022, scientific director of the Algosoc (Public Values in the Algorithmic Society) Gravitation Consortium. A major focus of the Algosoc program is to mentor and train the next generation of interdisciplinary researchers. She is a member of several national and international research groups and committees, including the Council of Europe's Expert Group on AI and Freedom of Expression.
Institutions
Ob fotorealistisch oder kunstvoll, es gibt viele Möglichkeiten Adobe Firefly in kurzer Zeit einzigartige Bilder generieren zu lassen. Über zahlreiche Einstellmöglichkeiten lassen sich die Ergebnisse immer weiter verfeinern oder schnell verändern.
Wir wollen in 30 Minuten einen beispielhaften Workflow für die Bildgenerierung kennenlernen, der uns durch die verschiedenen Arbeitsschritte führt. Am Ende können wir mit einem generierten Bild in andere Adobe-Anwendungen wechseln, um dort weiter daran zu arbeiten.
Diese Online-Schulung richtet sich an Einsteiger*innen und es werden keine Vorkenntnisse vorausgesetzt.
Adobe Firefly lässt sich bis zu einem bestimmten Rahmen kostenlos nutzen. Darüber hinaus wird es kostenpflichtig.
Anmeldung hier
Als virtuellen Lernort werden wir ZOOM nutzen. Der ZOOM-Link wird einen Tag vor Schulungsbeginn bis 13:00 Uhr versendet.
Institutions
In dieser 30-minütigen Online-Schulung erfahren Sie, wie künstliche Intelligenz die Musikproduktion revolutioniert. Sie erhalten eine grundlegende Einführung in die Möglichkeiten von KI-Tools für die Musikproduktion und Soundgenerierung.
Wir stellen Ihnen die gängigsten und benutzerfreundlichsten KI-Tools zur Musik- und Soundgenerierung vor, damit Sie selbst kreativ werden können – ohne musikalische Vorkenntnisse!
Diese Schulung ist speziell für Einsteiger*innen konzipiert, die wenig bis keine Erfahrung mit Musikproduktion oder KI haben.
Anmeldung hier
Als virtuellen Lernort werden wir ZOOM nutzen. Der ZOOM-Link wird einen Tag vor Schulungsbeginn bis 13:00 Uhr versendet.
Institutions
Prof. Dr. Ibo van de Poel, Delft University of Technology, NL
Value alignment is important to ensure that AI systems remain aligned with human intentions, preferences, and values. It has been suggested that it can best be achieved by building AI systems that can track preferences or values in real-time. In my talk, I argue against this idea of real-time value alignment. First, I show that the value alignment problem is not unique to AI, but applies to any technology, thus opening up alternative strategies for attaining value alignment. Next, I argue that due to uncertainty about appropriate alignment goals, real-time value alignment may lead to harmful optimization and therefore will likely do more harm than good. Instead, it is better to base value alignment on a fallibilist epistemology, which assumes that complete certainty about the proper target of value alignment is and will remain impossible. Three alternative principles for AI value alignment are proposed: 1) adopt a fallibilist epistemology regarding the target of value alignment; 2) focus on preventing serious misalignments rather than aiming for perfect alignment; 3) retain AI systems under human control even if it comes at the cost of full value alignment.
Institutions
Institutions
Prof. Dr. Kate Vredenburgh, London School of Economics, GB
Current AI regulation in the EU and globally focus on trustworthiness and accountability, as seen in the AI Act and AI Liability instruments. Yet, they overlook a critical aspect: environmental sustainability. This talk addresses this gap by examining the ICT sector's significant environmental impact. AI technologies, particularly generative models like GPT-4, contribute substantially to global greenhouse gas emissions and water consumption.
The talk assesses how existing and proposed regulations, including EU environmental laws and the GDPR, can be adapted to prioritize sustainability. It advocates for a comprehensive approach to sustainable AI regulation, beyond mere transparency mechanisms for disclosing AI systems' environmental footprint, as proposed in the EU AI Act. The regulatory toolkit must include co-regulation, sustainability-by-design principles, data usage restrictions, and consumption limits, potentially integrating AI into the EU Emissions Trading Scheme. This multidimensional strategy offers a blueprint that can be adapted to other high-emission technologies and infrastructures, such as block chain, the meta-verse, or data centers. Arguably, it is crucial for tackling the twin key transformations of our society: digitization and climate change mitigation.
Institutions
Institutions
About the lecture: tbd
About the speaker
Jocelyn Maclure is Full Professor of Philosophy and Jarislwosky Chair in Human Nature and Technology at McGill University. His current work addresses various topics in the philosophy of artificial intelligence and in social epistemology. In 2023, he was Mercator Visiting Professor for AI in the Human Context at the University of Bonn. His recent articles appeared in journals such as Minds & Machines, AI & Ethics, AI & Society and Digital Society. He was the president of the Quebec Ethics in Science and Technology Commission—and advisory body of the Quebec Government—from 2017 to 2024. Before turning his attention to the philosophy of AI, he published extensively in moral and political philosophy, including, with Charles Taylor, Secularism and Freedom of Conscience (Harvard University Press (2011). He was elected to the Royal Society of Canada in 2023.
The talk explores the question of whether Artificial Intelligence (AI) can truly create art, or if there is an essential “human factor” in art production. Against the background of AI’s growing capabilities, traditional concepts in art theory like authorship are reconsidered. It is argued that authorship is a necessary condition for art, while aesthetic responsibility is at least a necessary condition for authorship of artworks. Although AI can function as an aesthetic agent, it cannot bear aesthetic responsibility. Therefore, it can neither on its own nor in cooperation with humans be the author of artworks. However, AI is able to produce objects that are in their manifest properties indistinguishable from works of art, I will speak of “fake art.” It will be shown to what extent the massive occurrence of AI-generated fake art has a detrimental effect on art practice.Institutions
Institutions
Institutions
Taming the Machines — Horizons of Artificial Intelligence. The Ethics in Information Technology Public Lecture Series
This summer‘s „Taming the Machine“ lecture series sheds light on the ethical, political, legal, and societal dimensions of Artificial Intelligence (AI).Prof. Dr. Louise Amoore, Durham University, Durham, UK
Institutions
Prof. Dr. Philipp Hacker, European University Viadrina, Frankfurt (Oder), DE
Current AI regulation in the EU and globally focus on trustworthiness and accountability, as seen in the AI Act and AI Liability instruments. Yet, they overlook a critical aspect: environmental sustainability. This talk addresses this gap by examining the ICT sector's significant environmental impact. AI technologies, particularly generative models like GPT-4, contribute substantially to global greenhouse gas emissions and water consumption.
The talk assesses how existing and proposed regulations, including EU environmental laws and the GDPR, can be adapted to prioritize sustainability. It advocates for a comprehensive approach to sustainable AI regulation, beyond mere transparency mechanisms for disclosing AI systems' environmental footprint, as proposed in the EU AI Act. The regulatory toolkit must include co-regulation, sustainability-by-design principles, data usage restrictions, and consumption limits, potentially integrating AI into the EU Emissions Trading Scheme. This multidimensional strategy offers a blueprint that can be adapted to other high-emission technologies and infrastructures, such as block chain, the meta-verse, or data centers. Arguably, it is crucial for tackling the twin key transformations of our society: digitization and climate change mitigation.
Institutions
Taming the Machines — Horizons of Artificial Intelligence. The Ethics in Information Technology Public Lecture Series
This summer‘s „Taming the Machine“ lecture series sheds light on the ethical, political, legal, and societal dimensions of Artificial Intelligence (AI).Institutions
Taming the Machines — Horizons of Artificial Intelligence. The Ethics in Information Technology Public Lecture Series
This summer‘s „Taming the Machine“ lecture series sheds light on the ethical, political, legal, and societal dimensions of Artificial Intelligence (AI).Prof. Dr. Mathias Risse, John F. Kennedy School of Government, Harvard University, Cambridge, MA, USA
Institutions
Taming the Machines — Horizons of Artificial Intelligence. The Ethics in Information Technology Public Lecture Series
This summer‘s „Taming the Machine“ lecture series sheds light on the ethical, political, legal, and societal dimensions of Artificial Intelligence (AI).Prof. Dr. Andra Siibak, University of Tartu, Tartu, Estland
Present day children’s futures are decided by algorithms predicting their probability of success at school, their suitability for a job position, their likely recidivism or mental health problems. Advances in predictive analytics, artificial intelligence (AI) systems, behavioral-, and biometrics technologies, have started to be aggressively used for monitoring, aggregating, and analyzing children’s data. Such dataveillance happening both in homes, schools, and peer networks has a profound impact not only on children’s preferences, social relations, life chances, rights and privacy but also the "future of human agency - and ultimately, of society and culture" (Mascheroni & Siibak 2021: 169).
Building upon the findings of my different empirical case studies, I will showcase how the popular digital parenting practices and the growing datafication happening in the education sector, could create not only hypothetical data scares but also lead to real data scars in the lives of the young.
Institutions
Universität Hamburg
Adeline Scharfenberg
Universität Hamburg
Adeline Scharfenberg
Universität Hamburg
Adeline Scharfenberg