GOAL International AI Conference

 

 

 

Am 8. und 9. April 2021 fand die von GOAL ausgerichtete International AI Conference statt. Aufgrund der durch die Corona-Krise bedingten besonderen Umstände wurde diese digital abgehalten. Sowohl projektinterne als auch externe Referent:innen diskutierten zu interessanten Fragestellungen, die sich rund um die Governance von Algorithmen drehten.

Die rund 80 Teilnehmenden wurden zunächst von Prof. Dr. Johannes Wessels, dem Rektor der WWU Münster, und Prof. Dr. Thomas Hoeren, willkommen geheißen. Daraufhin referierte Assoc. Prof. Dr. Sandra Wachter vom Oxford Internet Institute in dem Eröffnungsvortrag darüber, wie die umfangreiche Ungleichheit und Voreingenommenheit, die westliche Gesellschaften kennzeichnen, unvermeidlich in der Datenverwendung für maschinelle Lernprozesse verankert seien. In der anschließenden Fragerunde wurde zudem von Prof. Wachter betont, dass KI gerechter und unvoreingenommener werden sollte, als menschliche Entscheidungsträger.

Danach folgte der Vortrag wurde vom Ass. Prof. Dr. Christian Djeffal vom Munich Centre for Technology in Society an der Technischen Universität München. Er sprach darüber, wie digitale Technologien schrittweise unsere Demokratie neu konfigurieren würden. Anschließend referierte Prof. Dr. Katharina Zweig vom AAL der Universität Kaiserslautern zu dem Thema „Is Fairness by Unawareness fair?“. Neben der Frage, ob geschützte Merkmale in Entscheindungsprozesse miteinbezogen werden sollten zeigte sie anhand verschiedener Praxisbeispiele, wie menschliche Diskriminierungen sich in den Trainingsdatensätzen wiederfinden und auf ADM-Systeme auswirken. Die vorgetragenen Themenfelder von Prof. Zweig und Prof. Djeffal wurden durch Fragen und Anregungen der Teilnehmenden umfassender behandelt.

Nach einer kurzen Mittagspause sprach Reuben Binns, Assoc. Professor für Human Centred Computing an der Universität Oxford, über die Herausforderung, die es für Regulierungsbehörden darstellt, umfassende Untersuchungen und Durchsetzungsmaßnahmen gegen die schädliche Verwendung von Algorithmen vorzunehmen. Professor Binns beleuchtete zudem die Verwendung von algorithmischen Methoden, die dazu dienen sollen, Regulierungsbestrebungen anzuleiten und zu unterstützen. Als Nächstes führten Hanna Hoffmann und Johannes Kevekordes vom ITM in ihrer Präsentation aus, dass der wachsende Einfluss von Algorithmen auf die Gesellschaft es unabdingbar mache, dass Bürgerinnen und Bürger in der Lage sind, Entscheidungen, die Algorithmen für und über sie treffen, zu verstehen und zu bewerten. Sie beleuchteten dazu das Bestehen eines möglichen Right to Explanation in der DSGVO und die Möglichkeiten und Herausforderungen für die Umsetzung eines solchen Rechts.

Auf eine spannende Diskussion folgten Catharina Rudschies und Mattis Jacobs von der Universität Hamburg, die über ihre jüngsten Forschungsergebnisse berichteten, nach denen ADM-Systeme am besten als dynamische und sich entwickelnde soziotechnische Ökosysteme verstanden werden können. Der letzte Vortrag am ersten Tag der Konferenz wurde von Frank Pasquale gehalten, Professor an der Brooklyn Law School für das Recht der künstlichen Intelligenz, der Algorithmen sowie des maschinellen Lernens. Er stellte vor, wie sich die algorithmische Verantwortlichkeit in den letzten zehn Jahren zu einem wichtigen Anliegen für Sozialwissenschaftler, Informatiker, Journalisten und Anwälte entwickelt habe und gab einige aktuelle Beispiele aus der öffentlichen Diskussion über sozialschädliches Verhalten algorithmischer Systeme.

Zum Abschluss des ersten Tages diskutierten im Rahmen einer Podiumsdiskussion Professor Frank Pasquale, Professorin Sandra Wachter, Professorin Joanna Bryson (Hertie School of Governance) und Dr. Fabian Niemann (Partner bei Bird & Bird LLP) zu dem Thema: „Transparenz in algorithmischen Entscheidungen“. Moderiert wurde die Diskussion von Dr. Nikolas Guggenberger (Yale Law School). Die Diskussionsteilnehmer:innen debattierten unter anderem über Chancen und Risiken von KI, sowie den Fortschritt und die Hürden, die seit dem Inkrafttreten der DSGVO aus datenschutzrechtlicher Perspektive für Marktteilnehmer:innen bestehen.

Der zweite Tag startete mit einer Präsentation von Dr. Christina Timko von der Ruhr Universität Bochum. Sie berichtete über ihre Untersuchung, wie Werte und Ansichten der App-Entwickler mit den Erwartungen der Auftraggeber und den marktüblichen Geschäftsmodellen harmonisierten. Dazu führten sie Interviews mit Softwareentwicklern durch, und gingen der Frage nach, wie App-Entwickler Bedarfe an Governance, Verbraucherschutz und Risiken durch angewandte Verhaltenssteuerung, u.a. Diskriminierungsrisiken, einschätzen. Schließlich stellte sie mögliche Schutzmaßnahmen und alternative Anreize und Geschäftsmodellevor. Auf diesen Beitrag folgte Assoc. Prof. Dr. Linnet Taylor vom Tilburg Institute for Law, Technology and Society, die über das Konzept von Fairness in Bezug auf KI referierte, das formalisiert durch Richtlinien und Technologieregulierung angewendet werden könne. Dieser Vortrag löste eine lebhafte Frage-und Diskussionsrunde unter den Teilnehmenden aus. Kontrovers diskutiert wurde vor allem, ob vertrauenswürdige KI effektiver durch normative oder menschenzentrierte Konzepte (Human-Centered AI) geschaffen werden kann.

Danach sprach Prof. Dr. Joanna Bryson von der Hertie School in Berlin in ihrem Vortrag über eine, ihrer Meinung nach, Unwahrheit im politischen Diskurs über KI-Regulierung: Dass KI notwendigerweise undurchsichtig sei. Tatsächlich sei künstliche Intelligenz nicht notwendigerweise undurchsichtiger als natürliche Intelligenz; tatsächlich könne KI durch Design weitaus transparenter gemacht werden. Sie beleuchtete die technologischen, soziologischen und ökonomischen Barrieren für Transparenz, wie diese durch KI und die digitale Revolution beeinflusst werden und mit welcher Governance-Politik ihr zu begegnen sei. Dr. Carsten Orwat von der Karlsruher Universität – ITAS befasste sich anschließend in seiner Präsentation mit Herausforderungen, die mit der Risikoregulierung von KI und ADM verbunden sind.

Nach der Mittagspause erfolgte der Vortrag von Andrew Burt, geschäftsführender Partner bei bnh.ai, einer Boutique-Kanzlei mit Fokus auf KI und Analytik, und Chief Legal Officer bei Immuta. Er sprach über die tiefgreifenden Datenschutz- und Sicherheitslücken bei KI-Systemen und die drei nicht auf den ersten Blick deutlich werdenden Auswirkungen dieses Trends, die er wie folgt zusammenfasste: „1. Privacy is dead. 2. So is trust. 3. And you are not who you think you are.”. In der abschließenden Diskussionsrunde haben sich die Teilnehmenden vor allem über die vorgetragenen Vorschläge, welche den Auswirkungen der Datenschutz- und Sicherheitslücken entgegenwirken sollen, auseinandergesetzt und kamen hierbei zudem auf die Vor- und Nachteile der DSGVO zu sprechen.

Die Beiträge von den Projektpartner:innen und externen Referierenden sowie die kontroversen Diskussionen führten bei den Teilnehmenden zu einigen neuen Impulsen und gaben detailreiche Einblicke in die Chancen und Risiken der künstlichen Intelligenz. Vor allem durch die differenzierten Sichtweisen der Teilnehmenden im Zuge der internationalen Dimension der Konferenz ergaben sich neue Perspektiven und konnte der Horizont erweitert werden. Bereits in der Konferenz haben sich einige der Expert:innen zum weiteren Austausch in der Zukunft verabredet.

Das GOAL‐Team möchte noch einmal die Gelegenheit nutzen, sich zu bedanken: Beim BMBF und DLR für das Ermöglichen der Veranstaltung; bei allen Referent:innen für die spannenden Vorträge; bei den Teilnehmenden der Podiumsdiskussion für die lebhafte Debatte; und bei allen Konferenzteilnehmerinnen und -teilnehmern, die die Veranstaltung durch ihre interessierten Nachfragen und Diskussionsbeiträge bereichert haben.

 

Ein ausführlichen Tagungsbericht finden Sie hier.

Die Videoaufzeichnungen einzelner Vorträge finden Sie hier in dem GOAL Youtube-Kanal.

Einen Bericht vom Deutschlandfunk im Programm Computer und Kommunikation in der Sendung vom 10. April 2021 (Thema: „Machtfrage: Wenn künstliche Intelligenz über Menschen entscheidet“) können Sie hier nachhören.