{"id":23417,"date":"2021-04-12T14:11:02","date_gmt":"2021-04-12T12:11:02","guid":{"rendered":"https:\/\/www.itm.nrw\/2021\/04\/12\/goal-international-ai-conference\/"},"modified":"2024-01-18T11:00:56","modified_gmt":"2024-01-18T10:00:56","slug":"19317-2","status":"publish","type":"post","link":"https:\/\/www.itm.nrw\/en\/19317-2\/","title":{"rendered":"GOAL International AI Conference"},"content":{"rendered":"<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<p>Am 8. und 9. April 2021 fand die von GOAL ausgerichtete <strong>International AI Conference<\/strong> statt. Aufgrund der durch die Corona-Krise bedingten besonderen Umst\u00e4nde wurde diese digital abgehalten. Sowohl projektinterne als auch externe Referent:innen diskutierten zu interessanten Fragestellungen, die sich rund um die Governance von Algorithmen drehten.<\/p>\n<p>Die rund 80 Teilnehmenden wurden zun\u00e4chst von Prof. Dr. <strong>Johannes Wessels<\/strong>, dem Rektor der WWU M\u00fcnster, und Prof. Dr.<strong> Thomas Hoeren<\/strong>, willkommen gehei\u00dfen. Daraufhin referierte Assoc. Prof. Dr.<strong> Sandra Wachter<\/strong> vom Oxford Internet Institute in dem Er\u00f6ffnungsvortrag dar\u00fcber, wie die umfangreiche Ungleichheit und Voreingenommenheit, die westliche Gesellschaften kennzeichnen, unvermeidlich in der Datenverwendung f\u00fcr maschinelle Lernprozesse verankert seien. In der anschlie\u00dfenden Fragerunde wurde zudem von Prof. Wachter betont, dass KI gerechter und unvoreingenommener werden sollte, als menschliche Entscheidungstr\u00e4ger.<\/p>\n<p><!--more--><\/p>\n<p>Danach folgte der Vortrag wurde vom Ass. Prof. Dr.<strong> Christian Djeffal<\/strong> vom Munich Centre for Technology in Society an der Technischen Universit\u00e4t M\u00fcnchen. Er sprach dar\u00fcber, wie digitale Technologien schrittweise unsere Demokratie neu konfigurieren w\u00fcrden. Anschlie\u00dfend referierte Prof. Dr.<strong> Katharina Zweig<\/strong> vom AAL der Universit\u00e4t Kaiserslautern zu dem Thema \u201eIs Fairness by Unawareness fair?\u201c. Neben der Frage, ob gesch\u00fctzte Merkmale in Entscheindungsprozesse miteinbezogen werden sollten zeigte sie anhand verschiedener Praxisbeispiele, wie menschliche Diskriminierungen sich in den Trainingsdatens\u00e4tzen wiederfinden und auf ADM-Systeme auswirken. Die vorgetragenen Themenfelder von Prof. Zweig und Prof. Djeffal wurden durch Fragen und Anregungen der Teilnehmenden umfassender behandelt.<\/p>\n<p>Nach einer kurzen Mittagspause sprach <strong>Reuben Binns<\/strong>, Assoc. Professor f\u00fcr Human Centred Computing an der Universit\u00e4t Oxford, \u00fcber die Herausforderung, die es f\u00fcr Regulierungsbeh\u00f6rden darstellt, umfassende Untersuchungen und Durchsetzungsma\u00dfnahmen gegen die sch\u00e4dliche Verwendung von Algorithmen vorzunehmen. Professor Binns beleuchtete zudem die Verwendung von algorithmischen Methoden, die dazu dienen sollen, Regulierungsbestrebungen anzuleiten und zu unterst\u00fctzen. Als N\u00e4chstes f\u00fchrten <strong>Hanna Hoffmann<\/strong> und <strong>Johannes Kevekordes<\/strong> vom ITM in ihrer Pr\u00e4sentation aus, dass der wachsende Einfluss von Algorithmen auf die Gesellschaft es unabdingbar mache, dass B\u00fcrgerinnen und B\u00fcrger in der Lage sind, Entscheidungen, die Algorithmen f\u00fcr und \u00fcber sie treffen, zu verstehen und zu bewerten. Sie beleuchteten dazu das Bestehen eines m\u00f6glichen Right to Explanation in der DSGVO und die M\u00f6glichkeiten und Herausforderungen f\u00fcr die Umsetzung eines solchen Rechts.<\/p>\n<p>Auf eine spannende Diskussion folgten <strong>Catharina Rudschies<\/strong> und <strong>Mattis Jacobs <\/strong>von der Universit\u00e4t Hamburg, die \u00fcber ihre j\u00fcngsten Forschungsergebnisse berichteten, nach denen ADM-Systeme am besten als dynamische und sich entwickelnde soziotechnische \u00d6kosysteme verstanden werden k\u00f6nnen. Der letzte Vortrag am ersten Tag der Konferenz wurde von Frank Pasquale gehalten, Professor an der Brooklyn Law School f\u00fcr das Recht der k\u00fcnstlichen Intelligenz, der Algorithmen sowie des maschinellen Lernens. Er stellte vor, wie sich die algorithmische Verantwortlichkeit in den letzten zehn Jahren zu einem wichtigen Anliegen f\u00fcr Sozialwissenschaftler, Informatiker, Journalisten und Anw\u00e4lte entwickelt habe und gab einige aktuelle Beispiele aus der \u00f6ffentlichen Diskussion \u00fcber sozialsch\u00e4dliches Verhalten algorithmischer Systeme.<\/p>\n<p>Zum Abschluss des ersten Tages diskutierten im Rahmen einer Podiumsdiskussion Professor <strong>Frank Pasquale<\/strong>, Professorin <strong>Sandra Wachter<\/strong>, Professorin <strong>Joanna Bryson<\/strong> (Hertie School of Governance) und Dr. <strong>Fabian Niemann<\/strong> (Partner bei Bird &amp; Bird LLP) zu dem Thema: \u201eTransparenz in algorithmischen Entscheidungen\u201c. Moderiert wurde die Diskussion von Dr. <strong>Nikolas Guggenberger<\/strong> (Yale Law School). Die Diskussionsteilnehmer:innen debattierten unter anderem \u00fcber Chancen und Risiken von KI, sowie den Fortschritt und die H\u00fcrden, die seit dem Inkrafttreten der DSGVO aus datenschutzrechtlicher Perspektive f\u00fcr Marktteilnehmer:innen bestehen.<\/p>\n<p>Der zweite Tag startete mit einer Pr\u00e4sentation von Dr. <strong>Christina Timko<\/strong> von der Ruhr Universit\u00e4t Bochum. Sie berichtete \u00fcber ihre Untersuchung, wie Werte und Ansichten der App-Entwickler mit den Erwartungen der Auftraggeber und den markt\u00fcblichen Gesch\u00e4ftsmodellen harmonisierten. Dazu f\u00fchrten sie Interviews mit Softwareentwicklern durch, und gingen der Frage nach, wie App-Entwickler Bedarfe an Governance, Verbraucherschutz und Risiken durch angewandte Verhaltenssteuerung, u.a. Diskriminierungsrisiken, einsch\u00e4tzen. Schlie\u00dflich stellte sie m\u00f6gliche Schutzma\u00dfnahmen und alternative Anreize und Gesch\u00e4ftsmodellevor. Auf diesen Beitrag folgte Assoc. Prof. Dr. <strong>Linnet Taylor<\/strong> vom Tilburg Institute for Law, Technology and Society, die \u00fcber das Konzept von Fairness in Bezug auf KI referierte, das formalisiert durch Richtlinien und Technologieregulierung angewendet werden k\u00f6nne. Dieser Vortrag l\u00f6ste eine lebhafte Frage-und Diskussionsrunde unter den Teilnehmenden aus. Kontrovers diskutiert wurde vor allem, ob vertrauensw\u00fcrdige KI effektiver durch normative oder menschenzentrierte Konzepte (Human-Centered AI) geschaffen werden kann.<\/p>\n<p>Danach sprach Prof. Dr. <strong>Joanna Bryson<\/strong> von der Hertie School in Berlin in ihrem Vortrag \u00fcber eine, ihrer Meinung nach, Unwahrheit im politischen Diskurs \u00fcber KI-Regulierung: Dass KI notwendigerweise undurchsichtig sei. Tats\u00e4chlich sei k\u00fcnstliche Intelligenz nicht notwendigerweise undurchsichtiger als nat\u00fcrliche Intelligenz; tats\u00e4chlich k\u00f6nne KI durch Design weitaus transparenter gemacht werden. Sie beleuchtete die technologischen, soziologischen und \u00f6konomischen Barrieren f\u00fcr Transparenz, wie diese durch KI und die digitale Revolution beeinflusst werden und mit welcher Governance-Politik ihr zu begegnen sei. Dr. <strong>Carsten Orwat<\/strong> von der Karlsruher Universit\u00e4t \u2013 ITAS befasste sich anschlie\u00dfend in seiner Pr\u00e4sentation mit Herausforderungen, die mit der Risikoregulierung von KI und ADM verbunden sind.<\/p>\n<p>Nach der Mittagspause erfolgte der Vortrag von <strong>Andrew Burt<\/strong>, gesch\u00e4ftsf\u00fchrender Partner bei bnh.ai, einer Boutique-Kanzlei mit Fokus auf KI und Analytik, und Chief Legal Officer bei Immuta. Er sprach \u00fcber die tiefgreifenden Datenschutz- und Sicherheitsl\u00fccken bei KI-Systemen und die drei nicht auf den ersten Blick deutlich werdenden Auswirkungen dieses Trends, die er wie folgt zusammenfasste: \u201e1. Privacy is dead. 2. So is trust. 3. And you are not who you think you are.\u201d. In der abschlie\u00dfenden Diskussionsrunde haben sich die Teilnehmenden vor allem \u00fcber die vorgetragenen Vorschl\u00e4ge, welche den Auswirkungen der Datenschutz- und Sicherheitsl\u00fccken entgegenwirken sollen, auseinandergesetzt und kamen hierbei zudem auf die Vor- und Nachteile der DSGVO zu sprechen.<\/p>\n<p>Die Beitr\u00e4ge von den Projektpartner:innen und externen Referierenden sowie die kontroversen Diskussionen f\u00fchrten bei den Teilnehmenden zu einigen neuen Impulsen und gaben detailreiche Einblicke in die Chancen und Risiken der k\u00fcnstlichen Intelligenz. Vor allem durch die differenzierten Sichtweisen der Teilnehmenden im Zuge der internationalen Dimension der Konferenz ergaben sich neue Perspektiven und konnte der Horizont erweitert werden. Bereits in der Konferenz haben sich einige der Expert:innen zum weiteren Austausch in der Zukunft verabredet.<\/p>\n<p>Das GOAL\u2010Team m\u00f6chte noch einmal die Gelegenheit nutzen, sich zu bedanken: Beim BMBF und DLR f\u00fcr das Erm\u00f6glichen der Veranstaltung; bei allen Referent:innen f\u00fcr die spannenden Vortr\u00e4ge; bei den Teilnehmenden der Podiumsdiskussion f\u00fcr die lebhafte Debatte; und bei allen Konferenzteilnehmerinnen und -teilnehmern, die die Veranstaltung durch ihre interessierten Nachfragen und Diskussionsbeitr\u00e4ge bereichert haben.<\/p>\n<p>&nbsp;<\/p>\n<p>Ein ausf\u00fchrlichen Tagungsbericht finden Sie <a href=\"https:\/\/goal-projekt.de\/wp-content\/uploads\/2021\/04\/GOAL-Tagungsbericht.pdf\">hier<\/a>.<\/p>\n<p>Die Videoaufzeichnungen einzelner Vortr\u00e4ge finden Sie <a href=\"https:\/\/www.youtube.com\/channel\/UCPJiHeCouIPyOZ3qJsnh5Iw\/videos\">hier<\/a> in dem GOAL Youtube-Kanal.<\/p>\n<p>Einen Bericht vom Deutschlandfunk im Programm Computer und Kommunikation in der Sendung vom 10. April 2021 (Thema: \u201eMachtfrage: Wenn k\u00fcnstliche Intelligenz \u00fcber Menschen entscheidet\u201c) k\u00f6nnen Sie <a href=\"https:\/\/www.deutschlandfunk.de\/computer-und-kommunikation.683.de.html\">hier<\/a> nachh\u00f6ren.<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>&nbsp; &nbsp; &nbsp; Am 8. und 9. April 2021 fand die von GOAL ausgerichtete International AI Conference statt. Aufgrund der durch die Corona-Krise bedingten besonderen Umst\u00e4nde wurde diese digital abgehalten. Sowohl projektinterne als auch externe Referent:innen diskutierten zu interessanten Fragestellungen, die sich rund um die Governance von Algorithmen drehten. Die rund 80 Teilnehmenden wurden zun\u00e4chst [&#8230;]\n","protected":false},"author":48,"featured_media":23694,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1067],"tags":[],"class_list":["post-23417","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-general"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.itm.nrw\/en\/wp-json\/wp\/v2\/posts\/23417","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.itm.nrw\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.itm.nrw\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.itm.nrw\/en\/wp-json\/wp\/v2\/users\/48"}],"replies":[{"embeddable":true,"href":"https:\/\/www.itm.nrw\/en\/wp-json\/wp\/v2\/comments?post=23417"}],"version-history":[{"count":1,"href":"https:\/\/www.itm.nrw\/en\/wp-json\/wp\/v2\/posts\/23417\/revisions"}],"predecessor-version":[{"id":27226,"href":"https:\/\/www.itm.nrw\/en\/wp-json\/wp\/v2\/posts\/23417\/revisions\/27226"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.itm.nrw\/en\/wp-json\/wp\/v2\/media\/23694"}],"wp:attachment":[{"href":"https:\/\/www.itm.nrw\/en\/wp-json\/wp\/v2\/media?parent=23417"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.itm.nrw\/en\/wp-json\/wp\/v2\/categories?post=23417"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.itm.nrw\/en\/wp-json\/wp\/v2\/tags?post=23417"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}