KI-Tools des ITM: Rechtswissenschaftliche Forschung und Praxis in Konvergenz

Im Zeitalter der fortschreitenden Digitalisierung und der ubiquitären Implementation künstlicher Intelligenz in nahezu sämtlichen Lebensbereichen kommt der rechtswissenschaftlichen Auseinandersetzung mit den damit einhergehenden normativen Implikationen eine Schlüsselrolle zu. Das Institut für Informations-, Telekommunikations- und Medienrecht (ITM) widmet sich dieser Herausforderung in dezidierter Weise unter besonderer Berücksichtigung der Verknüpfung theoretischer Rechtsdogmatik mit praktischer Anwendungserfahrung.

Die gegenwärtige Diskussion zu rechtlichen Rahmenbedingungen künstlicher Intelligenz, die insbesondere durch die Verabschiedung der Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates über harmonisierte Vorschriften für künstliche Intelligenz (KI-Verordnung, „AI Act“) eine neue Dynamik erhalten hat, leidet vielfach unter einem signifikanten Defizit praktischer Anwendungserfahrung. Die Qualifikation bestimmter KI-Systeme als Hochrisikosysteme gemäß Art. 6 i.V.m. Anhang III KI-VO, die Implementierung angemessener Risikomanagement- und Datenverwaltungssysteme, die Gewährleistung hinreichender Transparenz sowie die Beachtung urheberrechtlicher Implikationen und datenschutzrechtlicher Vorgaben stellen Rechtswissenschaft und -praxis vor komplexe Herausforderungen.

 

Das ITM hat sich zum Ziel gesetzt, die oftmals zu konstatierende Kluft zwischen rechtlicher Theoriebildung einerseits und technologischer Praxis andererseits durch einen innovativen Ansatz zu überbrücken: Die eigenständige Entwicklung und systematische Untersuchung von KI-gestützten Systemen ermöglicht eine fundierte Analyse der rechtlichen, ethischen und gesellschaftlichen Implikationen digitaler Transformationsprozesse. Hierdurch möchte das Institut nicht nur einen Beitrag zur wissenschaftlichen Diskussion leisten, sondern zugleich konkrete Implementierungsstrategien für die rechtssichere Integration von KI-Systemen in die rechtswissenschaftliche Ausbildung entwickeln.

Die nachfolgend präsentierten Tools und Anwendungshilfen repräsentieren das Ergebnis dieser Forschungs- und Entwicklungsarbeit und stehen Studierenden wie Lehrenden als praktische Instrumente zur Verfügung. Sie dienen einerseits der Effizienzsteigerung und Qualitätsverbesserung in der rechtswissenschaftlichen Ausbildung, fungieren andererseits aber auch als Forschungsobjekte zur kontinuierlichen Evaluation der Leistungsfähigkeit, Grenzen und rechtlichen Implikationen künstlicher Intelligenz im akademischen Kontext. Das Institut lädt alle Interessierten ein, sich an diesem Forschungsprozess durch die aktive Nutzung und kritische Reflexion der bereitgestellten Systeme zu beteiligen..

JETZT NEU: RechtsMentor

RechtsMentor begleitet Lehrende und Studierende gemeinsam durch die rechtswissenschaftliche Ausbildung! Diese KI korrigiert Arbeiten, liefert Themenideen, erstellt individuelle Übungsfälle und optimiert Seminare – für mehr Zeit beim Lernen und Lehren!

REF-GPT

Der REF-GPT hilft Referendaren bei der effizienten Aktenbearbeitung! Diese KI analysiert Sachverhalte, erstellt detaillierte A- und B-Gutachten, prüft prozessuale Besonderheiten und generiert Abschlussverfügungen – für eine strukturierte und zeitsparende Fallbearbeitung.

IT-Verträge

Unser erster ChatBot soll dabei helfen, Licht in das Wirrwarr des deutschen IT- und Medienrechts zu bringen. Durch Zugriff auf umfangreiche ITM-Ressourcen kann der GPT Fragen beantworten, IT-Verträge konzeptionieren und relevante Rechtsprechung finden.

Die fortschreitende Integration von KI-Systemen wie ChatGPT, Claude oder anderen generativen KI-Anwendungen in den akademischen Kontext markiert einen bedeutsamen Wandel in der Bildungslandschaft. Diese Technologien bieten unzählige Möglichkeiten zur Unterstützung und Bereicherung von Lehr- und Lernprozessen, die von der Informationsrecherche über die Strukturierung komplexer Inhalte bis hin zur Selbstkontrolle reichen. Im Zuge dieser Entwicklung sind Bildungsinstitutionen gefordert, einen angemessenen regulatorischen Rahmen zu definieren, der einerseits die wissenschaftliche Integrität wahrt und andererseits innovative Lernformen nicht unnötig einschränkt.

In diesem Zusammenhang erweist sich die vielerorts zu beobachtende kategorische Abwehrhaltung gegenüber KI-Technologien in Bildungskontexten als zunehmend problematisch. Während akademische Institutionen mitunter noch über das Ob und Wie der KI-Integration debattieren, hat die berufliche Praxis diese Frage längst beantwortet: KI-Werkzeuge sind in nahezu allen Branchen und Tätigkeitsfeldern zu selbstverständlichen Arbeitsinstrumenten geworden. Studierende, die während ihrer Ausbildung keinen kompetenten Umgang mit diesen Technologien erlernen, starten mit einem signifikanten Wettbewerbsnachteil in ihre berufliche Laufbahn. Eine zentrale Aufgabe der Hochschulbildung besteht gerade darin, die uns anvertrauten Studierenden bestmöglich auf die Anforderungen ihrer künftigen beruflichen Tätigkeit vorzubereiten – eine Verantwortung, die angesichts der transformativen Wirkung von KI auf nahezu alle Arbeitsbereiche den reflektierten Einbezug dieser Technologien in Lehr- und Lernprozesse geradezu zwingend erfordert.

Eine Bildungspraxis, die sich dieser Realität verschließt oder KI primär als Bedrohung akademischer Traditionen wahrnimmt, läuft Gefahr, an den tatsächlichen Qualifikationsanforderungen einer zunehmend digitalisierten Arbeits- und Lebenswelt vorbeizuzielen.

Die Beurteilung der Angemessenheit des KI-Einsatzes erfordert eine differenzierte Betrachtung, die sich primär an den zu erreichenden Kompetenzzielen orientieren sollte. Während in bestimmten Kontexten die eigenständige Problemlösung ohne technologische Hilfe essenziell sein mag, können in anderen Szenarien gerade die Fähigkeiten zur effektiven Nutzung und kritischen Evaluation von KI-generierten Inhalten wertvolle Kompetenzen darstellen. Diese Abwägung kann letztlich nicht vollständig durch standardisierte Regelwerke determiniert werden, sondern entfaltet sich in der reflektierten Auseinandersetzung der Anwendenden mit ihrem eigenen Lernprozess und den damit verbundenen Zielen.

Die Entwicklung eines informierten Urteilsvermögens hinsichtlich des adäquaten Einsatzes digitaler Werkzeuge stellt dabei selbst ein bedeutsames Bildungsziel dar.

Transparenz bleibt ein unabdingbares Element des wissenschaftlichen Diskurses, wobei die Offenlegung des KI-Einsatzes weniger als restriktive Anforderung, sondern vielmehr als integraler Bestandteil einer aufrichtigen akademischen Praxis verstanden werden sollte. Die genaue Form dieser Offenlegung – sei es in Form umfassender Dokumentation der verwendeten Prompts oder summarischer Verweise auf unterstützende Technologien – kann kontextabhängig variieren und sollte nicht zu einem bürokratischen Hindernis für innovative Lehr- und Lernformen werden.

Von besonderer Relevanz sind die Prüfungsordnungen der jeweiligen Fakultäten, die verbindliche Vorgaben zur Zulässigkeit von Hilfsmitteln und deren Dokumentation enthalten. Diese können erheblich variieren – von expliziten Verboten des KI-Einsatzes über detaillierte Offenlegungspflichten bis hin zu liberal gestalteten Regelungen, die den Einsatz unter bestimmten Bedingungen ausdrücklich gestatten. Studierende und Lehrende sind gleichermaßen verpflichtet, sich mit diesen spezifischen Bestimmungen vertraut zu machen, da sie den verbindlichen rechtlichen Rahmen für den KI-Einsatz in Prüfungsleistungen definieren und Verstöße gegebenenfalls als Täuschungsversuch gewertet werden können. Dies gilt unabhängig davon, ob deren Vorgaben nach eigener Auffassung als zu restriktiv sein mögen oder nicht. 

Die Qualität der KI-Ausgaben – ihre Faktentreue, Aktualität und Ausgewogenheit – bleibt eine zentrale Herausforderung, die eine kritische Evaluation und Verifizierung durch die Nutzenden erfordert. Die Förderung entsprechender Kompetenzen zur kritischen Bewertung und verantwortungsvollen Nutzung von KI-Systemen sollte daher als integraler Bestandteil zeitgemäßer Bildungskonzepte verstanden werden. Hierzu möchten wir mit unseren eigenen Tools beitragen. Ein konstruktiver Dialog zwischen Lehrenden und Studierenden, der verschiedene Perspektiven auf den KI-Einsatz einbezieht und gemeinsame Reflexionsräume eröffnet, kann hier einen wertvollen Beitrag leisten.

Mit Blick auf die Zukunft wird die Integration von KI-Systemen in die akademische Bildungslandschaft vermutlich weiter zunehmen und neue Formen des Lehrens und Lernens hervorbringen. Anstatt diese Entwicklung durch übermäßige Reglementierung zu hemmen, erscheint es zielführender, einen reflexiven, kompetenzorientierten Umgang mit diesen Technologien zu fördern, der die Autonomie und Urteilsfähigkeit der Lernenden stärkt und sie befähigt, informierte Entscheidungen über den angemessenen Einsatz digitaler Werkzeuge zu treffen. Die Hochschulbildung kann so einen wichtigen Beitrag dazu leisten, Studierende auf eine zunehmend von KI-Systemen geprägte Arbeits- und Lebenswelt vorzubereiten, ohne dabei fundamentale wissenschaftliche Werte zu kompromittieren.

Die von uns, dem Institut für Informations-, Telekommunikations- und Medienrecht (ITM) entwickelten und auf dieser Seite vorgestellten benutzerdefinierten GPTs basieren auf der Technologie von OpenAI und werden auf deren Infrastruktur gehostet.

    1. Datenverarbeitung durch OpenAI: Jegliche Interaktion, die Sie mit unseren GPTs haben (einschließlich Ihrer Eingaben/Prompts und der von den GPTs generierten Antworten), wird direkt auf den Systemen von OpenAI verarbeitet. Die gesamte Datenverarbeitung unterliegt ausschließlich den Richtlinien und Datenschutzbestimmungen von OpenAI. Wir als Institut und Betreiber dieser GPTs möchten ausdrücklich betonen, dass wir technisch keinerlei Möglichkeit haben, auf Ihre eingegebenen Nachrichten (Prompts), die Inhalte der Konversationen oder sonstige Nutzungsdaten zuzugreifen. Unser Zugriff beschränkt sich auf die Konfiguration und Verwaltung der GPTs selbst, nicht jedoch auf die Daten, die während der Nutzung durch Sie entstehen. Für detaillierte Informationen zur Datenverarbeitung durch OpenAI verweisen wir auf deren offizielle Dokumentation, insbesondere das Data Processing Addendum (DPA): https://openai.com/policies/data-processing-addendum/

    2. Nutzung externer Schnittstellen (APIs): Einige unserer GPTs nutzen zur Erfüllung spezifischer Aufgaben externe Schnittstellen (APIs), wie zum Beispiel von Elsevier oder anderen Diensten. Wenn Sie Funktionen nutzen, die eine solche Anbindung erfordern, werden die für die Bearbeitung Ihrer Anfrage notwendigen Daten direkt von OpenAI an den jeweiligen Drittanbieter gesendet. Auch in diesem Fall verarbeiten oder speichern wir als Institut keine Daten aus diesen API-Aufrufen. Die Datenverarbeitung erfolgt ausschließlich zwischen OpenAI und dem Drittanbieter bzw. direkt zur Bearbeitung Ihrer Anfrage durch den Drittanbieter.

Wichtiger Hinweis für Nutzer: Da die Datenverarbeitung durch externe Parteien (OpenAI und ggf. Drittanbieter von APIs) erfolgt und wir keinen Zugriff auf Ihre Eingaben haben, bitten wir Sie, sensibel mit den Informationen umzugehen, die Sie in die GPTs eingeben. Vermeiden Sie die Eingabe von personenbezogenen Daten oder vertraulichen Informationen, wenn dies nicht unbedingt erforderlich ist.