09.02.2023

ChatGPT: Schon ein Medizinprodukt?

Spätestens mit ChatGPT ist die künstliche Intelligenz (KI) in der Mitte der Gesellschaft angekommen. Nun wird kritisch hinterfragt, wie weit KI gehen darf und wo es Regulierungen auf höchster Ebene geben muss.

Das Thema künstliche Intelligenz (KI) ist nun endgültig aus seinem Nischendasein ausgebrochen: Seit mit der Software ChatGPT sogar Studienarbeiten verfasst werden, wird nahezu in jeder Tageszeitung darüber berichtet. Bei ChatGPT handelt es sich um ein sogenanntes generatives KI-Modell des US-Unternehmens OpenAI. Die Software kann menschenähnliche Antworten auf eine Vielzahl von Fragen generieren und wird von Unternehmen wie Microsoft unterstützt. Ähnliche Lösungen sind bereits in der Entstehung: Google beispielsweise bietet unter dem Namen „Bard" bald seine eigene generative KI an.

Im Zusammenhang mit ChatGPT gibt es allerdings noch viele rechtliche Unklarheiten, zum Beispiel hinsichtlich des Urheberrechts: Die Algorithmen hinter diesen Tools sind darauf trainiert, Internetinhalte zu durchsuchen und daraus Antworten zu generieren, allerdings ohne die genaue Herkunft der Inhalte anzugeben. Und auch im medizinischen Kontext ergeben sich durch die Verwendung von ChatGPT spannende rechtliche Fragen: Wie viel darf generative KI über Medizin sprechen, ohne die Patientensicherheit zu gefährden? Die Hamburger Anwaltskanzlei von Sebastian Vorberg hat sich nun in einem offenen Brief an das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) gewandt und um eine Einschätzung der Behörde gebeten. Konkret stellt sich die Frage: Ist ChatGPT ein Medizinprodukt?

ChatGPT wurde zwar nicht explizit für medizinische Zwecke entwickelt, ausgenommen sind sie aber auch nicht. Auf entsprechende Fragestellungen liefert die Software den Benutzer*innen detaillierte medizinische Antworten und konkrete Hilfestellungen, einschließlich Arzneimittelempfehlungen. „Unserer Rechtsauffassung nach fällt diese Software in Deutschland und in Europa unter die Regulation als Medizinprodukt. ChatGPT kann ohne weiteres zur Diagnose, Überwachung, Behandlung oder Vorbeugung von Krankheiten verwendet werden", schreiben Vorberg und Kollegen in einem Schreiben an das BfArM. „Die Software liefert außerdem Informationen, die für Entscheidungen mit diagnostischen oder therapeutischen Zwecken herangezogen werden können." Auch die Benutzer*innen selbst könnten gar nicht anders, als Antworten auf entsprechende Fragen als „zweckorientierte medizinische Hilfestellungen" zu verstehen. Es handle sich dabei jedenfalls um mehr als nur verbal präsentierte Suchergebnisse. Wenn die europäischen Behörden dieser Ansicht zustimmen, müssen möglicherweise Schritte unternommen werden, um solche Aktivitäten durch die Software zu blockieren.

Entdecken Sie synedra auf Facebook und Linkedin!

Diese Seite verwendet Cookies. Mehr Informationen zum Einsatz von Cookies finden Sie in der Datenschutz­erklärung. Klicken Sie auf „Akzeptieren“, um Ihre Zustimmung zu erteilen. Klicken Sie auf Cookie-Einstellungen, um die Einstellungen anzupassen.

Cookie-Einstellungen