Skip to main content

LLM-Regulierung als Frage der Meinungsfreiheit?

Was wäre, wenn die Regulierung von Large Language Models plötzlich nicht mehr nur Technologiepolitik wäre, sondern ein Fall für die Meinungsfreiheit? Dann würde aus einer Debatte über Sicherheit, Haftung und Kontrolle sehr schnell eine Debatte über Grundrechte. Genau hier setzt das Paper von Eugene Volokh, Mark A. Lemley und Peter Henderson an. Die Autoren argumentieren, dass der Output generativer KI rechtlich als geschützte Rede verstanden werden könnte. Nicht unbedingt, weil die KI selbst Rechte hat, sondern weil ihre Entwickler:innen und vor allem ihre Nutzer:innen Rechte haben, Informationen zu empfangen und mit Hilfe der Systeme selbst zu kommunizieren. Für die USA ist das ein starker Gedanke. Für Deutschland ist er interessant, aber deutlich weniger belastbar. Was ist das ökonomische Grundproblem? Im Kern geht es um die Kontrolle von Informationsproduktion. Staaten wollen Risiken von LLMs begrenzen: Desinformation, Manipulation, Diskriminierung oder gefährliche Inhalte....

LLM-Regulierung als Frage der Meinungsfreiheit?

Was wäre, wenn die Regulierung von Large Language Models plötzlich nicht mehr nur Technologiepolitik wäre, sondern ein Fall für die Meinungsfreiheit? Dann würde aus einer Debatte über Sicherheit, Haftung und Kontrolle sehr schnell eine Debatte über Grundrechte.

Genau hier setzt das Paper von Eugene Volokh, Mark A. Lemley und Peter Henderson an. Die Autoren argumentieren, dass der Output generativer KI rechtlich als geschützte Rede verstanden werden könnte. Nicht unbedingt, weil die KI selbst Rechte hat, sondern weil ihre Entwickler:innen und vor allem ihre Nutzer:innen Rechte haben, Informationen zu empfangen und mit Hilfe der Systeme selbst zu kommunizieren. Für die USA ist das ein starker Gedanke. Für Deutschland ist er interessant, aber deutlich weniger belastbar.

Was ist das ökonomische Grundproblem?

Im Kern geht es um die Kontrolle von Informationsproduktion. Staaten wollen Risiken von LLMs begrenzen: Desinformation, Manipulation, Diskriminierung oder gefährliche Inhalte. Gleichzeitig schaffen LLMs einen neuen, extrem günstigen Zugang zu Wissen, Argumenten und sprachlicher Produktion. Regulierung begrenzt also nicht nur Risiken. Sie begrenzt auch Informationszugang.

Das zugrunde liegende Paper betont besonders die Rechte der Nutzer:innen. Die stärkste Begründung für Schutz liegt nach Ansicht der Autoren nicht bei der KI als „Sprecher:in“, sondern bei den Menschen, die ihre Antworten lesen, nutzen und weiterverarbeiten. Das Recht auf freie Rede umfasst aus dieser Sicht auch ein Recht, Informationen zu empfangen. Genau das macht den Punkt so brisant: Wer KI-Output beschränkt, beschränkt nicht nur Maschinen, sondern auch menschliche Kommunikation.

Warum ist das wichtig?

Wenn KI-Output unter freie Rede fällt, steigen die Hürden für staatliche Eingriffe erheblich. Regulierung wäre dann nicht mehr nur eine technische Marktordnung, sondern ein Grundrechtseingriff. Das verändert die gesamte Debatte.

Ökonomisch ist der Punkt noch schärfer: Strenge und unklare Regulierung trifft meist nicht alle gleich. Große Unternehmen können sich Compliance, Rechtsgutachten und politische Anschlussfähigkeit leisten. Kleinunternehmen und Open-Source-Initiativen können das oft nicht. Aus Regulierung wird dann schnell Markteintrittsschutz für etablierte Akteure. Eine gut gemeinte Regel kann so Innovation bremsen und Konzentration fördern.

Ist die Idee in Deutschland tragfähig?

Hier wird es spannend. In den USA ist die Argumentation deshalb stark, weil der First Amendment traditionell sehr weit ausgelegt wird. Das Paper stützt sich insbesondere auf die Idee, dass nicht nur Sprecher:innen, sondern auch Hörer:innen geschützt sind. Nutzer:innen dürfen Informationen empfangen, auch wenn deren Quelle ungewöhnlich ist. Diese Logik lässt sich auf generative KI übertragen.

In Deutschland ist die Lage anders. Artikel 5 des Grundgesetzes schützt die Meinungsfreiheit ebenfalls stark, aber nicht so absolut und nicht in derselben Dogmatik. Die deutsche Rechtsordnung arbeitet stärker mit Abwägungen: gegen Persönlichkeitsrechte, Jugendschutz, öffentliche Sicherheit und andere verfassungsrechtlich geschützte Güter. Deshalb dürfte ein deutsches Gericht LLMs eher als technisches Vermittlungsinstrument behandeln als als Träger besonders weitreichend geschützter Kommunikation.

Meine Einschätzung ist daher: Als intellektuelles Argument ist die Idee sehr stark. Als unmittelbare rechtliche Verteidigung gegen weitgehende Regulierung ist sie in Deutschland nur eingeschränkt tragfähig. Sie wird hier eher als Warnsignal wirken: Der Staat darf KI nicht so regulieren, als ginge es nur um Software. Es geht immer auch um Kommunikation, Zugang zu Wissen und die Freiheit, mit neuen Werkzeugen zu sprechen.

Viele deutsche Jurist:innen dürften deshalb eine Zwischenposition einnehmen. Sie würden wohl nicht sagen, dass jeder KI-Output wie klassische menschliche Meinungsäußerung zu behandeln ist. Aber sie könnten anerkennen, dass Eingriffe in generative KI mittelbar Grundrechte der Nutzer:innen berühren. Das wäre keine Totalblockade für Regulierung, aber eine wichtige Begrenzung überzogener Eingriffe.

Was folgt daraus?

Die politische Lehre ist einfach: KI-Regulierung sollte nicht nur auf Risiken schauen, sondern auch auf Freiheitsverluste. Je allgemeiner und unbestimmter die Regeln, desto größer ist die Gefahr, dass nützliche, produktive und legale Kommunikation mitgetroffen wird.

Gerade in Europa ist das entscheidend. Wer Grundrechte ernst nimmt, sollte nicht nur fragen, welche Schäden KI verursachen kann. Er sollte auch fragen, welche gesellschaftlichen Kosten entstehen, wenn man neue Informationswerkzeuge zu früh, zu breit oder zu unpräzise beschränkt. Und natürlich welchen Nutzen die KI stiften kann.

Fazit: Wer LLMs reguliert, reguliert nie nur Technik. Er reguliert immer auch den Zugang zu Wissen und die Freiheit, Sprache produktiv zu nutzen.

Disclaimer: Ich bin kein Jurist. Als Ökonome habe ich nur eine begrenzte Kompetenz in juristischer Regulierungstheorie.

Comments

Popular posts from this blog

Riesiger Datenschatz: „Fredde Mac Single Familiy Dataset“!

Aktuell arbeite ich mit Begeisterung am ' Fredde Mac Single Family Dataset ', einem wahren Datenschatz. Diesen entdeckte ich zufällig während der Begutachtung eines Konferenzbeitrags – zu meiner großen Überraschung. Freddie Mac stellt diesen Datensatz zur Verfügung, weil die Aufsichtsbehörde (Federal Housing Finance Agency - FHFA) es so will. Das Ziel? Mehr Transparenz schaffen und Investoren helfen, bessere Modelle für Kreditgeschäfte zu entwickeln. Ein großes Dankeschön an die Behörde dafür!