Was wäre, wenn die Regulierung von Large Language Models plötzlich nicht mehr nur Technologiepolitik wäre, sondern ein Fall für die Meinungsfreiheit? Dann würde aus einer Debatte über Sicherheit, Haftung und Kontrolle sehr schnell eine Debatte über Grundrechte. Genau hier setzt das Paper von Eugene Volokh, Mark A. Lemley und Peter Henderson an. Die Autoren argumentieren, dass der Output generativer KI rechtlich als geschützte Rede verstanden werden könnte. Nicht unbedingt, weil die KI selbst Rechte hat, sondern weil ihre Entwickler:innen und vor allem ihre Nutzer:innen Rechte haben, Informationen zu empfangen und mit Hilfe der Systeme selbst zu kommunizieren. Für die USA ist das ein starker Gedanke. Für Deutschland ist er interessant, aber deutlich weniger belastbar. Was ist das ökonomische Grundproblem? Im Kern geht es um die Kontrolle von Informationsproduktion. Staaten wollen Risiken von LLMs begrenzen: Desinformation, Manipulation, Diskriminierung oder gefährliche Inhalte....
Deutschland gibt viel für Forschung aus und produziert sichtbar exzellente Wissenschaft. Der Beitrag von von Jannik Reigl stellt aber die wichtigere Frage: Vielleicht scheitert Deutschland nicht primär an der „Kommerzialisierung“, sondern an einem System, das früh wissenschaftliche Unabhängigkeit bremst, Risiko bestraft und Grundlagen- und Anwendungsforschung zu stark voneinander trennt. Dann ist nicht zu wenig Geld das Problem, sondern eine schlechte institutionelle Architektur. Ökonomisch ist das ein klassischer Anreizfall: Wenn junge Forschende mit kurzen Verträgen, starker Hierarchie und unsicherer Perspektive leben, dann wählen sie eher sichere, publizierbare Projekte statt riskanter Durchbrüche. Das maximiert die private Überlebenswahrscheinlichkeit, aber nicht den gesellschaftlichen Ertrag. Genau deshalb ist der vollständige Beitrag lesenswert: Er zeigt, warum ein Land zugleich wissenschaftlich stark wirken und bei radikaler Innovation dennoch zu vorsichtig sein kann. De...