Was wäre, wenn die Regulierung von Large Language Models plötzlich nicht mehr nur Technologiepolitik wäre, sondern ein Fall für die Meinungsfreiheit? Dann würde aus einer Debatte über Sicherheit, Haftung und Kontrolle sehr schnell eine Debatte über Grundrechte. Genau hier setzt das Paper von Eugene Volokh, Mark A. Lemley und Peter Henderson an. Die Autoren argumentieren, dass der Output generativer KI rechtlich als geschützte Rede verstanden werden könnte. Nicht unbedingt, weil die KI selbst Rechte hat, sondern weil ihre Entwickler:innen und vor allem ihre Nutzer:innen Rechte haben, Informationen zu empfangen und mit Hilfe der Systeme selbst zu kommunizieren. Für die USA ist das ein starker Gedanke. Für Deutschland ist er interessant, aber deutlich weniger belastbar. Was ist das ökonomische Grundproblem? Im Kern geht es um die Kontrolle von Informationsproduktion. Staaten wollen Risiken von LLMs begrenzen: Desinformation, Manipulation, Diskriminierung oder gefährliche Inhalte....
In letzter Zeit habe ich empirische Analysen zum Thema Diversifikationspotenzial von Aktienportfolios durchgeführt. Die Höhe des Diversifikationspotenzials erscheint mir vor allem für das Risikomanagement wichtig. In Zeiten mit hohem Diversifikationspotenzial lässt sich eine Risikosenkung relativ einfach und ohne Derivate erreichen. Dagegen könnte eine Risikosenkung in Zeiten mit niedrigem Diversifikationspotenzial vermutlich nur durch den Kauf von Derivaten erreicht werden. Aus der Sicht von Ökonomen und Finanzwirten stellt sich die Sache relativ einfach dar. Das Diversifikationspotenzial sollte in 'normalen' Zeiten höher als in Krisenzeiten sein. In Krisenzeiten tendieren alle Wertpapiere am Wert zu verlieren. Wenn sich alle Preise in eine Richtung bewegen, kann eine Diversifikation eben nicht erreicht werden, die davon ausgeht, dass sich die Verluste und Gewinne von Wertpapieren ausgleichen. Doch wie sieht der tatsächliche Verlauf des Diversifikationspotenzials aus?