Was wäre, wenn die Regulierung von Large Language Models plötzlich nicht mehr nur Technologiepolitik wäre, sondern ein Fall für die Meinungsfreiheit? Dann würde aus einer Debatte über Sicherheit, Haftung und Kontrolle sehr schnell eine Debatte über Grundrechte. Genau hier setzt das Paper von Eugene Volokh, Mark A. Lemley und Peter Henderson an. Die Autoren argumentieren, dass der Output generativer KI rechtlich als geschützte Rede verstanden werden könnte. Nicht unbedingt, weil die KI selbst Rechte hat, sondern weil ihre Entwickler:innen und vor allem ihre Nutzer:innen Rechte haben, Informationen zu empfangen und mit Hilfe der Systeme selbst zu kommunizieren. Für die USA ist das ein starker Gedanke. Für Deutschland ist er interessant, aber deutlich weniger belastbar. Was ist das ökonomische Grundproblem? Im Kern geht es um die Kontrolle von Informationsproduktion. Staaten wollen Risiken von LLMs begrenzen: Desinformation, Manipulation, Diskriminierung oder gefährliche Inhalte....
Alle sollen diversifizieren. Doch warum lohnt es sich eigentlich zu diversifizieren? Wird lediglich das Risiko gesenkt oder gar auch die Rendite verbessert? Wie hoch sind die Kosten unzureichender Diversifikation? Die Kurzantworten: Die Kosten unzureichender Diversifikation sind in Simulationsstudien im Mittel nach 10 Jahren: in Bezug auf Rendite: ca. 3% weniger Rendite pro Jahr. in Bezug auf Risiko: ca. 12% mehr Risiko pro Jahr. Oder anders gesagt: Unzureichend diversifizierte Portfolios erleiden im Schnitt alle 4 Jahre einen Verlust, während für breit diversifizierte Portfolios Verluste unwahrscheinlich sind. in Bezug auf Sharpe-Ratio: ca. 8 mal weniger pro Jahr . Für eine reale Anlegerin auf dem deutschen Aktienmarkt gehen die Ergebnisse in die selbe Richtung.