Skip to main content

Posts

Showing posts from February, 2026

LLM-Regulierung als Frage der Meinungsfreiheit?

Was wäre, wenn die Regulierung von Large Language Models plötzlich nicht mehr nur Technologiepolitik wäre, sondern ein Fall für die Meinungsfreiheit? Dann würde aus einer Debatte über Sicherheit, Haftung und Kontrolle sehr schnell eine Debatte über Grundrechte. Genau hier setzt das Paper von Eugene Volokh, Mark A. Lemley und Peter Henderson an. Die Autoren argumentieren, dass der Output generativer KI rechtlich als geschützte Rede verstanden werden könnte. Nicht unbedingt, weil die KI selbst Rechte hat, sondern weil ihre Entwickler:innen und vor allem ihre Nutzer:innen Rechte haben, Informationen zu empfangen und mit Hilfe der Systeme selbst zu kommunizieren. Für die USA ist das ein starker Gedanke. Für Deutschland ist er interessant, aber deutlich weniger belastbar. Was ist das ökonomische Grundproblem? Im Kern geht es um die Kontrolle von Informationsproduktion. Staaten wollen Risiken von LLMs begrenzen: Desinformation, Manipulation, Diskriminierung oder gefährliche Inhalte....

Citrini Research: KI, Nachfrage und systemisches Risiko

Die „Global Intelligence Crisis" von Citrini Research entwirft ein drastisches Szenario: massive White-Collar-Verdrängung durch KI, kollabierende Nachfrage, Finanzbeschleuniger über Private Credit und Hypothekenmärkte und schließlich eine systemische Rezession. Dieser Beitrag formalisiert die Kanäle explizit – und identifiziert die Parameterrestriktionen, unter denen das Szenario überhaupt eintreten kann. Motivation Alex Imas hat gezeigt, dass fortgeschrittene Automatisierung unter bestimmten, extremen Annahmen tatsächlich ein negatives Wirtschaftswachstum trotz steigender technologischer Möglichkeiten erzeugen kann – hält aber fest: „[...] that the conditions needed for growth to actually turn negative are likely too unrealistic to hold in practice." Noah Smith argumentiert ähnlich: Derartige Narrative können makroökonomisch überzogen sein. Er weist zudem darauf hin, dass Citrinis Analyse keine expliziten Modelle vorschlägt....

Weniger Schätzen, besser Tracken: Wie charakteristikabasierte Modelle Indexfonds verbessern

Indexfonds gelten als simpel. Doch wer einen Index wie den S&P 500 oder den STOXX Europe 600 mit nur 20, 40 oder 100 Titeln nachbilden möchte, steht vor einer anspruchsvollen Optimierungsaufgabe. Unser neuer Beitrag in der European Journal of Operational Research zeigt: Das Hauptproblem im Index-Tracking ist nicht die Optimierung selbst, sondern der Schätzfehler. Traditionelle Tracking-Ansätze basieren auf historischen Renditen oder geschätzten Faktorladungen aus Zeitreihenmodellen. Beide Ansätze benötigen viele Parameter und viele Parameter bedeuten viele Schätzfehler. Optimierungsmodelle tendieren dazu, diese Fehler systematisch zu verstärken. Das Resultat: Gute In-Sample-Performance, aber schwache Out-of-Sample-Ergebnisse. Statt geschätzter Faktorladungen verwenden wir beobachtbare Unternehmenscharakteristika als Risikopositionen: Größe Bewertung (Value) Profitabilität Investition Momentum Markt-Beta Diese werden in ein kardinalitätsbeschränktes Mixed-Integ...