In der empirischen Forschung gibt es ein klassisches Problem: Die meisten interessanten Daten sind qualitativ, nicht quantitativ. Reden von Politikern, Geschäftsberichte, Social-Media-Posts, Zeitungsartikel oder historische Dokumente enthalten wertvolle Informationen, aber sie lassen sich schwer in Zahlen übersetzen. Genau hier setzt ein neues Forschungsprojekt an, das im Februar 2026 als NBER Working Paper erschienen ist: „GPT as a Measurement Tool“ von Hemanth Asirvatham, Elliott Mokski und Andrei Shleifer. Die Autoren stellen darin eine Software vor, die dieses Problem lösen soll: GABRIEL. Die Grundidee ist überraschend einfach. Large Language Models wie GPT können Texte verstehen, ähnlich wie ein Mensch. Wenn man sie gezielt einsetzt, können sie daher qualitative Informationen systematisch bewerten und quantifizieren. Zum Beispiel: • Wie innovationsfreundlich ist eine politische Rede? • Wie toxisch ist ein Social-Media-Kommentar? • Wie technisch komplex ist eine neue Tec...
Die Kurzantwort lautet: sie senken das Risiko, gemessen mit der Volatilität. Gleichzeitig gibt es keinen Hinweis darauf, dass die Staatsausgaben die Renditen von Aktienmärkten erhöhen. In einer clever angelegten empirischen Analyse untersuchen Cortes, Vossmeyer und Weidenmier die Aktienmarktvolatilität in Kriegszeiten. Sie finden Hinweise, dass die US-amerikanische Aktienmarktvolatilität in Kriegszeiten sehr niedrig ist. Dieses scheinbar erstaunliche Ergebnis, nach dem die Aktienvolatilität in den als unsicher empfundenen Kriegszeiten niedrig ist, erklärt sich damit, dass die Investoren die Cash-Flows der Unternehmen aufgrund der Staatsausgaben einfacher prognostizieren können. Insbesondere die Rüstungsbranche weist niedrige Aktienmarktvolatilität auf; das lässt sich gerade auf die Staatsausgaben während der Kriegszeiten zurückführen. Abb. 1. Tabelle 2 aus ...