In der empirischen Forschung gibt es ein klassisches Problem: Die meisten interessanten Daten sind qualitativ, nicht quantitativ. Reden von Politikern, Geschäftsberichte, Social-Media-Posts, Zeitungsartikel oder historische Dokumente enthalten wertvolle Informationen, aber sie lassen sich schwer in Zahlen übersetzen. Genau hier setzt ein neues Forschungsprojekt an, das im Februar 2026 als NBER Working Paper erschienen ist: „GPT as a Measurement Tool“ von Hemanth Asirvatham, Elliott Mokski und Andrei Shleifer. Die Autoren stellen darin eine Software vor, die dieses Problem lösen soll: GABRIEL. Die Grundidee ist überraschend einfach. Large Language Models wie GPT können Texte verstehen, ähnlich wie ein Mensch. Wenn man sie gezielt einsetzt, können sie daher qualitative Informationen systematisch bewerten und quantifizieren. Zum Beispiel: • Wie innovationsfreundlich ist eine politische Rede? • Wie toxisch ist ein Social-Media-Kommentar? • Wie technisch komplex ist eine neue Tec...
Wenn wir den Wert von Gütern bestimmen wollen, können wir ein kleines Experiment durchführen. Man gibt der einen Gruppe der Teilnehmer, sog. „Verkäuferinnen“, zufällig ein Produkt, z.B. Kaffeetasse. Diese Personen dürfen die Tasse behalten, können sie aber auch wieder an den Experimentator:innen verkaufen. Dann sagen sie, welchen Mindestbetrag sie für die Tasse haben möchten. Eine andere Gruppe, sog. „Käuferinnen“ die keine Tasse bekommen hat, kann die Tasse von den Experimentator:innen kaufen. Sie geben dann an, wie viel sie maximal dafür ausgeben würden. Und damit nicht das Problem aufkommt, dass jemand gerade knapp bei Kasse ist oder sich reicher fühlt, weil er eine Tasse hat, gibt es noch eine dritte Gruppe, sog. „Wählerinnen“. Diese Gruppe kann wählen, ob sie Geld oder die Tasse will. Es zeigt sich oft , dass die Leute, die die Tasse besitzen, mehr Geld dafür verlangen, als die Käufer bereit sind zu zahlen. Bei Dingen wie Tassen, Schokolade oder Lotterielosen liegt dieses Verhält...