In der empirischen Forschung gibt es ein klassisches Problem: Die meisten interessanten Daten sind qualitativ, nicht quantitativ. Reden von Politikern, Geschäftsberichte, Social-Media-Posts, Zeitungsartikel oder historische Dokumente enthalten wertvolle Informationen, aber sie lassen sich schwer in Zahlen übersetzen. Genau hier setzt ein neues Forschungsprojekt an, das im Februar 2026 als NBER Working Paper erschienen ist: „GPT as a Measurement Tool“ von Hemanth Asirvatham, Elliott Mokski und Andrei Shleifer. Die Autoren stellen darin eine Software vor, die dieses Problem lösen soll: GABRIEL. Die Grundidee ist überraschend einfach. Large Language Models wie GPT können Texte verstehen, ähnlich wie ein Mensch. Wenn man sie gezielt einsetzt, können sie daher qualitative Informationen systematisch bewerten und quantifizieren. Zum Beispiel: • Wie innovationsfreundlich ist eine politische Rede? • Wie toxisch ist ein Social-Media-Kommentar? • Wie technisch komplex ist eine neue Tec...
In den letzten Wochen habe Virologen und andere Experten ihre Einschätzungen der Lage treffend beschrieben und immer wieder darauf hingewiesen, warum es wichtig ist, Großveranstaltungen zu untersagen. Klassischerweise geht bei der Risikobeurteilung um die Wahrscheinlichkeit eines Risikoereignisses. Die leitende Beispielfrage soll in diesem Beitrag daher sein: ’Wie hoch ist die Wahrscheinlichkeit, bei einer Veranstaltung mit 42000 Menschen mindestens einen infizierten Überträger unter den Besuchern zu haben?‘ Ich will die Rechnung für eine Stadt mit 580.000 Einwohnern und 58 Infizierten anstellen. Ferner kommen die Besucher aus einer zufällig gezogenen Grundgesamtheit, d.h. Infizierte besuchen nicht absichtlich die Veranstaltung. Die Wahrscheinlichkeit, einen infizierten Träger als Veranstaltungsbesucher zu haben, lautet $P(Y\geq 1)=(1-P(Y=0))=(1-(1-\frac{i}{g})^b)=(1-(1-\frac{58}{580000})^{42000})$ (i: Anzahl Infizierter, g: Anzahl Stadteinwohner, b: Anzahl Veranstaltungsbes...