In der empirischen Forschung gibt es ein klassisches Problem: Die meisten interessanten Daten sind qualitativ, nicht quantitativ. Reden von Politikern, Geschäftsberichte, Social-Media-Posts, Zeitungsartikel oder historische Dokumente enthalten wertvolle Informationen, aber sie lassen sich schwer in Zahlen übersetzen. Genau hier setzt ein neues Forschungsprojekt an, das im Februar 2026 als NBER Working Paper erschienen ist: „GPT as a Measurement Tool“ von Hemanth Asirvatham, Elliott Mokski und Andrei Shleifer. Die Autoren stellen darin eine Software vor, die dieses Problem lösen soll: GABRIEL. Die Grundidee ist überraschend einfach. Large Language Models wie GPT können Texte verstehen, ähnlich wie ein Mensch. Wenn man sie gezielt einsetzt, können sie daher qualitative Informationen systematisch bewerten und quantifizieren. Zum Beispiel: • Wie innovationsfreundlich ist eine politische Rede? • Wie toxisch ist ein Social-Media-Kommentar? • Wie technisch komplex ist eine neue Tec...
Eine gut gelaunte, aber ernst gemeinte Zusammenfassung eines aktuellen Essays Der Aufsatz „Will AI Improve Undergraduate Economics Education?“ von Matthew E. Kahn liest sich wie ein ehrlicher Lagebericht aus dem Inneren der universitären Lehre. Es ist geschrieben von jemandem, der sein Fach liebt, aber sehr genau sieht, dass „weiter so“ keine Option mehr ist. Kahn argumentiert nicht technikverliebt, sondern ökonomisch: KI ist ein neuer Produktionsfaktor im Bildungsprozess. Die entscheidende Frage ist nicht, ob sie genutzt wird, sondern wie . Das Grundproblem: Studierende, KI und zu wenig Zeit Kahn startet mit einer unbequemen Beobachtung: Viele heutige Studierende sind schlechter vorbereitet als frühere Kohorten. Weniger mathematische Grundlagen, geringere Konzentrationsfähigkeit, Lernlücken durch COVID. All das trifft auf ein Studium, das sich strukturell kaum verändert hat. Gleichzeitig ist KI immer verfügbar, geduldig, g...