Deutschland gibt viel für Forschung aus und produziert sichtbar exzellente Wissenschaft. Der Beitrag von von Jannik Reigl stellt aber die wichtigere Frage: Vielleicht scheitert Deutschland nicht primär an der „Kommerzialisierung“, sondern an einem System, das früh wissenschaftliche Unabhängigkeit bremst, Risiko bestraft und Grundlagen- und Anwendungsforschung zu stark voneinander trennt. Dann ist nicht zu wenig Geld das Problem, sondern eine schlechte institutionelle Architektur. Ökonomisch ist das ein klassischer Anreizfall: Wenn junge Forschende mit kurzen Verträgen, starker Hierarchie und unsicherer Perspektive leben, dann wählen sie eher sichere, publizierbare Projekte statt riskanter Durchbrüche. Das maximiert die private Überlebenswahrscheinlichkeit, aber nicht den gesellschaftlichen Ertrag. Genau deshalb ist der vollständige Beitrag lesenswert: Er zeigt, warum ein Land zugleich wissenschaftlich stark wirken und bei radikaler Innovation dennoch zu vorsichtig sein kann. De...
In der empirischen Forschung gibt es ein klassisches Problem: Die meisten interessanten Daten sind qualitativ, nicht quantitativ. Reden von Politikern, Geschäftsberichte, Social-Media-Posts, Zeitungsartikel oder historische Dokumente enthalten wertvolle Informationen, aber sie lassen sich schwer in Zahlen übersetzen. Genau hier setzt ein neues Forschungsprojekt an, das im Februar 2026 als NBER Working Paper erschienen ist: „GPT as a Measurement Tool“ von Hemanth Asirvatham, Elliott Mokski und Andrei Shleifer. Die Autoren stellen darin eine Software vor, die dieses Problem lösen soll: GABRIEL. Die Grundidee ist überraschend einfach. Large Language Models wie GPT können Texte verstehen, ähnlich wie ein Mensch. Wenn man sie gezielt einsetzt, können sie daher qualitative Informationen systematisch bewerten und quantifizieren. Zum Beispiel: • Wie innovationsfreundlich ist eine politische Rede? • Wie toxisch ist ein Social-Media-Kommentar? • Wie technisch komplex ist eine neue Tec...