Skip to main content

Posts

Showing posts from April, 2019

ChatGPT als Messinstrument: Die Software GABRIEL

In der empirischen Forschung gibt es ein klassisches Problem: Die meisten interessanten Daten sind qualitativ, nicht quantitativ.  Reden von Politikern, Geschäftsberichte, Social-Media-Posts, Zeitungsartikel oder historische Dokumente enthalten wertvolle Informationen, aber sie lassen sich schwer in Zahlen übersetzen. Genau hier setzt ein neues Forschungsprojekt an, das im Februar 2026 als NBER Working Paper erschienen ist: „GPT as a Measurement Tool“ von Hemanth Asirvatham, Elliott Mokski und Andrei Shleifer. Die Autoren stellen darin eine Software vor, die dieses Problem lösen soll: GABRIEL. Die Grundidee ist überraschend einfach. Large Language Models wie GPT können Texte verstehen, ähnlich wie ein Mensch. Wenn man sie gezielt einsetzt, können sie daher qualitative Informationen systematisch bewerten und quantifizieren. Zum Beispiel: • Wie innovationsfreundlich ist eine politische Rede? • Wie toxisch ist ein Social-Media-Kommentar? • Wie technisch komplex ist eine neue Tec...

Datastream: Kurzeinführung in die Datenbank | Teil 1

Jede empirische Studie ist so gut wie die Daten (und Methoden), die sie nutzt. Für empirische Kapitalmarktforschung sind naturgemäß die Kapitalmarktdaten wichtig.   Datastream  gehört zu den wichtigsten Datenbanken für Kapitalmarktdaten. Sie bietet den Zugang zur Vielzahl von Wertpapieren mit historisch lange zurückreichenden Zeitreihen (wichtig für Backtests) an. In diesem Blog (eher ein Vlog) erläutre ich, wie wir auf dem schnellsten Weg wichtigsten Informationen aus Datastream beziehen können.