Was wäre, wenn die Regulierung von Large Language Models plötzlich nicht mehr nur Technologiepolitik wäre, sondern ein Fall für die Meinungsfreiheit? Dann würde aus einer Debatte über Sicherheit, Haftung und Kontrolle sehr schnell eine Debatte über Grundrechte. Genau hier setzt das Paper von Eugene Volokh, Mark A. Lemley und Peter Henderson an. Die Autoren argumentieren, dass der Output generativer KI rechtlich als geschützte Rede verstanden werden könnte. Nicht unbedingt, weil die KI selbst Rechte hat, sondern weil ihre Entwickler:innen und vor allem ihre Nutzer:innen Rechte haben, Informationen zu empfangen und mit Hilfe der Systeme selbst zu kommunizieren. Für die USA ist das ein starker Gedanke. Für Deutschland ist er interessant, aber deutlich weniger belastbar. Was ist das ökonomische Grundproblem? Im Kern geht es um die Kontrolle von Informationsproduktion. Staaten wollen Risiken von LLMs begrenzen: Desinformation, Manipulation, Diskriminierung oder gefährliche Inhalte....
Kann man messen, wie viel „Wissen“ eine Gesellschaft in der Vormoderne besaß? Und wenn ja: Trägt dieses Wissen dazu bei, dass manche Regionen aufsteigen und andere zurückfallen? Genau diese Fragen untersuchen Matthew Curtis, David de la Croix, Filippo Manfredini und Mara Vitale in ihrem LIDAM Discussion Paper 2025/12 . Methodischer Ansatz Die Methode ist ebenso originell wie clever: Statt spärlicher Lohnreihen oder eingeschränkter Einschreibungslisten nutzen die Autoren bibliographische Datenbanken (VIAF) und Wikipeadia-Einträge, um die „Sichtbarkeit“ einzelner Gelehrter zu erfassen. Aus neun Variablen, z. B. Anzahl der Publikationen, Vielfalt der Verlage oder Länge des Wikipedia-Artikels, wird ein Human Capital Index (HCI) konstruiert. Mathematisch geschieht das per Principal Component Analysis, sodass aus vielen Indikatoren ein Gesamtwert entsteht. Durch eine besondere Transformation werden „Superstars“ wie Erasmus oder Newton abgefedert, damit sie den Rest nicht domi...