Was wäre, wenn die Regulierung von Large Language Models plötzlich nicht mehr nur Technologiepolitik wäre, sondern ein Fall für die Meinungsfreiheit? Dann würde aus einer Debatte über Sicherheit, Haftung und Kontrolle sehr schnell eine Debatte über Grundrechte. Genau hier setzt das Paper von Eugene Volokh, Mark A. Lemley und Peter Henderson an. Die Autoren argumentieren, dass der Output generativer KI rechtlich als geschützte Rede verstanden werden könnte. Nicht unbedingt, weil die KI selbst Rechte hat, sondern weil ihre Entwickler:innen und vor allem ihre Nutzer:innen Rechte haben, Informationen zu empfangen und mit Hilfe der Systeme selbst zu kommunizieren. Für die USA ist das ein starker Gedanke. Für Deutschland ist er interessant, aber deutlich weniger belastbar. Was ist das ökonomische Grundproblem? Im Kern geht es um die Kontrolle von Informationsproduktion. Staaten wollen Risiken von LLMs begrenzen: Desinformation, Manipulation, Diskriminierung oder gefährliche Inhalte....
Letzte Woche habe ich die 85. Jahreskonferenz von IAES in London besucht. Zusammen mit Mechthild Schrooten habe ich den gemeinsamen Beitrag über 'Preferences for non-cash payments' vorgestellt [ Link zu den Folien]. In unserem Beitrag gehen wir der Frage nach, warum immer mehr Menschen in der Eurozone elektronische Zahlungsmittel benutzen, insbesondere weil ihre Nutzung Kosten verursacht. Die traditionelle Theorie erklärt ihre Nutzung durch ökonomische Determinanten (z.B. Wachstum von Bruttoinalandpunkt, Wachstum des Volkseinkommens, Preis der Nutzung elektronischer Zahlungsmittel, Verfügbarkeit von Stellen, an den wir bargeldlos zahlen können, Zinsen für Geldanlagen und -aufnehmen etc.). Wir können in unserer empirischen Analyse aufzeigen, dass das bargeldlose Bezahlen auch durch länderspezifische Kulturmerkmale beeinflusst wird, z.B. der Neigung der Bevölkerung zu Risikovermeidung oder zu langfristigem Denken und Handeln. Ich war 'Discussent' zum interessanten Vor...