Was wäre, wenn die Regulierung von Large Language Models plötzlich nicht mehr nur Technologiepolitik wäre, sondern ein Fall für die Meinungsfreiheit? Dann würde aus einer Debatte über Sicherheit, Haftung und Kontrolle sehr schnell eine Debatte über Grundrechte. Genau hier setzt das Paper von Eugene Volokh, Mark A. Lemley und Peter Henderson an. Die Autoren argumentieren, dass der Output generativer KI rechtlich als geschützte Rede verstanden werden könnte. Nicht unbedingt, weil die KI selbst Rechte hat, sondern weil ihre Entwickler:innen und vor allem ihre Nutzer:innen Rechte haben, Informationen zu empfangen und mit Hilfe der Systeme selbst zu kommunizieren. Für die USA ist das ein starker Gedanke. Für Deutschland ist er interessant, aber deutlich weniger belastbar. Was ist das ökonomische Grundproblem? Im Kern geht es um die Kontrolle von Informationsproduktion. Staaten wollen Risiken von LLMs begrenzen: Desinformation, Manipulation, Diskriminierung oder gefährliche Inhalte....
Warum zahlen wir für „unsere“ Kaffeetasse mehr als für die gleiche Tasse im Regal? Dieses Phänomen nennt sich Endowment-Effekt: Sobald wir etwas besitzen, steigt sein Wert in unseren Augen. Die klassische Erklärung: Verlustangst. Wer etwas hat, fürchtet den Schmerz, es wieder herzugeben und zwar stärker, als er die Freude am Gewinn empfindet. Doch neuere Studien zeigen: Es reicht schon, das Gefühl von Besitz zu haben, auch ohne echtes Eigentum. Allein das kurze Anfassen oder die Vorstellung, etwas gehöre einem, macht es wertvoller. Psychologen sprechen hier von psychologischem Eigentum . Ein Experiment macht das deutlich: Nicht-Besitzer waren bereit, nur rund $2,47 für eine Tasse zu zahlen. Besitzer-Verkäufer verlangten dagegen im Schnitt $4,26. Besitzer-Käufer, die bereits eine Tasse hatten und eine zweite kaufen sollten, boten im Schnitt $4,52. D.h. genauso viel wie Verkäufer! Besitz, oder besser gesagt das Gefühl davon, hebt den Wert also deutlich. Qu...