Was wäre, wenn die Regulierung von Large Language Models plötzlich nicht mehr nur Technologiepolitik wäre, sondern ein Fall für die Meinungsfreiheit? Dann würde aus einer Debatte über Sicherheit, Haftung und Kontrolle sehr schnell eine Debatte über Grundrechte. Genau hier setzt das Paper von Eugene Volokh, Mark A. Lemley und Peter Henderson an. Die Autoren argumentieren, dass der Output generativer KI rechtlich als geschützte Rede verstanden werden könnte. Nicht unbedingt, weil die KI selbst Rechte hat, sondern weil ihre Entwickler:innen und vor allem ihre Nutzer:innen Rechte haben, Informationen zu empfangen und mit Hilfe der Systeme selbst zu kommunizieren. Für die USA ist das ein starker Gedanke. Für Deutschland ist er interessant, aber deutlich weniger belastbar. Was ist das ökonomische Grundproblem? Im Kern geht es um die Kontrolle von Informationsproduktion. Staaten wollen Risiken von LLMs begrenzen: Desinformation, Manipulation, Diskriminierung oder gefährliche Inhalte....
Im laufenden Semester bin ich Gastprofessor (Adjunct Professor) in Cincinnati, OH, USA . Die Stadt ist fabelhaft und meiner Meinung nach definitiv einen Besuch wert. Über die Uni hatte ich die Gelegenheit, (wieder einmal) einen Vortrag von Stephen Kotkin von der Princeton University zu besuchen. Das Generalthema des Vortrages war 'sphere of influence'. Dem Inhalt seines Vortrages stimme ich absolut zu. Neben vielen interessanten Einsichten und sehr, sehr viel Detailwissen haben mich am meisten die folgenden Punkte bewegt: Allen geht es gut, aber alle klagen. Das scheint ein weiterverbreitetes Phänomen in den entwickelten Industrienationen zu sein. Warum ist so? Kotkin diskutiert diesen Punkt lange und bietet mehrere Thesen an; u.a. schlägt er auch vor, dass es vielleicht nicht allen gut geht. Er bringt das persönliche Beispiel seines Vaters an, der ohne Uni-Ausbildung und als Arbeiter sich ein Haus leisten konnte. Nach Kotkin ist derartiges heute in den USA nicht mehr mögl...