Was wäre, wenn die Regulierung von Large Language Models plötzlich nicht mehr nur Technologiepolitik wäre, sondern ein Fall für die Meinungsfreiheit? Dann würde aus einer Debatte über Sicherheit, Haftung und Kontrolle sehr schnell eine Debatte über Grundrechte. Genau hier setzt das Paper von Eugene Volokh, Mark A. Lemley und Peter Henderson an. Die Autoren argumentieren, dass der Output generativer KI rechtlich als geschützte Rede verstanden werden könnte. Nicht unbedingt, weil die KI selbst Rechte hat, sondern weil ihre Entwickler:innen und vor allem ihre Nutzer:innen Rechte haben, Informationen zu empfangen und mit Hilfe der Systeme selbst zu kommunizieren. Für die USA ist das ein starker Gedanke. Für Deutschland ist er interessant, aber deutlich weniger belastbar. Was ist das ökonomische Grundproblem? Im Kern geht es um die Kontrolle von Informationsproduktion. Staaten wollen Risiken von LLMs begrenzen: Desinformation, Manipulation, Diskriminierung oder gefährliche Inhalte....
In den letzten Wochen habe Virologen und andere Experten ihre Einschätzungen der Lage treffend beschrieben und immer wieder darauf hingewiesen, warum es wichtig ist, Großveranstaltungen zu untersagen. Klassischerweise geht bei der Risikobeurteilung um die Wahrscheinlichkeit eines Risikoereignisses. Die leitende Beispielfrage soll in diesem Beitrag daher sein: ’Wie hoch ist die Wahrscheinlichkeit, bei einer Veranstaltung mit 42000 Menschen mindestens einen infizierten Überträger unter den Besuchern zu haben?‘ Ich will die Rechnung für eine Stadt mit 580.000 Einwohnern und 58 Infizierten anstellen. Ferner kommen die Besucher aus einer zufällig gezogenen Grundgesamtheit, d.h. Infizierte besuchen nicht absichtlich die Veranstaltung. Die Wahrscheinlichkeit, einen infizierten Träger als Veranstaltungsbesucher zu haben, lautet $P(Y\geq 1)=(1-P(Y=0))=(1-(1-\frac{i}{g})^b)=(1-(1-\frac{58}{580000})^{42000})$ (i: Anzahl Infizierter, g: Anzahl Stadteinwohner, b: Anzahl Veranstaltungsbes...