Was wäre, wenn die Regulierung von Large Language Models plötzlich nicht mehr nur Technologiepolitik wäre, sondern ein Fall für die Meinungsfreiheit? Dann würde aus einer Debatte über Sicherheit, Haftung und Kontrolle sehr schnell eine Debatte über Grundrechte. Genau hier setzt das Paper von Eugene Volokh, Mark A. Lemley und Peter Henderson an. Die Autoren argumentieren, dass der Output generativer KI rechtlich als geschützte Rede verstanden werden könnte. Nicht unbedingt, weil die KI selbst Rechte hat, sondern weil ihre Entwickler:innen und vor allem ihre Nutzer:innen Rechte haben, Informationen zu empfangen und mit Hilfe der Systeme selbst zu kommunizieren. Für die USA ist das ein starker Gedanke. Für Deutschland ist er interessant, aber deutlich weniger belastbar. Was ist das ökonomische Grundproblem? Im Kern geht es um die Kontrolle von Informationsproduktion. Staaten wollen Risiken von LLMs begrenzen: Desinformation, Manipulation, Diskriminierung oder gefährliche Inhalte....
Nahezu täglich sehen wir Nachrichten, welche neusten Test die LLMs gelöst haben - und die Tests sind häufig sehr komplex, wie z.B. Zulassungsprüfungen von Anwälten oder medizinische Examina. Doch gleichzeitig ist es verblüffend, an welchen einfachen Fragen LLMs scheitern. Tyler Cowen schrieb, dass die LLMs die für die Menschen mit Internetzugang einfache Frage nicht richtig beantworten Name three famous people who all share the exact same birth date and year Das Scheitern der LLMs, diese und ähnlich einfachen Fragen zu beantworten, kann uns wichtige Hinweise liefern, wie diese funktionieren. Es ist vielleicht am besten zu sagen, dass LLMs unglaubliche Intuition, aber begrenzte Intelligenz zeigen. Sie können fast jede Frage beantworten, die in einem intuitiven Durchgang beantwortet werden kann. Und mit ausreichend Trainingsdaten und genügend Schritten können sie sich einer Art von begründeter Intelligenz annähern. Mit anderen Worten, es gibt eine "Zielverschiebung", bei der,...