Was wäre, wenn die Regulierung von Large Language Models plötzlich nicht mehr nur Technologiepolitik wäre, sondern ein Fall für die Meinungsfreiheit? Dann würde aus einer Debatte über Sicherheit, Haftung und Kontrolle sehr schnell eine Debatte über Grundrechte. Genau hier setzt das Paper von Eugene Volokh, Mark A. Lemley und Peter Henderson an. Die Autoren argumentieren, dass der Output generativer KI rechtlich als geschützte Rede verstanden werden könnte. Nicht unbedingt, weil die KI selbst Rechte hat, sondern weil ihre Entwickler:innen und vor allem ihre Nutzer:innen Rechte haben, Informationen zu empfangen und mit Hilfe der Systeme selbst zu kommunizieren. Für die USA ist das ein starker Gedanke. Für Deutschland ist er interessant, aber deutlich weniger belastbar. Was ist das ökonomische Grundproblem? Im Kern geht es um die Kontrolle von Informationsproduktion. Staaten wollen Risiken von LLMs begrenzen: Desinformation, Manipulation, Diskriminierung oder gefährliche Inhalte....
Über Denkfehler von Anlegern, nachhaltige Geldanlage und gute Fragen im Podcast. In der zweiten Folge meiner Podcast-Reihe im Bremer Börsenschnack ging es um zwei Themen, die für Anlegerinnen und Anleger heute besonders relevant sind: Behavioral Finance und Sustainable Finance (ESG) . Gemeinsam mit den hervorragend vorbereiteten Hosts Patrick Paech und Sascha Otto haben wir darüber gesprochen, warum Anleger oft nicht rational handeln, welche Denkfehler immer wieder auftreten, und wie man sich mit einfachen Regeln selbst austricksen kann. Im zweiten Teil der Folge stand ESG im Fokus: Wie stark beeinflussen Nachhaltigkeitskriterien tatsächlich Bewertungen und Anlageentscheidungen? Wo liegen Chancen, wo Risiken und wo beginnt Greenwashing? Auch die Frage nach möglichen Renditenachteilen nachhaltiger Investments wurde aus wissenschaftlicher Sicht eingeordnet. Besonders angenehm war erneu...