Statt sie zu löschen, will der Mutterkonzern zukünftig lieber Warnhinweise verteilen. Nach internen Diskussionen möchte man so eine Einschränkung der Redefreiheit umgehen.
Der Facebook-Konzern Meta wird mehr von Künstlicher Intelligenz erzeugte oder manipulierte Fotos und Videos mit Warnhinweisen auf seinen Plattformen lassen, statt sie zu löschen. Meta folgt mit der Änderung einer Empfehlung seines unabhängigen Aufsichtsgremiums, das eine Einschränkung der Redefreiheit befürchtete. Die Lockerung gilt nicht für Inhalte mit Hassrede, Mobbing oder Falschinformationen zu Wahlen, wie der Konzern mitteilte.
Meta will Inhalte unter anderem Anhand von Metadaten der Dateien mit der Kennzeichnung „Made with AI“ versehen. Außerdem soll eine hauseigene Technologie zum Einsatz kommen, die mit KI erstellte Beiträge automatisch erkennen soll. Die neuen Regeln sollen für Facebook, Instagram und den Kurznachrichtendienst Threads gelten.
Dank Fortschritten bei der KI-Technologie wird es immer einfacher, täuschend echt aussehende Bilder - und inzwischen auch Videos - von Software erstellen zu lassen. Damit lässt sich auch die öffentliche Meinung manipulieren. In Fällen, in denen diese Gefahr besonders groß ist, will Meta zusätzliche Markierungen besonders prominent platzieren.
Die neuen Kennzeichnungen sollen im Mai eingeführt werden. Zum Juli will Meta dann den bisherigen restriktiveren Umgang mit KI-Inhalten aufgeben.
© dpa-infocom, dpa:240406-99-578576/3
Zu den Kommentaren