Meta setzt künftig auf KI statt Menschen bei Risikobewertungen
Meta plant eine Umstellung bei der Bewertung von Datenschutz- und Gesellschaftsrisiken seiner Plattformen. Künftig sollen bis zu 90 Prozent aller Risikoprüfungen für neue Features bei Instagram, WhatsApp und Facebook durch KI-Systeme erfolgen. Diese Änderung wurde durch interne Dokumente bekannt, die NPR vorliegen.
Bisher wurden Produktänderungen von menschlichen Prüfern auf mögliche Risiken wie Datenschutzverletzungen, Gefährdung von Minderjährigen oder die Verbreitung irreführender Inhalte untersucht. Das neue, automatisierte System soll den Entwicklungsteams nun deutlich schnellere Entscheidungen ermöglichen. Nach Ausfüllen eines Fragebogens erhalten sie eine „sofortige Entscheidung“ durch die KI, welche Risikobereiche identifiziert und entsprechende Anforderungen definiert.
Während Meta die Änderung als Effizienzgewinn darstellt, äußern aktuelle und ehemalige Mitarbeiter Bedenken. Sie befürchten, dass die KI-gesteuerte Bewertung die komplexen Auswirkungen von Plattform-Änderungen nicht ausreichend erfassen kann. Eine ehemalige Meta-Führungskraft warnt anonym vor erhöhten Risiken durch die beschleunigte Einführung neuer Features mit weniger gründlicher Prüfung.
Meta betont allerdings, dass für „neuartige und komplexe Themen“ weiterhin menschliche Expertise zum Einsatz kommt. Die internen Dokumente zeigen jedoch, dass auch sensible Bereiche wie KI-Sicherheit und Jugendschutz für die Automatisierung vorgesehen sind. Für EU-Nutzer gelten aufgrund strengerer Regulierung allerdings weiterhin besondere Schutzmaßnahmen durch das europäische Hauptquartier in Irland.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Was soll da schon bei den aktuellen Halluzinationsquoten selbst bei den Top-Modellen schief gehen lol
Meta kennt seit Jahren die schlechten Auswirkungen von Insta auf junge Menschen. Ob diese schlechten Entscheidungen von einem Mensch oder einer KI getroffen wird, ist gerade egal.
Diese ganzen erzwungenen Risikoabschätzungen sind eh Sicherheitstheater. Insofern ist es nicht schlimm, das Theater zu automatisieren. Ich hab da gar keine Sorge, dass das die Qualität der Abschätzung in irgendeiner Weise beeinträchtigt.