Die Leute sprechen in der Nähe eines Meta -Schilds außerhalb des Hauptsitzes des Unternehmens in Menlo Park, Kalifornien. Jeff Chiu/AP Hide Caption
Schalter caption Jeff Chiu/AP
Als Meta jahrelang neue Funktionen für Instagram, WhatsApp und Facebook startete, bewerteten Teams von Rezensenten mögliche Risiken: Könnte dies die Privatsphäre der Benutzer verletzen? Könnte es Minderjährige Schaden zufügen? Könnte es die Verbreitung von irreführendem oder giftigem Gehalt verschlimmern?
Bis vor kurzem wurden in Meta als Datenschutz- und Integritätsprüfungen bekannt, fast ausschließlich von menschlichen Bewertern.
Laut internen Unternehmensdokumenten, die von NPR erhalten wurden, werden bald bis zu 90% aller Risikobewertungen automatisiert.
In der Praxis bedeutet dies, dass Dinge wie kritische Updates für die Algorithmen von Meta, neue Sicherheitsfunktionen und Änderungen daran, wie Inhalte über die Plattformen des Unternehmens geteilt werden dürfen, größtenteils von einem System genehmigt werden, das von künstlichen Intelligenz angetrieben wird.
In der Meta wird die Änderung als Gewinn für Produktentwickler angesehen, die nun schneller App -Updates und -funktionen veröffentlichen können. Die aktuellen und ehemaligen Meta -Mitarbeiter befürchten jedoch, dass der neue Automatisierungsschub zu den Kosten besteht, dass KI schwierige Bestimmungen darüber treffen kann, wie die Apps von Meta zu Schaden in der realen Welt führen könnten.
„Soweit dieser Prozess funktional mehr Dinge bedeutet, schneller zu starten, mit weniger strenger Prüfung und Opposition, schaffen Sie höhere Risiken“, sagte ein ehemaliger Meta -Manager, der aus Angst vor Vergeltungsmaßnahmen des Unternehmens Anonymität beantragte. „Negative externe Effekte von …