OpenAI hat ein neues KI-basiertes Content-Moderation-Tool vorgestellt, das Unternehmen helfen soll, Nutzerinhalte effizienter auf beleidigende, gewaltverherrlichende oder illegale Inhalte zu prüfen. Gerade soziale Netzwerke, Gaming-Plattformen und Community-Foren stehen zunehmend unter Druck, Inhalte schnell und präzise zu moderieren, ohne dabei die Meinungsfreiheit einzuschränken. Die neue Lösung setzt auf maschinelles Lernen und soll kontextabhängig unterscheiden, ob ein Text z. B. harmloser Slang oder eine tatsächliche Drohung ist. IT- und Compliance-Experten sehen darin eine wichtige Unterstützung für Plattformbetreiber, um gesetzlichen Anforderungen wie dem Digital Services Act der EU gerecht zu werden. Details zum Tool gibt es bei OpenAI.
Geschrieben von Frankfurt IT-Service
Zeige alle Artikel von: Frankfurt IT-Service
Kommentare sind deaktiviert.