Home
» Wiki
»
Microsoft kündigt neues Tool zur Erkennung und Korrektur halluzinogener Inhalte in KI-Ausgaben an
Microsoft kündigt neues Tool zur Erkennung und Korrektur halluzinogener Inhalte in KI-Ausgaben an
Azure AI Content Safety ist der KI-Dienst von Microsoft, der schädliche, KI-generierte Inhalte in Apps, Diensten und Plattformen erkennt. Er bietet sowohl Text- als auch Bild-APIs, sodass Entwickler unerwünschte Inhalte identifizieren können.
Die Groundedness-API in Azure AI Content Safety kann erkennen, ob die Antwort eines umfangreichen Sprachmodells auf einem vom Benutzer ausgewählten Quelldokument basiert. Da aktuelle umfangreiche Sprachmodelle ungenaue oder unechte Informationen (illusorische Informationen) generieren können, unterstützt diese API Entwickler bei der Identifizierung solcher Inhalte in der KI-Ausgabe.
Microsoft hat heute eine Vorschau seiner Fehlerkorrekturfunktionen angekündigt. Diese ermöglichen es Entwicklern, „wahnhafte“ Inhalte in KI-Ausgaben in Echtzeit zu erkennen und zu korrigieren. So wird sichergestellt, dass Endnutzer stets sachlich korrekte, KI-generierte Inhalte erhalten. So funktioniert es:
Der App-Entwickler aktiviert Bearbeitungsfunktionen.
Wenn unbegründete Daten erkannt werden, wird eine neue Anfrage an das KI-Modell gesendet, um den Fehler zu korrigieren.
Der LLM-Algorithmus ermittelt die Gesamtpunktzahl auf Grundlage maßgeblicher Dokumente.
Sätze, die für das zugrunde liegende, beglaubigte Dokument nicht relevant sind, können vollständig herausgefiltert werden.
Wenn der Inhalt aus einem Basisdokument stammt, schreibt das Basismodell den unbegründeten Satz so um, dass er mit dem Dokument übereinstimmt.
Zusätzlich zur Bearbeitungsfunktion hat Microsoft auch eine öffentliche Vorschau von Hybrid Azure AI Content Safety (AACS) angekündigt. Diese Funktion ermöglicht Entwicklern die Bereitstellung von Inhaltssicherheitsmechanismen in der Cloud und auf dem Gerät. Das eingebettete AACS SDK ermöglicht Echtzeit-Überprüfungen der Inhaltssicherheit direkt auf dem Gerät, auch ohne Internetverbindung.
Microsoft hat außerdem eine Vorschau der Funktion „Protected Materials Detection for Code“ angekündigt. Diese Funktion kann mit codegenerierenden KI-Anwendungen verwendet werden, um zu erkennen, ob LLM geschützten Code generiert. Diese Funktion war bisher nur über den Azure OpenAI-Dienst verfügbar. Microsoft stellt die Funktion nun auch Kunden zur Verfügung, die sie in Verbindung mit anderen codegenerierenden KI-Modellen verwenden können.