Die jüngste kambrische Explosion der Möglichkeiten von großen Sprachmodellen ist unglaublich aufregend. Jeden Monat gibt es neue Einsatzmöglichkeiten für diese Tools, von der schnellen und kostengünstigen Erstellung von Miniaturansichten für Ihre Blogbeiträge über das Verhalten von Personen, die grundsätzlich gegen Ihren Blogbeitrag sind und Kritik üben, bis hin zur kohärenten Übersetzung Ihrer Blogbeiträge in andere Sprachen - und das bei vollem Verständnis dessen, was Sie geschrieben haben!
Selbst in der Welt jenseits von Blog-Posts, falls es eine solche Welt gibt, birgt dieses im Entstehen begriffene Instrument ein enormes Potenzial. Aber Potenzial bedeutet auch, dass wir nicht wissen, was es am Ende tun wird, und das schafft ernsthafte, greifbare Geschäftsrisiken.
Wenn Sie jemanden bitten, einem LLM eine Frage zu stellen, wird er sofort an ChatGPT von OpenAI denken. Dies ist das zugänglichste und am einfachsten zu bedienende Tool. Mit ChatGPT kann jeder über einen Webbrowser Fragen stellen, und es generiert schnelle Antworten. Für den Durchschnittsnutzer ist das großartig, aber für jedes Unternehmen birgt diese Benutzerfreundlichkeit drei ernsthafte Probleme. Alle an ChatGPT gesendeten Daten werden von OpenAI zu Qualitäts- und Nachverfolgungszwecken gespeichert, die Quelle jeder Antwort ist unbekannt und die Antwort kann komplett erfunden sein...
OpenAI verfolgt die Eingaben der Nutzer, um ihr Produkt zu verbessern und um einen eventuellen Missbrauch des Systems zu verhindern. Dies ist ein völlig vernünftiges Verhalten von OpenAI, aber es gibt keinen Grund zu glauben, dass sie mit diesen Daten besonders sorgfältig umgehen. Darüber hinaus kann OpenAI nicht wirklich kontrollieren, welche Daten an ChatGPT übermittelt werden, so dass sie am Ende viele Informationen speichern, die sie eigentlich gar nicht wollen. So wurde zum Beispiel kürzlich festgestellt, dass Samsung-Mitarbeiter ChatGPT zur Fehlersuche in firmeneigener Software und zur Zusammenfassung von Sitzungsprotokollen verwendet haben.
Das zweite Problem ist, dass ChatGPT Anfragen beantwortet, ohne Quellen für seine Antworten zu nennen. ChatGPT macht Aussagen, die auf seinen Erkenntnissen beruhen, und leider müssen Sie dies so hinnehmen, wie es ist. Diese Informationen könnten urheberrechtlich geschützt sein, und Sie würden es nicht wissen, bis Sie ein Schreiben von Anwälten erhalten, die eine Verletzung des Urheberrechts behaupten. Getty Images hat den Ersteller eines Tools zur Erzeugung von LLM-Bildern wegen Urheberrechtsverletzung verklagt, nachdem festgestellt wurde, dass das Tool Bilder mit einem Wasserzeichen von Getty Images erzeugt hat. Es ist nicht unvernünftig zu argumentieren, dass alle Endnutzer, die diese Bilder verwenden, ebenfalls haftbar gemacht werden könnten. Die Codegenerierung ist ein weiterer Bereich, der Anlass zur Sorge gibt, auch wenn es bisher noch keine konkreten Beispiele gab - aber es scheint unvermeidlich.
Das größte Problem bei ChatGPT ist jedoch, dass diese LLMs "Halluzinationen" haben können, was im Branchenjargon als "unverhohlene Lügen" bezeichnet wird. Da ChatGPT keine Transparenz darüber hat, wie es zu den Antworten kommt, müssen die Nutzer in der Lage sein, die Antworten kritisch zu analysieren, um zu entscheiden, ob sie wahr sind, da ChatGPT und seinesgleichen immer mit absoluter Sicherheit antworten werden. Das kann Folgen haben, von Googles peinlichem Start bis hin zu einem Professor, der alle seine Studenten durchfallen ließ, nachdem ChatGPT fälschlicherweise behauptet hatte, Studentenaufsätze geschrieben zu haben - bis hin zum ungeheuerlichsten Beispiel, bei dem ein Anwalt ChatGPT benutzte, um seinen Schriftsatz vor Gericht zu verfassen, und ChatGPT sechs völlig falsche Quellen erfand, um das Argument zu stützen. Googles schlechtes Beispiel führte dazu, dass seine Marktbewertung um 100 Milliarden Dollar sank, der Universitätsprofessor seine Glaubwürdigkeit einbüßte und eine millionenschwere Klage vor Gericht möglicherweise abgewiesen wurde... Dies sind äußerst schwerwiegende Folgen, die sich leider leicht vermeiden lassen.
Unternehmen reagieren auf diese Tatsachen mit Richtlinien, die die Verwendung von OpenAI ohne Genehmigung verbieten. Es ist jedoch schwierig, die Einhaltung dieser Richtlinien zu verfolgen, da der Datenverkehr über einen verschlüsselten Browser abgewickelt wird, ohne dass eine Software erforderlich ist. Zum Glück, Vectra AI in der Lage, diese Aktivität in Ihrem Netzwerk zu erkennen, indem wir unsere vorhandenen Netzwerksensoren zur Erkennung einsetzen. Vectra NDR wurde entwickelt, um den gesamten Netzwerkverkehr in Ihrem Unternehmen zu überwachen, mit sorgfältig platzierten Sensoren, die den Datenverkehr in und aus Ihrem Netzwerk überwachen - aber auch innerhalb Ihres Netzwerks selbst. Diese Analysetiefe ist die Grundlage für unser leistungsstarkes KI-gesteuertes Erkennungs-Framework und ermöglicht zudem leistungsstarke Einblicke in die Compliance, die wir in unserem ChatGPT Usage Dashboard zusammengefasst haben.
Dieses Dashboard, das allen Kunden der Plattform Vectra kostenlos zur Verfügung steht, zeigt die Hosts in Ihrer Umgebung an, die aktiv mit OpenAI interagieren, indem es DNS-Anfragen an OpenAI-Server verfolgt, die von beliebigen Hosts gestellt werden. So können Compliance-Beauftragte nicht nur schnell eine Liste von Personen einsehen, die Konten bei OpenAI haben oder ein Interesse angemeldet haben, sondern auch aktiv überwachen, wer genau ein System nutzt und wie viel sie es nutzen.
Dieses Dashboard ist noch leistungsfähiger, da es die patentierte Host-ID-Attributionstechnologie von Vectra nutzt, um diese Nutzer bis in die Tiefe zu verfolgen. Selbst wenn sich die IP-Adressen von Rechnern ändern oder ein Laptop einem neuen Netzwerk beitritt, verfolgt Vectra dies als denselben Rechner, so dass das Dashboard genau anzeigt, wie oft ein Gerät auf ChatGPT zugreift - was Ihnen auch ermöglicht, schnell zu sehen, wen Vectra für den wahrscheinlichen Besitzer eines Rechners hält. Mit diesem Dashboard sehen Sie nicht nur, welche Hosts ChatGPT verwenden, sondern Sie wissen auch, wen Sie diesbezüglich kontaktieren müssen, und Sie haben diese Informationen innerhalb von Minuten, nicht Stunden.
Dies ist nur ein Beispiel dafür, wie die Plattform Vectra tiefe Einblicke in die Aktivitäten in Ihrem Unternehmen bietet und zeigt, wie sie durch die Verfolgung aktiver Compliance-Probleme bei der Einhaltung von Vorschriften in Ihrem Unternehmen helfen kann. Genauso wie unser Certificate Expiry Dashboard, das ablaufende Zertifikate überwacht, die in Ihrer Organisation aktiv genutzt werden, oder unser Azure AD Chaos Dashboard, das MFA-Umgehungen verfolgt. Vectra kann Compliance-Verantwortlichen wertvolle Einblicke bieten, nicht nur was in ihrer Organisation falsch konfiguriert ist, sondern welche Sicherheitsrisiken aktiv genutzt werden!
Weitere Informationen über die Plattform Vectra finden Sie hier.