Erschließen Sie den Wert Ihrer Daten mit selbstorganisierender KI
Jedes Unternehmen hat Daten. Das größte Problem für Unternehmen besteht darin, diese Daten zu nutzen und sie vom Rauschen zum Signal zu machen. Es wird immer eine ewige Diskussion darüber geben, wann Unternehmen ihre Daten wirklich verstehen werden. Stattdessen sollten Unternehmen daran denken, dass es viele Möglichkeiten gibt und immer geben wird, wie sie aus ihren Daten Rückschlüsse ziehen können, um einen größeren Nutzen daraus zu ziehen.
Einer der wichtigsten Vorteile, die wir unseren Kunden bei der Nutzung ihrer Daten bieten, ist der Einsatz von KI, insbesondere von Gen AI, um diese größeren Werte aus ihren Daten zu gewinnen.
Selbstorganisierende Daten für Finanzdienstleistungen
Daten gibt es überall, innerhalb und außerhalb von Organisationen. Eine der größten Aufgaben für jeden Mitarbeiter, der mit Daten zu tun hat, ist die korrekte Kennzeichnung dieser Daten, um ihre Nutzung zu verbessern.
Bei Firemind haben wir mit mehreren Kunden zusammengearbeitet, um sie auf diesem Weg zu unterstützen. Wir haben Gen AI eingesetzt, um selbstorganisierende Pipelines für interne und externe Daten zu erstellen, mit dem Ergebnis, dass die Mitarbeiter des Unternehmens gezielte Signale erhalten, die ihnen helfen, bessere Entscheidungen zu treffen.
Wenn dies mit der Modernisierung der Datenpipeline kombiniert wird, können Unternehmen über ein kontinuierliches Schwungrad an gebündelten Informationen verfügen, die so gruppiert sind, dass sie den maximalen Wert aus diesen Informationen ziehen.
Mehr als Einbettungen
Eine der Gefahren bei jeder Form der Modernisierung mit KI ist das Vertrauen darauf, dass „die KI es schon selbst herausfinden wird“.
Lassen Sie uns ein Szenario durchspielen: Stellen Sie sich vor, Sie haben drei Daten:
1. Torten unter £10
2. Torten unter £50
3. Torten unter £100
Wenn Sie diese Daten mit einer reinen Vektoreinbettung betrachten, stellen Sie fest, dass sich die drei Produkte sehr ähnlich sind, dass sie alle von Kuchen sprechen und dass es nur einen Unterschied im Vektorraum gibt.
Wir können diesen Test mit Amazon Bedrock auf AWS durchführen. Ich habe das ausgezeichnete Einbettungsmodell von Amazon Titan verwendet (amazon.titan-embed-text-v1):
texts = ["Cakes under £10", "Cakes under £50", "Cakes under £100", "Best season's potatoes"]
vectors = []
for text in texts:
response = bedrock.invoke_model(
body=json.dumps({"inputText": text}),
modelId="amazon.titan-embed-text-v1",
accept="*/*",
contentType="application/json",
)
vectors.append(json.loads(response.get("body").read().decode("utf-8"))["embedding"])
Die Vektorunterschiede zwischen 1, 2 und 3 liegen bei über 90% (92,9% bzw. 94,5%). Aus analytischer Sicht können wir selbst bei der Kosinusähnlichkeit feststellen, dass diese Kategorien einem Computergehirn sehr ähnlich sind.
Aus dem Kontext heraus wissen wir jedoch, dass, obwohl die Daten in Teil 3 auch Daten aus den Teilen 1 und 2 enthalten, wenn es sich um ein Empfehlungstool handelt und der Benutzer auf der Suche nach „Kuchen unter 10 £“ ist, die Anzeige von Kuchen über 10 £ eine schlechte Erfahrung ist.
Sich nur auf die Technologie zu verlassen, reicht möglicherweise nicht aus. Deshalb ist es so wichtig, den organisatorischen Ansatz für ihre Daten zu definieren.
Anmerkung: „definiert“ bedeutet nicht, dass es sich nicht ändern kann.
Die Magie der Systemabfrage
Große Sprachmodelle sind zwar unglaublich leistungsfähig, wenn es darum geht, mit brachialer Gewalt eine Antwort auf eine Eingabe zu erzwingen, die ihnen vorgelegt wird. Und in diesem Moment ist alles, was sie tun, eine Antwort mit roher Gewalt zu errechnen.
Das bedeutet, dass LLMs zwar ein unglaubliches Werkzeug im Arsenal eines jeden Unternehmens sind, dass aber auch in die Mitarbeiter des Unternehmens investiert werden muss, damit sie wirklich verstehen, wie sie dieser Maschine helfen können, besser mit ihrem Input zu denken.
Ein wichtiger Ansatz besteht darin, so viele Grundlagen wie möglich bereitzustellen, einschließlich der Systemanweisungen. Auf diese Weise können wir die Maschine mit den bestmöglichen Informationen ausstatten, die sie benötigt, um aus den Daten Schlüsse zu ziehen, einschließlich der Frage, wie sie diese Daten in Clustern organisieren kann, die von der Organisation genutzt werden können.
Und natürlich gibt es noch mehr. Bevor wir überhaupt an die Feinabstimmung denken, sollten wir „Multi-Shot“ verwenden (d.h. dem LLM eine große Anzahl möglicher Beispiele zur Verfügung stellen, wie Sie möchten, dass er die Daten schlussfolgert und zurückgibt) und Dokumente als Kontext bereitstellen (durch Anhänge oder RAG-Ansätze).
Diese Grundlage ist sehr wichtig, um dem Gehirn zu helfen, zu denken, sich selbst zu beschreiben und Daten selbst zu organisieren, damit sie zu informativen Signalen für die Organisationen werden.
Modernisierung Ihres Ansatzes zur Modernisierung
Einer der größten Vorteile von Firemind sind die Tools, Sandboxes und Rampen, die wir unseren Kunden zur Verfügung stellen. Wir helfen den Teams unserer Kunden, die Möglichkeiten ihrer Modernisierungsstrategie in kleinere, leicht verdauliche und testbare Sprints aufzuteilen, nach dem Motto „groß denken, klein anfangen, schnell skalieren“.
Ein Tool ist unsere PULSE-Suite. Damit können Unternehmen Gen AI-Tools sofort für ihre Organisationsteams einsetzen. PULSE hilft den Kundenteams, ihre menschliche Herangehensweise an die Auswertung ihrer Daten festzulegen, die dann zur Aktualisierung, Modernisierung und Organisation ihres Ansatzes zur Datenmodernisierung verwendet wird.
Partner mit Firemind
Das Team der KI- und Datenspezialisten von Firemind kann Ihnen helfen, die transformative Kraft der KI zu nutzen. Wir arbeiten mit Ihnen zusammen, um die richtigen KI-Lösungen und AWS Services für Ihre organisatorischen Anforderungen zu identifizieren, eine ethische Implementierung sicherzustellen und Ihre Rendite zu maximieren.
Kontakt aufnehmen
Möchten Sie mehr erfahren?
Haben Sie eine bestimmte Fallstudie oder einen Einblick gesehen und möchten Sie mehr erfahren? Oder denken Sie über Ihr nächstes Projekt nach? Schreiben Sie uns eine Nachricht!