Entwicklung einer automatisierten Lösung zur Überprüfung von Dokumenten mithilfe von Generativer KI
- Kunde
- Industry
- Service
- Segment
- Autor
- MRH Trowe
- Versicherung
- Generative KI
- SMB
- Jodie Rhodes
Auf einen Blick
MRH Trowe bietet Versicherungs-, Finanz- und Risikomanagement-Dienstleistungen an, die Unternehmen und Privatpersonen dabei helfen, ihr Vermögen zu schützen, Risiken zu mindern und finanzielle Ziele zu erreichen.
Herausforderung
Lösung
Erstellung einer automatisierten Lösung, die die gewünschten Daten aus mehreren Dokumenten abrufen und in einer einfach zu betrachtenden und zu versendenden CSV-Datei auflisten kann.
Genutzte Dienste
- PULSE von Firemind
- Amazon SageMaker
- Amazon Bedrock
- Amazon S3
Ergebnisse
- 7 Minuten Extraktionszeit (von ursprünglich 2,5 Stunden).
- 4 Monate Umsetzungszeit vom ersten Meeting bis zur Projektabnahme.
Geschäftliche Herausforderungen
Freisetzung von wertvoller Zeit für Kundenbetreuer
MRH Trowe übermittelt im Auftrag von menschlichen Gutachtern Immobiliendaten an Versicherungsgesellschaften, vermittelt die Kommunikation mit den Versicherern und stellt Angebote für Immobilienversicherungen bereit. Zu diesem Zweck erhält MRH Trowe unstrukturierte, kaum formatierte PDF-Dateien (die so genannten „Bewertungen“), welche die erforderlichen Informationen (die so genannten „grünen Felder“) über die Immobilie enthalten, die von den Versicherungsgesellschaften geprüft werden sollen. Optionale Informationen zur Immobilie werden als „gelbe Felder“ bezeichnet.
Die Kundenbetreuer von MRH Trowe überprüfen manuell diese komplizierten und langwierigen Dokumente und extrahieren grüne und gelbe Felder in eine Excel-Tabelle zur Überprüfung durch die Versicherung. Dieser zeitaufwändige und fehleranfällige Prozess reduziert die Bandbreite der Kundenbetreuer von MRH Trowe, was zu Geschäftseinbußen führen kann. MRH Trowe benötigte eine automatisierte Lösung für den Dokumentenprozess, welche die Extraktion der grünen und gelben Felder beschleunigt. Nach der Extraktion in ein Excel-Dokument konnte das endgültige Artefakt von den Kundenbetreuern von MRH Trowe überprüft werden, bevor es zur abschließenden Prüfung an die Versicherungsgesellschaft geschickt wurde.
Stehst Du vor ähnlichen Herausforderungen?
Wir sind Spezialisten für die Lösung von Problemen mit Daten und KI. Lass uns Dir helfen, die Vorteile der Cloud zu nutzen.
Was unsere Kunden sagen
Höre direkt von denjenigen, die unsere Dienstleistungen in Anspruch genommen haben. Entdecke, wie wir für unsere Kunden den Unterschied gemacht haben.
Dr. Malte Polley
"The solution is significantly outperforming OpenAI and providing much better results."
Lösung
Automatisierung der Datenerfassung mit Generativer KI
Bei diesem Projekt ging es um die erfolgreiche Entwicklung und Bereitstellung eines AWS-basierten Proof-of-Concept (PoC), der die Effizienz der Large Language Model (LLM)-Inferenz bei der Umwandlung unstrukturierter Daten in strukturierte Dokumente demonstrierte. Das Ziel war die Verarbeitung von PDF-Dokumenten durch einen gut designten AWS-Workflow, der Dienste wie Amazon Textract, AWS Lambdas, Amazon SageMaker und AWS Step Functions nutzt.
Der Prozess begann mit dem Hochladen von PDF-Dokumenten in einen Amazon S3-Bucket, was Textract dazu veranlasste, den Rohtext zu extrahieren. Eine Lambda-Funktion verarbeitete anschließend die Daten in handhabbare Stücke. Für die Inferenz in Echtzeit wurde ein LLM auf SageMaker verwendet, das während der Dokumentenverarbeitung aktiviert und nach der Verarbeitung deaktiviert wurde.
AWS Step Functions orchestrierten den Workflow und umfassten zwei wichtige „Map“-Methoden. Die erste verarbeitete Prompts aus einem Dokument, während die zweite Textbausteine verarbeitete. Eine Lambda Function extrahierte definierende Informationen aus LLM-Ausgaben für jeden Prompt und Chunk. Die resultierenden Informationen wurden erfolgreich in die erforderlichen Formate für die weitere Verarbeitung durch MRH Trowe umgewandelt.
In Anbetracht des zu diesem Zeitpunkt experimentellen Charakters von LLMs war das primäre Ergebnis des Projekts die AWS-Infrastruktur, die die Fähigkeiten des LLMs mit unstrukturierten Daten demonstrierte. Die skizzierte Lösung bot einen vielseitigen Rahmen, der die Grundlage für zukünftige Entwicklungen, Verfeinerungen und Anwendungsfälle über die PoC-Phase hinaus bildete.
Stehst Du vor ähnlichen Herausforderungen?
Wir sind Spezialisten darin, Generative KI für Unternehmen nutzbar zu machen.
Extraktion mit Superkräften
Die Kundenbetreuer von MRH Trowe überprüften diese komplizierten und langwierigen Dokumente manuell, wobei die durchschnittliche Zeit, die ein Kundenbetreuer für die Überprüfung benötigte, bei 2,5 Stunden lag. Unsere Lösung reduziert diese Zeit auf etwa 7 Minuten, so dass die Kundenbetreuer sich anderen wichtigen Aufgaben widmen können und mehr Zeit für Gespräche mit aktuellen und potenziellen Kunden zur Verfügung haben.
Höhere Genauigkeit
Die Lösung wird zu höheren Genauigkeitsbewertungen führen, sowohl bei Daten im grünen als auch im gelben Bereich. Da die Dateien mit einem konsistenteren Ablauf abgefragt werden können, der im Laufe der Zeit verfeinert werden kann, werden die Datenprüfung und der gesamte Prozess mit der Zeit genauer. Dies führt zu konsistenten Ergebnissen, die es den Kundenbetreuern ermöglichen, sich um dringendere Aufgaben zu kümmern.
Model Spotlight

Anthropic ist ein Forschungsunternehmen für künstliche Intelligenz mit Sitz in der San Francisco Bay Area. Das 2021 gegründete Unternehmen konzentriert sich auf die Entwicklung von sicheren und ethischen KI-Systemen, insbesondere von KI-Assistenten, die in der Lage sind, einen offenen Dialog zu führen und eine breite Palette von Aufgaben zu erfüllen.
Anthropic hat bemerkenswerte Modelle wie Claude entwickelt und erforscht Techniken wie die „konstitutionelle KI“, um seine KI mit robusten ethischen Prinzipien zu versehen. Unter der Leitung eines Teams prominenter KI-Forscher positioniert sich Anthropic als aufstrebender Marktführer im Bereich der nützlichen KI-Entwicklung und setzt sich dafür ein, dass KI-Fähigkeiten im Einklang mit menschlichen Werten entwickelt werden.
Claude 3 Haiku
Ursprünglich haben wir für dieses Projekt Claude 2 von Anthropic verwendet, da es aufgrund seiner 100K Token-Kontextlänge MRH Trowe in die Lage versetzte, große, komplexe Dokumente schnell und effizient zu verarbeiten. Während des Projekts wurde Claude 3 Haiku von Anthropic veröffentlicht, so dass wir sofort auf das neue Modell umgestellt haben.
Dieses Modell reduzierte die Zeit für die Extraktion von Dokumenten von 2,5 Stunden auf nur 7 Minuten, was die Produktivität erheblich steigerte. Dank der Fähigkeit des Modells, große Eingaben zu verarbeiten und dabei die Genauigkeit beizubehalten, konnte das Projekt innerhalb von nur vier Monaten abgeschlossen werden, wodurch sich sowohl die Geschwindigkeit als auch die Präzision der Datenextraktion drastisch verbesserte.
Kontakt aufnehmen
Möchten Sie mehr erfahren?
Haben Sie eine bestimmte Fallstudie oder einen Einblick gesehen und möchten Sie mehr erfahren? Oder denken Sie über Ihr nächstes Projekt nach? Schreiben Sie uns eine Nachricht!