TextKernel untersucht Skalierbarkeit und Erschwinglichkeit von Generativer KI für CV-Parsing
Auf einen Blick
TextKernel ist ein weltweit führender Anbieter von Technologielösungen im Bereich der künstlichen Intelligenz für über 2.500 Unternehmen und Personaldienstleister.
Herausforderung
TextKernel nutzte Amazon Bedrock, um die Kosten- und Skalierbarkeitsprobleme beim Parsen von Lebensläufen in großen Mengen zu lösen.
Lösung
Firemind verwendete Amazon Bedrock, um einen Chain-of-Thought-Prozess zu erstellen, der TextKernel dazu befähigte, Lebenslaufdaten in Schlüsselfelder zu extrahieren, die in einer DynamoDB gespeichert waren.
Genutzte Dienste
- Amazon S3
- Amazon Bedrock
- AWS Lambda
- Amazon DynamoDB
Ergebnisse
- 40% Kostenreduzierung bei Verwendung von Amazon Bedrock
- 2-fache Geschwindigkeit im Vergleich zu OpenAI-Modellen.
Geschäftliche Herausforderungen
Verbesserung der Lebenslaufanalyse im großen Maßstab
TextKernel suchte nach einer Lösung für eine skalierbare und kosteneffiziente Nutzung von Generativer KI für ihr CV-Parsing-Verfahren. Das Hauptziel bestand darin, zu untersuchen, wie die fortschrittlichen Sprachmodelle der Amazon Bedrock Plattform genutzt werden können, um die Fähigkeiten zur Analyse von Lebensläufen zu verbessern und gleichzeitig erhebliche Kosteneinsparungen und Skalierungsvorteile im Vergleich zu OpenAI zu erzielen.
Durch die Zusammenarbeit mit Firemind bei der Entwicklung eines Proof-of-Concept auf Amazon Bedrock wollte TextKernel das Potenzial einer kosteneffizienten Nutzung Generativer KI in seinen Kernprozessen der Lebenslaufanalyse untersuchen.
Stehst Du vor ähnlichen Herausforderungen?
Wir sind Spezialisten für die Lösung von Problemen mit Daten und KI. Lass uns Dir helfen, die Vorteile der Cloud zu nutzen.
Was unsere Kunden sagen
Höre direkt von denjenigen, die unsere Dienstleistungen in Anspruch genommen haben. Entdecke, wie wir für unsere Kunden den Unterschied gemacht haben.
Mihai Rotaru
“In the first half of 2024, Firemind supported us in exploring and evaluating the cost-effectiveness of AWS Bedrock Large Language Models (LLMs) for our information extraction tasks on larger documents, while keeping or improving the quality. During this proof-of-concept, Firemind explored multiple LLMs and various usage strategies, balancing token usage and latency.
The outcomes were great: specific AWS Bedrock LLMs delivered a 40% cost reduction and twice the speed (at similar quality levels), compared to our current third-party LLM provider. Firemind's expertise and comprehensive approach have unlocked new technical opportunities for us that are both scalable and budget friendly.”
Lösung
Die Leistung der Generativen KI auf AWS nutzen
Um die Herausforderung von TextKernel zu meistern, schlug Firemind eine Lösung vor, die die Möglichkeiten von Amazon Bedrock nutzt, einem vollständig verwalteten Service, der eine Auswahl an leistungsstarken großen Sprachmodellen (LLMs) bietet. Das Team entwickelte einen definierten Chain-of-Thought-Prozess, der von TextKernel bereitgestellte Prompts verwendete, um Schlüsselinformationen aus Lebensläufen zu extrahieren, die dann in einer Amazon DynamoDB gespeichert wurden. Dieser Ansatz zielte darauf ab, die Prompt-Engineering-Logik zu optimieren und die Skalierung und die Kosten der Generativen KI für die Verbesserung der Lebenslauf-Parsing-Funktionen von TextKernel zu validieren.
Die Lösung nutzte andere AWS-Services, wie Amazon S3 für die Data. Ingestion, AWS Lambda für die Datenverarbeitung und AWS Step Functions für die Orchestrierung. Durch die Nutzung der Leistungsfähigkeit dieser AWS-Technologien wollte Firemind ein skalierbares und flexibles System schaffen, welches die hohe Anzahl der von TextKernel verarbeiteten Lebensläufe bewältigen kann.
Skalierbarkeit und Kosteneffizienz
Das günstigste der leistungsfähigen Amazon Bedrock-Modelle lieferte Ergebnisse mit Einsparungen von 12% bis 57%, im Vergleich zu den für das Projekt festgelegten Benchmark-Kosten, was zu potenziell erheblichen Kosteneinsparungen gegenüber OpenAI führt. Das leistungsfähigste LLM erreichte eine durchschnittliche maximale Zeit von 3,6 Sekunden, was 55 % der Gesamtzeit des 6,5-Sekunden-Benchmarks entspricht (fast doppelt so schnell wie OpenAI).
Model Spotlight

Anthropic ist ein Forschungsunternehmen für künstliche Intelligenz mit Sitz in der San Francisco Bay Area. Das 2021 gegründete Unternehmen konzentriert sich auf die Entwicklung von sicheren und ethischen KI-Systemen, insbesondere von KI-Assistenten, die in der Lage sind, einen offenen Dialog zu führen und eine breite Palette von Aufgaben zu erfüllen.
Anthropic hat bemerkenswerte Modelle wie Claude entwickelt und erforscht Techniken wie die „konstitutionelle KI“, um seine KI mit robusten ethischen Prinzipien zu versehen. Unter der Leitung eines Teams prominenter KI-Forscher positioniert sich Anthropic als aufstrebender Marktführer im Bereich der nützlichen KI-Entwicklung und setzt sich dafür ein, dass KI-Fähigkeiten im Einklang mit menschlichen Werten entwickelt werden.
Claude 3 Haiku
Wir wählten Claude 3 Haiku für dieses Projekt aufgrund seiner außergewöhnlichen Leistung bei der Textextraktion und seiner schnellen Verarbeitungszeiten. Haiku war die ideale Lösung für die Bearbeitung großer Mengen von Lebensläufen, da es unter den Claude 3 Modellen die geringste Latenzzeit aufwies und Aufgaben in der Hälfte der Zeit im Vergleich zu anderen Modellen bearbeitete.
Die minimale Verwendung von Token hat die Kosteneffizienz weiter verbessert und ermöglicht es TextKernel, ein hohes Maß an Präzision beim Resume-Parsing beizubehalten, ohne die Betriebskosten in die Höhe zu treiben.
Die Stärke von Haiku bei der Bereitstellung konsistenter Ausgabeformate, insbesondere JSON, stellte sicher, dass die Datenextraktion sowohl zuverlässig als auch schnell war und die Anforderungen von TextKernel hinsichtlich Skalierbarkeit und Erschwinglichkeit erfüllte.
Kontakt aufnehmen
Möchtest Du mehr erfahren?
Hast Du eine bestimmte Fallstudie oder ein Thema gesehen und möchtest mehr erfahren? Oder denkst Du über Dein nächstes Projekt nach? Schreibe uns eine Nachricht!