Skalierung der E-Mail-Datenextraktion mit LLMs bei Foxintelligence
- Kunde
- Industry
- Service
- Segment
- Autor
- Foxintelligence
- Einzelhandel
- AI/ML
- Enterprise
- Jodie Rhodes
Auf einen Blick
Foxintelligence, Teil von NielsenIQ, verbessert weltweit die Leistung digitaler Marken und Einzelhändler mit datenschutzfreundlichen Markt- und Shopper-Erkenntnissen.
Herausforderung
Foxintelligence stand vor der Herausforderung, unstrukturierte Daten, wie z.B. Kunden-E-Mails, effizient zu verarbeiten, wobei manuelle Prozesse die Skalierbarkeit ohne zusätzliche Mitarbeiter einschränkten.
Lösung
Firemind schlug ein Proof-of-Concept vor, das AWS-Services und eine serverless Architecture zur Automatisierung der Datenverarbeitung für Foxintelligence nutzt.
Genutzte Dienste
- Amazon Bedrock
- Amazonas Kendra
- AWS Lambda
- Amazon API Gateway
Ergebnisse
- Skalierbare LLM-Lösung, die 6.000 Parser ersetzen kann.
- Amazon Bedrock LLMs verbessern die Datengenauigkeit.
Geschäftliche Herausforderungen
Automatisierung der E-Mail-Datenextraktion für mehr Effizienz
Stehst Du vor ähnlichen Herausforderungen?
Wir sind Spezialisten für die Lösung von Problemen mit Daten und KI. Lass uns Dir helfen, die Vorteile der Cloud zu nutzen.
Was unsere Kunden sagen
Höre direkt von denjenigen, die unsere Dienstleistungen in Anspruch genommen haben. Entdecke, wie wir für unsere Kunden den Unterschied gemacht haben.
Régis Amichia
"The team was highly reactive, promptly addressing our needs and providing valuable insights that helped us advance in our R&D process. Firemind’s innovative approach and proactive suggestions made a significant impact on the project’s success."
Lösung
KI-gestützte Erkenntnisgewinnung leicht gemacht
Firemind half Foxintelligence bei der effizienten Verarbeitung unstrukturierter Daten, insbesondere der E-Mail-Kommunikation mit Kunden, und der Gewinnung von Erkenntnissen daraus. Foxintelligence, ein innovatives Unternehmen, das schnell in die Welt der KI und des maschinellen Lernens vordringt, verfügte über eine interne Innovationsabteilung, die das Potenzial dieser Technologien untersuchte, um ihre Abläufe zu verbessern und sich einen Wettbewerbsvorteil zu verschaffen.
Firemind schlug eine umfassendes Proof-of-Concept vor, welches verschiedene AWS-Dienste nutzt, um ein skalierbares, serverloses System zu schaffen. Der erste Schritt bestand darin, eine robuste Pipeline für die Data Ingestion einzurichten, die alle Textdokumente, einschließlich unstrukturierter Daten, verarbeiten konnte. Dies wurde durch die Nutzung von Amazon S3 erreicht, um die hochgeladenen Dokumente, wie z.B. Kunden-E-Mails, aufzunehmen und zu speichern.
Um eine intelligente semantische Suche zu ermöglichen, implementierte Firemind Amazon Kendra, mit dem das große Sprachmodell effizient die relevantesten Dokumente aus dem Datenspeicher abrufen konnte. Dies war eine entscheidende Komponente, da sie die Grundlage für den Chain-of-Thought-Reasoning-Prozess bildete, der das Herzstück der Lösung war.
Die Benutzeroberfläche wurde mit React entwickelt und auf Amazon S3 gehostet, wobei die Inhalte über CloudFront bereitgestellt wurden. Dieses Frontend wurde mit AWS WAF gesichert und in Amazon Cognito integriert, um sicherzustellen, dass nur authentifizierte Benutzer auf das System zugreifen können. Die Benutzeroberfläche bot eine Eingabemöglichkeit von Prompts, die es dem Team von Foxintelligence ermöglichte, Abfragen einfach einzugeben und Antworten aus dem umfangreichen Sprachmodell abzurufen.
Das Herzstück der Lösung war das Claude V2-Modells, das auf Amazon Bedrock gehostet wird. Dieses leistungsstarke große Sprachmodell wurde genutzt, um die von der semantischen Suche abgerufenen Daten zu analysieren und kontextbezogene Antworten auf die Benutzeranfragen zu geben. Die Kombination aus den Suchfunktionen von Kendra und den Schlussfolgerungsfähigkeiten des LLM ermöglichte es dem Team von Foxintelligence, wertvolle Erkenntnisse aus ihren unstrukturierten Daten zu gewinnen, manuelle Aufgaben zu automatisieren und sich auf höherwertige Aufgaben zu konzentrieren.
Das gesamte System wurde mit einer serverless Architecture entwickelt, die AWS Lambda und Amazon API Gateway für die Backend-Verarbeitung und API-Anfragen nutzt. Dieser Ansatz gewährleistete Skalierbarkeit, Kosteneffizienz und Wartungsfreundlichkeit und entsprach dem Commitment von Firemind für AWS Best Practices und Methoden.
Mit diesem Proof-of-Concept demonstrierte Firemind, wie Foxintelligence die Leistung von Generativer KI und AWS-Services nutzen konnte, um seine internen Abläufe zu optimieren und sein Geschäft zu skalieren, ohne die Zahl seiner Vollzeitmitarbeiter erhöhen zu müssen. Die Lösung bot eine flexible und sichere Plattform, die das Team von Foxintelligence in die Lage versetzte, Erkenntnisse zu gewinnen und manuelle Aufgaben zu automatisieren, was letztlich zu mehr Effizienz und Produktivität im Unternehmen führte.
Optimierte Datenverarbeitung
Mit der Lösung von Firemind konnte Foxintelligence die Aufnahme und Interpretation seiner unstrukturierten Daten, wie z.B. Kunden-E-Mails, automatisieren, wodurch sich das Team auf strategischere Initiativen konzentrieren konnte. Die Integration von AWS-Services wie Amazon Kendra und Amazon Bedrock bot eine skalierbare und effiziente Möglichkeit, wertvolle Erkenntnisse aus den Daten zu gewinnen.
Steigerung der Produktivität
Durch die Implementierung einer auf Prompts basierenden Benutzeroberfläche ermöglichte Firemind dem Team von Foxintelligence die einfache Interaktion mit dem umfangreichen Sprachmodell und den Abruf relevanter Informationen. Dadurch konnten sie manuelle Aufgaben schneller und mit größerer Genauigkeit erledigen, was zu einer erheblichen Produktivitätssteigerung und einer Verringerung des Personalbedarfs führte.
Kontakt aufnehmen
Möchtest Du mehr erfahren?
Hast Du eine bestimmte Fallstudie oder ein Thema gesehen und möchtest mehr erfahren? Oder denkst Du über Dein nächstes Projekt nach? Schreibe uns eine Nachricht!