Kundengeschichten/Software und Internet
2022
Finch Computing reduziert die Inferenzkosten mithilfe von AWS Inferentia für die Sprachübersetzung um 80 %
80%ige Reduzierung der
Datenverarbeitungskosten
3 weitere Sprachen
aufgrund von Kosteneinsparungen unterstützt
Schnellere Markteinführung
für neue Produkte
Optimierte
Durchsatz- und Reaktionszeiten für Kunden
Weitere Kunden
von der Nutzung des Services angezogen
Übersicht
Finch Computing entwickelte eine Technologie für natürliche Sprachverarbeitung (NLP), um Kunden die Möglichkeit zu geben, Erkenntnisse aus riesigen Textdatenmengen zu gewinnen, und wollte Kundenanfragen nach Unterstützung zusätzlicher Sprachen erfüllen. Finch hatte seine eigenen neuronalen Übersetzungsmodelle unter Verwendung von Deep-Learning-Algorithmen mit einem hohen von GPUs abhängigen Datenverarbeitungsaufwand entwickelt. Das Unternehmen war auf der Suche nach einer skalierbaren Lösung, mit der globale Datenfeeds unterstützt und neue Sprachmodelle schnell wiederholt werden können, ohne übermäßig hohe Kosten in Kauf nehmen zu müssen.
Seit seiner Gründung verwendete Finch Lösungen von Amazon Web Services (AWS). Das Unternehmen begann, sich mit AWS Inferentia zu befassen, einem leistungsstarken Inferenzbeschleuniger für Machine Learning, der speziell von AWS entwickelt wurde, um Deep-Learning-Workloads zu beschleunigen. Mithilfe einer neuen Datenverarbeitungsinfrastruktur, die auf der Nutzung von AWS Inferentia basiert, senkte Finch seine Kosten im Vergleich zur Verwendung von GPUs um mehr als 80 Prozent und behielt gleichzeitig die Durchsatz- und Reaktionszeiten für seine Kunden bei. Mit einer leistungsstarken Datenverarbeitungsinfrastruktur konnte Finch seine Markteinführungszeit verkürzen, sein NLP-Angebot um drei weitere Sprachen erweitern und neue Kunden gewinnen.
Gelegenheit | Auf der Suche nach Skalierbarkeit und Kostenoptimierung für ML-Modelle
Mit Niederlassungen in Reston, Virginia, und Dayton, Ohio, bedient Finch – eine Kombination der Wörter „find“ und „search“ – Medienunternehmen und Datenaggregatoren, US-Geheimdienst- und Regierungsorganisationen sowie Finanzdienstleistungsunternehmen. Im Mittelpunkt seiner Produkte steht NLP, ein Teilgebiet der künstlichen Intelligenz, das Modellen beibringt, die Nuancen der menschlichen Sprache zu verstehen, einschließlich der Entschlüsselung von Ton und Absicht. Das Produkt Finch for Text verwendet dichte, parallele Berechnungen für Machine Learning (ML), die auf leistungsstarker, beschleunigter Datenverarbeitung beruhen, sodass es Kunden nahezu in Echtzeit Einblicke in ihre Informationsressourcen liefern kann. Die Funktion zur Begriffsklärung von Entitäten bietet Kunden beispielsweise die Möglichkeit, die korrekte Bedeutung eines Wortes zu interpretieren, das mehrere Bedeutungen oder Schreibweisen hat.
Finch erweiterte seine Kapazitäten, um Niederländisch zu unterstützen, woraus die Idee entstand, das Unternehmen weiter zu skalieren, um Französisch, Deutsch, Spanisch und andere Sprachen einzubeziehen. Diese Entscheidung war nicht nur deshalb wertvoll, weil die Kunden von Finch viele Inhalte in diesen Sprachen hatten, sondern auch, weil Modelle, die zusätzliche Sprachen unterstützen, neue Kunden gewinnen konnten. Finch musste einen Weg finden, eine erhebliche Menge zusätzlicher Daten zu verarbeiten, ohne die Durchsatz- oder die Reaktionszeiten zu beeinträchtigen – beides wichtige Faktoren für seine Kunden – oder die Bereitstellungskosten zu erhöhen.
Auf der AWS re:Invent 2021, einer jährlichen Konferenz, die von AWS für die globale Cloud-Computing-Community veranstaltet wird, informierten sich Vertreter von Finch über AWS-Inferentia-basierte Instances in der Amazon Elastic Compute Cloud (Amazon EC2), die sichere und skalierbare Datenverarbeitungskapazität für praktisch jeden Workload bietet. AWS stellte Finch dem AWS-Partner Slalom vor, einem Beratungsunternehmen, das sich auf Strategie, Technologie und Geschäftstransformation konzentriert. Nach der AWS re:Invent arbeiteten die Teammitglieder von Slalom und Finch zwei Monate lang daran, eine kostengünstige Lösung zu entwickeln. „Wir haben uns nicht nur vom AWS-Team beraten lassen, sondern auch Kontakt zu Slalom aufgenommen, was uns geholfen hat, unsere Workloads zu optimieren und dieses Projekt zu beschleunigen“, sagt Scott Lightner, Gründer und Chief Technology Officer von Finch.
Angesichts der Kosten für GPUs hätten wir unseren Kunden einfach keine zusätzlichen Sprachen anbieten und gleichzeitig unser Produkt rentabel halten können. Amazon-EC2-Inf1-Instances haben diese Gleichung für uns verändert.“
Scott Lightner
CTO und Gründer, Finch Computing
Lösung | Aufbau einer Lösung mit AWS Inferentia
Gemeinsam entwickelten Finch und Slalom eine Lösung, die den Einsatz der auf AWS Inferentia basierenden Amazon-EC2-Inf1-Instances optimierte, die leistungsstarke ML-Inferenz zu geringen Kosten in der Cloud bieten. „Angesichts der Kosten für GPUs hätten wir unseren Kunden einfach keine zusätzlichen Sprachen anbieten und gleichzeitig unser Produkt rentabel halten können“, so Lightner. „Amazon-EC2-Inf1-Instances haben diese Gleichung für uns verändert.“
Die firmeneigenen Deep-Learning-Übersetzungsmodelle liefen auf PyTorch in AWS, einem Open-Source-Deep-Learning-Framework, das es einfach macht, ML-Modelle zu entwickeln und in der Produktion einzusetzen. Finch nutzte Docker, um seine PyTorch-Modelle zu containerisieren und bereitzustellen. Finch migrierte diese datenverarbeitungsintensiven Modelle von GPU-basierten Instances zu Amazon-EC2-Inf1-Instances, die von AWS Inferentia unterstützt werden. Amazon-EC2-Inf1-Instances wurden entwickelt, um eine Vielzahl von Modellen zu beschleunigen – von Computer Vision bis NLP. Das Team konnte eine Lösung entwickeln, die unterschiedliche Modellgrößen bot und den gleichen Durchsatz beibehielt wie bei der Verwendung von GPUs, aber zu deutlich geringeren Kosten. „Mit AWS Inferentia sind wir in der Lage, den erforderlichen Durchsatz und die Leistung zu einem Preis zu erzielen, den sich unsere Kunden leisten können“, so Lightner.
Die Strategie beinhaltete die Bereitstellung von Docker-Containern für Amazon Elastic Container Service (Amazon ECS), einen vollständig verwalteten Container-Orchestrierungsservice, der es Unternehmen erleichtert, containerisierte Anwendungen bereitzustellen, zu verwalten und zu skalieren. Die Lösung umfasste AWS Deep Learning AMIs (DLAMI), vorkonfigurierte Umgebungen zur schnellen Erstellung von Deep-Learning-Anwendungen. Finch schloss die AWS-Inferentia-AMIs an seine DevOps-Pipeline an und aktualisierte seine Infrastructure-as-Code-Vorlagen, um AWS Inferentia für die Ausführung maßgeschneiderter Container mit Amazon ECS zu verwenden. „Nachdem wir unsere DevOps-Pipeline in Amazon-EC2-Inf1-Instances und Amazon ECS ausgeführt hatten, konnten wir schnell mehr Deep-Learning-Modelle bereitstellen“, sagt Franz Weckesser, Chief Architect bei Finch. Tatsächlich hat Finch in nur 2 Tagen ein Modell zur Unterstützung der ukrainischen Sprache entwickelt. Innerhalb weniger Monate implementierte Finch drei zusätzliche ML-Modelle, die NLP in Deutsch, Französisch und Spanisch unterstützten, und verbesserte die Leistung seines bestehenden niederländischen Modells.
Mithilfe von Amazon-EC2-Inf1-Instances verbesserte das Unternehmen die Geschwindigkeit der Entwicklung dieser neuen Produkte und senkte gleichzeitig die Inferenzkosten um mehr als 80 Prozent. Die neuen Modelle zogen Kunden an, die daran interessiert waren, Erkenntnisse aus den zusätzlichen Sprachen zu gewinnen, und es gab positive Rückmeldungen von Bestandskunden. „Es ist immer schwierig, umfassende Änderungen an der Infrastruktur vorzunehmen“, sagt Lightner. „Aber wir konnten sie mit der Beharrlichkeit unseres Teams mit Hilfe von Slalom und AWS schnell überwinden. Bei diesem Endergebnis hat sich der Aufwand gelohnt.“
Ergebnis | Migration zusätzlicher Anwendungen zu AWS Inferentia
Finch plant, weitere Modelle zu AWS Inferentia zu migrieren. Zu diesen Modellen gehören Sentiment Assignment, das einen Inhalt als positiv, negativ oder neutral identifiziert, und eine neue Funktion namens Relationship Extraction, eine datenverarbeitungsintensive Anwendung, die Beziehungen zwischen Entitäten erkennt, die im Text erwähnt werden. Und Finch fügt weiterhin neue Sprachen hinzu. Es plant als Nächstes Arabisch, Chinesisch und Russisch. „Unsere Erfahrung bei der Arbeit mit AWS Inferentia war großartig“, sagt Lightner. „Es war ausgezeichnet, einen Cloud-Anbieter zu haben, der mit uns zusammenarbeitet und uns hilft, mit dem Wachstum unseres Unternehmens zu skalieren.“
Über Finch Computing
Finch Computing ist ein Unternehmen für die Verarbeitung natürlicher Sprache, das Machine Learning einsetzt, um Kunden dabei zu helfen, aus Text Erkenntnisse nahezu in Echtzeit zu gewinnen. Zu den Kunden gehören Medienunternehmen und Datenaggregatoren, US-Behörden und -Geheimdienste sowie Finanzdienstleister.
Genutzte AWS-Services
Amazon Inferentia
AWS Inferentia ist Amazons erster Halbleiter für spezielle Zwecke, der entwickelt wurde, um Deep-Learning-Workloads zu beschleunigen, und ist Teil einer langfristigen Strategie zur Verwirklichung dieser Vision.
Amazon Elastic Container Service (Amazon ECS)
Amazon ECS ist ein vollständig verwalteter Container-Orchestrierungsservice, der es Ihnen leicht macht, containerisierte Anwendungen bereitzustellen, zu verwalten und zu skalieren.
Mehr erfahren »
Amazon Elastic Compute Cloud (Amazon EC2)
Amazon EC2 bietet die am meisten weitreichende und tiefgehende Rechenplattform mit über 500 Instances und einer Auswahl der neuesten Prozessoren, Speicher, Netzwerke, Betriebssysteme und Kaufmodelle, damit Sie die Anforderungen Ihrer Arbeitslast optimal erfüllen können.
Mehr erfahren »
AWS Deep Learning AMIs (DLAMI)
Mit den AWS Deep Learning AMIs erhalten ML-Nutzer und Wissenschaftler die Infrastruktur und Tools, um Deep-Learning-Arbeiten beliebiger Größenordnungen in der Cloud zu beschleunigen.
Mehr erfahren »
Erste Schritte
Organisationen aller Größen aus verschiedenen Sektoren transformieren ihre Unternehmen und erfüllen ihre Missionen täglich mithilfe von AWS. Kontaktieren Sie unsere Experten und begeben Sie sich noch heute Ihren Weg zu AWS.