Übersicht
QnABot auf AWS ist eine generative, mit künstlicher Intelligenz (KI) ausgestattete, mehrkanalige, mehrsprachige Konversationsschnittstelle (oder Chatbot), welche auf die Fragen, Antworten und das Feedback Ihrer Kunden reagiert. Dies ermöglicht Ihnen, einen voll funktionsfähigen Chatbot über mehrere Kanäle hinweg bereitzustellen, darunter Chat, Sprache, SMS und Amazon Alexa.
Vorteile
Bereitstellung von personalisierten Tutorials sowie Frage- und Antwort-Support mit intelligenter mehrteiliger Interaktion. Importieren und exportieren Sie ganz einfach Fragen aus Ihrer QnABot-Einrichtung.
Verwenden Sie die Funktionen der natürlichen Sprachverarbeitung (NLP) von Amazon Kendra, um die Fragen der Menschen besser zu verstehen. Erstellen Sie Konversationsanwendungen mit Amazon Bedrock, einem verwalteten Service, der leistungsstarke Basismodelle bietet.
Automatisieren Sie Kundensupport-Workflows. Erzielen Sie Kosteneinsparungen und bieten Sie Ihren Kunden einen besseren Service, damit sie genaue Antworten erhalten und schnell helfen können.
Nutzen Sie Absicht- und Slot-Abstimmung für verschiedene F&A-Workflows. Nutzen Sie natürliches Sprachverständnis, Kontextmanagement und mehrstufige Dialoge mithilfe von großen Sprachmodellen (LLMs) und Retrieval Augmented Generation (RAG).
Technische Details
Sie können diese Architektur mit dem Implementierungsleitfaden und der geeigneten AWS-CloudFormation-Vorlage automatisch bereitstellen. Wenn Sie die Bereitstellung mit VPC durchführen möchten, stellen Sie zunächst eine VPC mit zwei privaten und zwei öffentlichen Subnetzen bereit, die über zwei Availability Zones verteilt sind, und verwenden Sie dann die QnABot-VPC-AWS-CloudFormation-Vorlage. Verwenden Sie andernfalls die QnABot-Main-AWS-CloudFormation-Vorlage.
Schritt 1
Der Administrator stellt die Lösung in seinem AWS-Konto bereit, öffnet die Content-Designer-Benutzeroberfläche (UI) oder den Amazon-Lex-Webclient und verwendet Amazon Cognito zur Authentifizierung.
Schritt 2
Nach der Authentifizierung liefern Amazon API Gateway und Amazon Simple Storage Service (Amazon S3) die Inhalte der Content-Designer-Benutzeroberfläche.
Schritt 3
Der Administrator konfiguriert Fragen und Antworten in Content Designer und die Benutzeroberfläche sendet Anfragen an API Gateway, um die Fragen und Antworten zu speichern.
Schritt 4
Die AWS-Lambda-Funktion von Content Designer speichert die Eingabe in Amazon OpenSearch Service in einem Fragenkatalogindex. Wenn Texteinbettungen verwendet werden, durchlaufen diese Anfragen LLMs, die in Amazon SageMaker oder Amazon Bedrock gehostet werden, um Einbettungen zu generieren, bevor sie in der Fragendatenbank von OpenSearch gespeichert werden.
Schritt 5
Chatbot-Benutzer interagieren über die Benutzeroberfläche des Webclients, Amazon Alexa oder Amazon Connect mit Amazon Lex.
Schritt 6
Amazon Lex leitet Anfragen an die Bot-Fulfillment-Lambda-Funktion weiter. Benutzer können Anfragen auch über Amazon-Alexa-Geräte an diese Lambda-Funktion senden.
Schritt 7
Die Benutzer- und Chat-Informationen werden in Amazon DynamoDB gespeichert, um Folgefragen aus dem vorherigen Frage- und Antwortkontext zu unterscheiden.
Schritt 8
Die Bot-Fulfillment-Lambda-Funktion nimmt die Benutzereingaben auf und nutzt ggf. Amazon Comprehend und Amazon Translate, um anderssprachige Anfragen in die während der Bereitstellung ausgewählte Sprache zu übersetzen, und sucht dann die Antwort in OpenSearch Service.
Wenn Sie LLM-Funktionen wie Textgenerierung und Texteinbettung verwenden, durchlaufen diese Anfragen zunächst verschiedene LLMs, die auf SageMaker oder Amazon Bedrock gehostet werden, um die Suchabfrage und die Einbettungen zu generieren und mit denen zu vergleichen, die in der Fragenbank auf OpenSearch gespeichert sind.
Schritt 9
Wenn aus der OpenSearch-Fragenbank kein Treffer zurückgegeben wird, leitet die Bot-Fulfillment-Lambda-Funktion die Anfrage wie folgt weiter:
Schritt 9A
Wenn ein Amazon-Kendra-Index für Fallback konfiguriert ist, leitet die Bot-Fulfillment-Lambda-Funktion die Anfrage an Amazon Kendra weiter, wenn keine Treffer aus der OpenSearch-Fragenbank zurückgegeben wurden. Das LLM zur Textgenerierung kann zur Erstellung der Suchanfrage und zur Synthese einer Antwort aus den Auszügen des zurückgegebenen Dokuments verwendet werden.
Schritt 9B
Wenn eine ID für Wissensdatenbank für Amazon Bedrock konfiguriert ist, leitet die Bot-Fulfillment-Lambda-Funktion die Anfrage an die Wissensdatenbank für Amazon Bedrock weiter. Die Bot-Fulfillment-Lambda-Funktion nutzt die RetrieveAndGenerate-API-Gateway-API, um die relevanten Ergebnisse für eine Benutzerabfrage abzurufen, die Aufforderung des Basismodells zu erweitern und die Antwort zurückzugeben.
Schritt 10
Benutzerinteraktionen mit der Bot-Fulfillment-Lambda-Funktion generieren Protokolle und Metrikdaten, die an Amazon Kinesis Data Firehose und anschließend an Amazon S3 zur späteren Datenanalyse gesendet werden.
Schritt 11
Die OpenSearch-Dashboards können verwendet werden, um den Nutzungsverlauf, protokollierte Äußerungen, Äußerungen ohne Treffer, positives Benutzerfeedback und negatives Benutzerfeedback anzuzeigen und bieten auch die Möglichkeit, benutzerdefinierte Berichte zu erstellen.
Ähnliche Inhalte
- Datum der Veröffentlichung