Diese Anleitung hilft Ihnen dabei, Life-Science-Dateninstrumente und Laborsystemdateien mit AWS Cloud zu verbinden, entweder über das Internet oder eine direkte Verbindung mit geringer Latenz. Sie können die Speicherkosten für Daten, auf die seltener zugegriffen wird, senken oder sie für Hochleistungsberechnungen für Genomik, Bildgebung und andere intensive Workloads zugänglich machen – alles in AWS.
Architekturdiagramm
Schritt 1
Ein Labortechniker führt ein Experiment oder einen Test durch, und die Ergebnisse werden in einen Ordner auf einem On-Premises-Dateiserver geschrieben. Eine AWS DataSync-Aufgabe wird eingerichtet, um die Daten vom lokalen Speicher mit einem Bucket in Amazon Simple Storage Service (Amazon S3) zu synchronisieren.
Schritt 2
Die Daten werden entweder über das Internet oder über eine Direktverbindung mit niedriger Latenz, die das Internet umgeht, in die AWS-Cloud übertragen, z. B. AWS Direct Connect.
Schritt 3
Elektronische Labornotizbücher (Electronic Lab Notebooks, ELN) und Laborinformationsmanagementsysteme (Lab Information Management Systems, LIMS) tauschen Experiment- und Testmetadaten über Ereignisse und APIs bidirektional mit der AWS Cloud aus. Weitere Informationen zu dieser Integration finden Sie in Leitfaden für ein Labordatennetz in AWS.
Schritt 4
Partnerunternehmen wie ein Auftragsforschungsinstitut (CRO) können die Studienergebnisse in Amazon S3 mithilfe von AWS Transfer Family für FTP, SFTP oder FTPS hochladen.
Schritt 5
Sie können die Speicherkosten optimieren, indem Sie Gerätedaten in einen S3-Bucket schreiben, der für den seltenen Zugriff konfiguriert ist. Identifizieren Sie Ihre S3 -Speicherzugriffsmuster, um Ihre S3-Bucket-Lebenszyklusrichtlinie optimal zu konfigurieren und Daten an Amazon S3 Glacier zu übertragen.
Schritt 6
Mit Amazon FSx für Lustre werden Daten für High Performance Computing (HPC) in der Cloud für Genomik, Bildgebung und andere intensive Workloads zugänglich gemacht, um ein gemeinsam genutztes Dateisystem mit geringer Latenz im Millisekundenbereich bereitzustellen.
Schritt 7
Bioinformatik-Pipelines werden mit AWS Step Functions, AWS HealthOmics, und AWS Batch für flexibles CPU- und GPU-Computing orchestriert.
Schritt 8
Maschine Learning wird mit einem Toolkit für künstliche Intelligenz und Machine Learning (AI/ML) durchgeführt, das Amazon SageMaker für Feature Engineering, Daten-Labeling, Modelltraining, Bereitstellung und ML-Operationen verwendet. Amazon Athena wird für flexible SQL-Abfragen verwendet.
Schritt 9
Forscher, die On-Premises-Anwendungen zur Datenanalyse und Berichterstellung verwenden, können Daten in Amazon S3anzeigen und darauf zugreifen, indem sie Network File System (NFS) oder Server Message Block (SMB) über Amazon S3 File Gateway nutzen.
Well-Architected-Säulen
Das AWS-Well-Architected-Framework hilft Ihnen, die Vor- und Nachteile der Entscheidungen zu verstehen, die Sie beim Aufbau von Systemen in der Cloud treffen. Die sechs Säulen des Frameworks ermöglichen es Ihnen, architektonische bewärhte Methoden für die Entwicklung und den Betrieb zuverlässiger, sicherer, effizienter, kostengünstiger und nachhaltiger Systeme zu erlernen. Mit dem AWS-Well-Architected-Tool, das kostenlos in der AWS-Managementkonsole verfügbar ist, können Sie Ihre Workloads anhand dieser bewährten Methoden überprüfen, indem Sie eine Reihe von Fragen für jede Säule beantworten.
Das obige Architekturdiagramm ist ein Beispiel für eine Lösung, die unter Berücksichtigung der bewährten Methoden von Well-Architected erstellt wurde. Um eine vollständige Well-Architected-Lösung zu erhalten, sollten Sie so viele bewährte Methoden von Well-Architected wie möglich befolgen.
-
Operative Exzellenz
Wenn neue Datenquellen und Partner auftauchen, kann eine Vielzahl von Datentransferdiensten genutzt werden, um sich an diese veränderten Zugriffsmuster anzupassen. In Umgebungen mit mehreren Standorten kann S3 File Gateway für die Übertragung verwendet werden, während Sie einen Cache vor Ort für andere Anwendungen beibehalten. Transfer Family ermöglicht Partnerunternehmen wie CROs das einfache Hochladen von Studienergebnissen.
-
Sicherheit
Aus Datenschutzgründen empfehlen wir Ihnen, die Anmeldeinformationen für AWS-Konten zu schützen und individuelle Benutzerkonten mit AWS Identity and Access Management (IAM) einzurichten, damit jeder Benutzer nur die für die Erfüllung seiner Aufgaben erforderlichen Berechtigungen erhält. Wir empfehlen Ihnen außerdem, die Verschlüsselung im Ruhezustand zu verwenden. Die Services verwenden standardmäßig die Verschlüsselung während der Übertragung.
-
Zuverlässigkeit
DataSync nutzt einzelne oder mehrere VPC-Endpunkte, um sicherzustellen, dass der Agent einen anderen Endpunkt erreichen kann, wenn eine Availability Zone nicht verfügbar ist. DataSync ist ein skalierbarer Dienst, der Kundendienstmitarbeiter für den Datentransfer einsetzt. Die Aufgaben und Kundendienstmitarbeiter können je nach dem Bedarf der zu migrierenden Datenmenge skaliert werden.
DataSync protokolliert alle Ereignisse in Amazon CloudWatch. Wenn ein Auftrag fehlschlägt, können Maßnahmen ergriffen werden, um das Problem besser zu verstehen und festzustellen, wo die Aufgabe fehlschlägt. Sobald die Aufgaben abgeschlossen sind, können Nachbearbeitungsaufträge gestartet werden, um die nächste Phase des Pipeline-Prozesses abzuschließen.
Amazon S3 bietet eine äußerst robuste Speicherinfrastruktur, die für geschäftskritische und primäre Datenspeicherung konzipiert ist.
-
Leistung und Effizienz
FSx für Lustre-Speicher bietet Latenzen von unter einer Millisekunde, einen Durchsatz von bis zu Hunderten von GB/s und Millionen von IOPS.
-
Kostenoptimierung
Durch den Einsatz von Serverless-Technologien, die nach Bedarf skalieren, zahlen Sie nur für die Ressourcen, die Sie nutzen. Um die Kosten weiter zu optimieren, können Sie die Notebook-Umgebungen in SageMaker anhalten, wenn sie nicht verwendet werden. Wenn Sie nicht beabsichtigen, das Amazon QuickSight -Visualisierungs-Dashboard zu verwenden, können Sie es nicht einsetzen, um Kosten zu sparen.
Die Datenübertragungsgebühren setzen sich aus zwei Hauptbereichen zusammen: DataSync, das pro übertragenem GB berechnet wird, und Direct Connect oder VPN-Datenübertragung. Darüber hinaus können Gebühren für die Cross-Availability Zone anfallen, wenn VPC-Endpunkte verwendet werden.
-
Nachhaltigkeit
CloudWatch-Metriken ermöglichen es den Benutzern, datengestützte Entscheidungen auf der Grundlage von Warnungen und Trends zu treffen. Durch die umfassende Nutzung von Managed Services und dynamischer Skalierung minimieren Sie die Umweltauswirkungen der Back-End-Services. Die meisten Komponenten sind autark.
Implementierungsressourcen
Es wird eine detaillierte Anleitung zum Experimentieren und zur Verwendung in Ihrem AWS-Konto bereitgestellt. Jede Phase der Erstellung der Anleitung, einschließlich Bereitstellung, Verwendung und Bereinigung, wird untersucht, um sie für die Bereitstellung vorzubereiten.
Der Beispielcode dient als Ausgangspunkt. Er ist branchenerprobt, präskriptiv, aber nicht endgültig, und ein Blick unter die Motorhaube, der Ihnen den Einstieg erleichtert.
Ähnliche Inhalte
Aufbau digital vernetzter Labore mit AWS
In diesem Beitrag werden die Tools, bewährten Verfahren und Partner erörtert, die Labors im Bereich Biowissenschaften dabei helfen, die Skalierbarkeit und Leistung der AWS Cloud voll auszuschöpfen.
Leitfaden für ein Labor-Data-Mesh in AWS
Diese Anleitung zeigt, wie ein wissenschaftliches Datenmanagementsystem aufgebaut werden kann, das sowohl Laborgerätedaten als auch Software mit Cloud-Datenmanagement-, Datenerfassungs- und Bioinformatik-Pipelines integriert und dabei wichtige Metadatenereignisse erfasst.
Resilience baut ein globales Data Mesh für Laborkonnektivität in AWS auf
In dieser Fallstudie wird beschrieben, wie der innovative Bioproduzent Resilience die Herstellung neuer Medikamente mit einem vernetzten Netzwerk für die Datenübertragung in AWS revolutioniert.
Haftungsausschluss
Der Beispielcode, die Softwarebibliotheken, die Befehlszeilentools, die Machbarkeitsnachweise, die Vorlagen oder andere zugehörige Technologien (einschließlich derjenigen, die von unseren Mitarbeitern bereitgestellt werden) werden Ihnen als AWS-Inhalte im Rahmen der AWS-Kundenvereinbarung oder der entsprechenden schriftlichen Vereinbarung zwischen Ihnen und AWS (je nachdem, was zutrifft) zur Verfügung gestellt. Sie sollten diese AWS-Inhalte nicht in Ihren Produktionskonten oder für Produktions- oder andere kritische Daten verwenden. Sie sind verantwortlich für das Testen, Sichern und Optimieren des AWS-Inhalts, z. B. des Beispielcodes, für die Verwendung in der Produktion auf der Grundlage Ihrer spezifischen Qualitätskontrollverfahren und -standards. Bei der Bereitstellung von AWS-Inhalten können AWS-Gebühren für die Erstellung oder Nutzung von kostenpflichtigen AWS-Ressourcen anfallen, z. B. für den Betrieb von Amazon-EC2-Instances oder die Nutzung von Amazon-S3-Speicher.
Verweise auf Services oder Organisationen von Drittanbietern in diesen Leitlinien bedeuten nicht, dass Amazon oder AWS eine Billigung, Förderung oder Zugehörigkeit zwischen Amazon oder AWS und dem Drittanbieter darstellt. Die Beratung durch AWS ist ein technischer Ausgangspunkt, und Sie können Ihre Integration mit Services von Drittanbietern anpassen, wenn Sie die Architektur bereitstellen.