Mit knapp 3000 Sessions in fünf Tagen – davon viele mit technischen Deep Dives – stand der Wissenstransfer im Fokus der re:Invent. Den Auftakt bildete die knapp dreistündige Keynote von CEO Andy Jassy, in der er eine große Fülle von Ankündigungen zu Machine Learning (ML) und dem klassischen Infrastrukturgeschäft vom Stapel ließ.
Machine Learning war überhaupt eines der beherrschenden Themen der Konferenz. Zum einen bemüht sich AWS, bestehende ML-Frameworks wie TensorFlow, MXNet oder Pytorch besser mit den eigenen Diensten zu verzahnen, indem TensorFlow 1.15 jetzt in den von Amazon bereitgestellten und vorkonfigurierten Deep-Learning-VM-Instanzen (Deep Learning Amazon Machine Image; DLAMI), sowie Deep-Learning-Containern und in Amazons ML-Flaggschiff "SageMaker" unterstützt wird. DLAMI supportet bereits jetzt TensorFlow 2.0 und soll auf den anderen Plattformen (Container, SageMaker) demnächst ausgerollt werden.
Um die Kosten für das beim ML oft genutzte "Inferencing" (durch Schlussfolgerungen neue Aussagen aus bestehenden Wissensdatenbanken ableiten) zu senken, führt AWS spezialisierte "Inf1"-VM-Instanzen ein, die auf den hauseigenen Inferentia-Chips basieren. Dies soll laut AWS zu 40 Prozent geringeren Kosten im Vergleich zu den G4-Instanzen erfolgen [1].
Große Aufmerksamkeit widmete die Veranstaltung dem SageMaker-Dienst. Dieser ist ein von AWS als Managed Service betriebenes Angebot, mit dem Kunden ML-Modelle bauen, trainieren und ausführen. Auf der Konferenz stellte AWS das SageMaker-Studio vor, das alle notwendigen Werkzeuge für die Entwicklung von ML-Modellen unter einem Hut vereinen soll. Diese webbasierte integrierte Entwicklungsumgebung (IDE) soll ML-Entwicklern aus einem einzigen
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.