AWS drückt bei KI weiter auf die Tube
Bei AWS läuft der Innovationsmotor auf Hochtouren. Auf der re:Invent 2023 stellte der Cloud-Gigant gleich mehrere erstaunliche Produkte vor, darunter einen Thin Client und Amazon Q , einen KI-gestützten Assistenten für Unternehmen.
Seinem Ziel, zu einer führenden Kraft im Markt für generative KI zu werden, scheint AWS ein gutes Stück nähergekommen zu sein. So jedenfalls lässt sich die Fülle von neuen Angeboten interpretieren, die CEO Adam Selipsky während seiner Keynote auf re:Invent 23 vorstellte. "Generative KI ist der nächste Schritt in der künstlichen Intelligenz. Und sie wird jede Anwendung, mit der wir bei der Arbeit und zu Hause interagieren, neu erfinden," so Selipsy.
Um seinen Führungsanspruch in Sachen künstlicher Intelligenz zu bekräftigen, stellte der Anbieter auf seiner Großveranstaltung in Las Vegas gleich mehrere KI-Innovationen vor. Darunter ein Cybersecurity-Angebot für seine Plattform Amazon Bedrock sowie den neuen Prozessorchip Graviton4, der KI-gestützte Arbeitslasten und Anwendungen beschleunigt.
"Wir waren die ersten, die unsere eigenen Serverprozessoren entwickelt und angeboten haben. In nur fünf Jahren haben wir nun die vierte Generation entwickelt", so der CEO bei der Vorstellung von Graviton4 vor großem Publikum. "Andere Cloud-Anbieter haben noch nicht einmal ihre ersten Serverprozessoren auf den Markt gebracht."
Von Graviton4- und Trainium2-Chips für KI bis hin zu neuen serverlosen Lösungen und Support-Tools für AWS-Partner - hier sind die 10 wichtigsten AWS-Produktvorstellungen dieser Woche auf der re:Invent 2023, die Lösungsanbieter kennen sollten.
Amazon Q
Eine der größten Ankündigungen war der von generativer KI-gestützte Assistent Amazon Q. Damit können Unternehmenskunden Gespräche führen, Probleme lösen, Inhalte generieren, Einblicke gewinnen und Maßnahmen ergreifen, einfach, indem sie eine Verbindung zu den Informations-Repositories, dem Code, den Daten und den Unternehmenssystemen ihrer Firma herstellen. Bei der Erledigung von Aufgaben hilft Q per Prompts in natürlicher Sprache.
"Andere Anbieter haben Tools ohne Datenschutz- und Sicherheitsfunktionen auf den Markt gebracht, die praktisch jedes Unternehmen benötigt. Viele CIOs verbieten sogar die Nutzung beliebtester KI-Chat-Systeme innerhalb ihrer Organisation. Fragen Sie mal einen x-beliebigen Chief Information Security Officer (CISO) - Sicherheit kann man nicht nachträglich einbauen und erwarten, dass es funktioniert", so der CEO von AWS.
"Es ist viel, viel besser, die Sicherheit in das grundlegende Design der Technologie einzubauen. Als wir uns daran machten, generative KI-Anwendungen zu entwickeln, wussten wir, dass wir diese Lücke schließen müssen. Sie musste von Anfang an eingebaut werden", so Selipsky. "Deshalb bin ich heute sehr stolz und begeistert, Amazon Q anzukündigen, eine neue Art von generativem KI-gestütztem Assistenten, der für Sie bei der Arbeit arbeitet."
Amazon Q bietet Zugriffskontrollen, die Antworten auf die Verwendung von Daten oder Handlungen beschränken, die auf der Zugriffsebene des Mitarbeiters basieren. KI-typisches "Herumfantasieren" soll Q vermeiden können. Er bietet auch Zitate und Verweise auf die Originalquellen zur Faktenüberprüfung und Nachvollziehbarkeit. Kunden können aus mehr als 40 integrierten Konnektoren für beliebte Datenquellen und Unternehmenssysteme wählen, darunter Amazon S3, Google Drive, Microsoft SharePoint, Salesforce, ServiceNow und Slack.
Amazon Q ist derzeit für Amazon Connect verfügbar und soll schon bald in weitere AWS-Services integriert werden.
Amazon WorkSpaces Thin-Client
Die WorkSpaces-Hardware verfügt über eine speziell entwickelte Firmware und Software, ein Betriebssystem, das für Mitarbeiter entwickelt wurde, die einen einfachen und sicheren Zugriff auf Anwendungen in der Cloud benötigen. Hinzu kommt eine Software, mit der die IT-Abteilung das Gerät aus der Ferne verwalten kann.
Dieser Thin Client ist für die AWS-Cloud optimiert. Hiermit hat der Anbieter zum ersten Mal ein Consumer-Gerät in ein externes Hardware-Produkt für AWS-Kunden verwandelt. "Auf den ersten Blick mag es wie ein Fire TV-Cube aussehen", heißt es in einem Blogeintrag von Amazon. "Für einen großen Teil der Mitarbeitenden ist Remote- und Hybridarbeit inzwischen unumgänglich, vor allem im Kundenservice, beim technischen Support oder im Gesundheitswesen. Mitarbeiter brauchen schnellen, zuverlässigen Zugang zu einer Vielzahl von Geschäftsanwendungen und Daten - unabhängig vom Arbeitsort. Und hier kommt der Amazon WorkSpaces Thin Client ins Spiel".
Die Thin Clients werden über Amazon Business, den B2B-Marktplatz des Unternehmens, verkauft, wobei sich Kunden auch vorkonfigurierte Geräte bestellen können. Die Preise in den USA beginnen bei 195 Dollar.
Graviton4
Dieser AWS-Prozessor ist laut Selipsky der "energieeffizientesten Chip, den wir je gebaut haben. "
Graviton4 hat 50 Prozent mehr Kerne und 75 Prozent mehr Speicher als die Graviton3-Chips. Laut AWS sorgen 96 Neoverse-V2-Kerne, 2 MB L2-Cache pro Kern und 12 DDR5-5600-Kanäle dafür, dass der Graviton4 bis zu 40 Prozent schneller für Datenbanken, 30 Prozent schneller für Webanwendungen und 45 Prozent schneller für große Java-Anwendungen arbeitet als der Graviton3.
Graviton4-Prozessoren unterstützen alle Sicherheitsfunktionen der vorherigen Generationen und enthalten einige wichtige neue Funktionen, darunter verschlüsselte Hochgeschwindigkeits-Hardware-Schnittstellen und Branch Target Identification (BTI).
Zudem hat AWS hat eine neue Amazon EC2-Instanz mit Graviton4-Prozessoren geschaffen, die als R8G-Instanzen bezeichnet werden und das beste Preis-/Leistungsverhältnis für speicheroptimierte Arbeitslasten bieten sollen. R8G-Instances sind ideal für speicherintensive Arbeitslasten wie Datenbanken, In-Memory-Caches und Big-Data-Analysen in Echtzeit.
Amazon S3 Express One Zone
Im Bereich Cloud-Speicher hat AWS die Amazon S3 Express One Zone vorgestellt, eine hochleistungsfähige Speicherklasse mit einer einzigen Verfügbarkeitszone, Diese ist speziell dafür ausgelegt, einen konsistenten Datenzugriff im einstelligen Millisekunden-Bereich für die am häufigsten abgerufenen Daten und latenzempfindliche Anwendungen der Kunden zu ermöglichen.
"Amazon S3 Express One unterstützt Millionen von Anfragen pro Minute mit einer konsistenten Latenz im einstelligen Millisekunden Bereich - der schnellste Objektspeicher in der Cloud", so der CEO von AWS. "Und bis zu 10-mal schneller als S3-Standardspeicher. ... vor 17 Jahren erfand S3 die Speicherung neu, indem es den ersten Cloud-Service für AWS einführte. Mit S3 Express One Zone können Sie sehen, dass S3 auch weiterhin verändert, wie Entwickler Speicher nutzen."
Mit S3 Express One Zone wird der Speicher je nach Verbrauch und Bedarf des Kunden automatisch nach oben oder unten skaliert. Nutzer müssen also nicht länger mehrere Speichersysteme für Workloads mit niedriger Latenz verwalten.
Während AWS-Kunden schon immer eine bestimmte AWS-Region für die Speicherung ihrer S3-Daten wählen konnten, können sie mit S3 Express One Zone nun eine bestimmte AWS Availability Zone nicht nur ür die Speicherung ihrer Daten festlegen., sondern in derselben Zone wie ihre Rechenressourcen, um die Leistung weiter zu optimieren. Dabei werden die Daten in einem anderen Bucket-Typ - einem S3-Verzeichnis-Bucket - gespeichert, der Hunderttausende von Anforderungen pro Sekunde unterstützt.
Nächste Seite: Amazon Bedrock
AWS drückt bei KI weiter auf die Tube
Bei AWS läuft der Innovationsmotor auf Hochtouren. Auf der re:Invent 2023 stellte der Cloud-Gigant gleich mehrere erstaunliche Produkte vor, darunter einen Thin Client und Amazon Q , einen KI-gestützten Assistenten für Unternehmen.
Guardrails für Amazon Bedrock
Neues gibt es auch im Bereich KI-Sicherheit. Guardrails für Amazon Bedrock dienen der Implementierung von Schutzmaßnahmen, die an die Anwendungsanforderungen des jeweiligen Kundenunternehmens angepasst sind. Hierbei werden Benutzereingaben und Antworten von Foundational Models (FM) auf der Grundlage von anwendungsfallspezifischen Richtlinien ausgewertet. Zudem gibt es eine zusätzliche Ebene von Schutzmaßnahmen, die unabhängig vom zugrunde liegenden FM ist.
Guardrails lassen sich auf alle FMs anwenden, einschließlich Anthropic Claude, Meta Llama 2, Cohere Command, AI21 Labs Jurassic und Amazon Titan Text, sowie auf fein abgestimmte Modelle. Kunden können mehrere Guardrails erstellen, die jeweils mit einer anderen Kombination von Steuerelementen konfiguriert sind, und diese Guardrails dann für verschiedene Anwendungen und Anwendungsfälle nutzen.
Guardrails können auch in Agents for Amazon Bedrock integriert werden, um generative KI-Anwendungen zu erstellen, die den Richtlinien für verantwortungsvolle KI entsprechen.
"Es verfügt über Funktionen zum Schutz Ihrer generativen KI-Anwendungen mit verantwortungsvollen KI-Richtlinien. So haben Sie jetzt ein einheitliches Schutzniveau für alle Ihre GenKI-Entwicklungsaktivitäten", berichte Selipsky.
AWS Trainium2
AWS führt eine neue Generation hochleistungsfähiger Trainium-Chips für maschinelles Lernen ein, die den Zeit- und Kostenaufwand für das Training generativer KI-Modelle massiv reduzieren.
Die neuen Trainium2-Chips bieten eine bis zu viermal schnellere Schulung als die der ersten Generation und können in EC2-UltraClustern mit bis zu 100.000 Chips bereitgestellt werden. Dadurch lassen sich FMs und große Sprachmodelle (LLMs) in einem Bruchteil der früher nötigen Zeit schulen und das bei bis zu zweimal höherer Energieeffizienz.
Trainium2-Chips sind speziell für das Hochleistungstraining von FMs und LLMs mit Milliarden von Parametern entwickelt worden. Sie bieten Vergleich zur Vorgängergeneration bis zu dreifach höhere Speicherkapazität und werden in Amazon EC2 Trn2-Instanzen verfügbar sein, die 16 Chips in einer einzigen Instanz enthalten.
Trn2-Instanzen sollen es Kunden ermöglichen, bis zu 100.000 Trainium2-Chips in EC2-UltraClustern der nächsten Generation zu skalieren, die mit AWS Elastic Fabric Adapter (EFA) Netzwerken im Petabit-Maßstab verbunden sind, bis zu 65 Exaflops an Rechenleistung liefern und Kunden bei Bedarf Zugang zu Supercomputerleistung bieten.
Mit dieser Skalierung können Kunden laut AWS ein LLM mit 300 Milliarden Parametern innerhalb von Wochen statt Monaten trainieren.
Bedrock mit Feinabstimmung und mehr
Die generative KI-Plattform Bedrock hat nun eine Reihe neuer Funktionen, darunter die Feinabstimmung, über die Foundation Models (FMs) mit den eigenen Daten eines Unternehmens sicher angepasst werden können, um Anwendungen zu erstellen, die spezifisch für den jeweiligen Bereich, das Unternehmen und den Anwendungsfall sind.
Mit der Feinabstimmung können Kunden die Modellgenauigkeit erhöhen, indem sie ihren eigenen aufgabenspezifischen Trainingsdatensatz bereitstellen und FMs weiter spezialisieren. Mit fortgesetztem Pre-Training können Benutzer die Modelle mit ihren eigenen Daten in einer sicheren und verwalteten Umgebung mit vom Kundenunternehmen verwalteten Schlüsseln trainieren. Auf diese Weise kann man beispielsweise "einzigartige Benutzererlebnisse" schaffen, die den Stil, die Stimme und die Dienstleistungen des eigenen Unternehmens widerspiegeln.
AWS kündigte auf der re:Invent außerdem an, dass Agents for Amazon Bedrock jetzt allgemein verfügbar ist. Das Angebot hilft Kunden, die Entwicklung von GenAI-Anwendungen durch die Orchestrierung von mehrstufigen Aufgaben zu beschleunigen.
Auch die Wissensdatenbank für Amazon Bedrock ist jetzt allgemein verfügbar. Damit können Kunden Foundation Models Bedrock sicher mit den Daten ihres Unternehmens für Retrieval Augmented Generation (RAG) verbinden.
Nächste Seite: Serverlose Innovationen
AWS drückt bei KI weiter auf die Tube
Bei AWS läuft der Innovationsmotor auf Hochtouren. Auf der re:Invent 2023 stellte der Cloud-Gigant gleich mehrere erstaunliche Produkte vor, darunter einen Thin Client und Amazon Q , einen KI-gestützten Assistenten für Unternehmen.
Neue Serverless-Angebote
AWS hat für sein Datenbank- und Analyseportfolio gleich drei serverlose Neuerungen vorgestellt, mit denen Kunden ihre Dateninfrastruktur schneller und einfacher skalieren können.
Amazon Aurora Limitless Database ist eine neue Funktion, die automatisch über die Schreibgrenzen einer einzelnen Amazon Aurora-Datenbank hinaus skaliert, was Entwicklern die Skalierung ihrer Anwendungen erleichtert und ihnen extrem viel Zeit spart.
Eine neue serverlose Option für Amazon ElastiCache beschleunigt und vereinfacht die Erstellung hochverfügbarer Caches und ermöglicht sofortige Skalierung. Laut AWS hilft diese neue Funktion Kunden, in weniger als einer Minute hochverfügbare Caches zu erstellen und sofort vertikal und horizontal zu skalieren, um die anspruchsvollsten Anwendungen der Kunden zu unterstützen, ohne administrativ an die Infrastruktur gehen zu müssen.
AWS hat außerdem eine neue Amazon Redshift Serverless-Funktion veröffentlicht, die künstliche Intelligenz nutzt, um Arbeitslasten vorherzusagen und nötigen Ressourcen automatisch zu skalieren und zu optimieren, damit Kunden ihre Preis/Leistungsziele erreichen können.
Mit den drei neuen Serverless-Angeboten will AWS seinen Kunden helfen, Daten in jeder Größenordnung zu verwalten und ihre Abläufe drastisch zu vereinfachen, damit sie sich auf Innovationen für ihre Endanwender konzentrieren können, ohne Zeit und Mühe für die Bereitstellung, Verwaltung und Skalierung ihrer Dateninfrastruktur aufwenden zu müssen.
Amazon Connect mit GenKI
AWS' cloudbasierter Kontaktcenter-Service, Amazon Connect, verfügt nun über die neuen GenKI-Funktionen von Amazon Q, die den Kundenservice verändern sollen. Amazon Q in Connect versorgt Agenten mit empfohlenen Antworten und Aktionen auf der Grundlage von Echtzeit-Kundenfragen und soll so einen schnelleren und präziseren Kundendienst möglich machen.
Connect Contact Lens verfügt jetzt über neue Funktionen für Analysen und Qualitätsmanagement und kann mit KI-generierten Zusammenfassungen, die Stimmungen, Trends und die Einhaltung von Richtlinien erkennen, und so die wesentlichen Elemente von Callcenter-Gesprächen identifizieren.
Darüber hinaus ist Amazon Lex in Amazon Connect implementiert worden, um es Contact Center-Administratoren zu ermöglichen, innerhalb weniger Stunden neue Chatbots und interaktive Sprachdialogsysteme zu erstellen, indem sie natürlichsprachliche Eingabeaufforderungen verwenden und bestehende Systeme durch das Generieren von Antworten auf häufig gestellte Fragen verbessern.
Und schließlich gibt es noch das neue Amazon Connect-Kundenprofil, mit der Agenten einen schnelleren und individuelleren Kundenservice bieten können sollen - durch einheitliche Kundenprofile aus verschiedenen Software-as-a-Service-Anwendungen und Datenbanken.
"Mit nur wenigen Klicks können Contact Center-Führungskräfte neue Funktionen nutzen, die von generativer KI in Amazon Connect unterstützt werden, um die mehr als 15 Millionen Kundeninteraktionen, die täglich über Amazon Connect abgewickelt werden, zu verbessern", erklärte Pasquale DeMaio, Vice President of Amazon Connect, AWS Applications, in einem Blogpost. "Mit diesen neuen Funktionen können Contact Center konsistent verbesserten Kundensupport bieten und das im großen Umfang."
Partner bekommen dieselben Tools, wie AWS-Supporttechniker
Partner können jetzt auf die EC2-Kapazitätsreservierungen eines Kunden, die Liste der Lambda-Funktionen, die GuardDuty-Ergebnisse und die Load Balancer-Reaktionen zugreifen. Darüber hinaus können sie Informationen aus den RDS- und Redshift-Clustern eines Kunden abrufen.
Wenn ein Kunde seinen Partner für Support kontaktiert, kann sich der Partner jetzt in das AWS-Konto des Kunden einwählen. Mit den neuen Diagnosetools kann er dann auf die Metadaten des Kunden zugreifen, die ihm helfen sollen, das Problem zu identifizieren und zu diagnostizieren. Diese Tools können auf Metadaten und CloudWatch-Metriken zugreifen und diese organisieren, allerdings können sie nicht auf AWS-Kundendaten zugreifen oder Änderungen an den AWS-Ressourcen des Kunden vornehmen.
Die neuen Support-Tools bietet Amazon den Partnern im AWS Partner-Led Support-Programm an.