NVIDIA hat heute Produktions-Microservices für die NVIDIA Avatar Cloud Engine (ACE) vorgestellt, mit denen Entwickler von Spielen, Tools und Middleware modernste generative AI-Modelle in die digitalen Avatare ihrer Spiele und Anwendungen integrieren können.
Die neuen ACE-Microservices ermöglichen Entwicklern die Erstellung interaktiver Avatare mit AI-Modellen wie NVIDIA Audio2Face™ (A2F), das ausdrucksstarke Gesichtsanimationen aus Audioquellen erzeugt, und NVIDIA Riva Automatic Speech Recognition (ASR) für die Erstellung anpassbarer mehrsprachiger Sprach- und Übersetzungsanwendungen mit generativer AI.
Zu den Herstellern, die ACE nutzen, gehören Charisma.AI, Convai, Inworld, miHoYo, NetEase Games, Ourpalm, Tencent, Ubisoft und UneeQ.
„Generative AI-Technologien verändern praktisch alles, was wir tun, und das gilt auch für die Entwicklung von Spielen und das Gameplay“, sagt Keita Iida, Vice President of Developer Relations bei NVIDIA. „NVIDIA ACE eröffnet Spieleentwicklern neue Möglichkeiten, indem es ihre Welten mit realistischen digitalen Charakteren bevölkert und gleichzeitig den Bedarf an vorformulierten Dialogen beseitigt, was zu einer größeren Interaktion im Spiel führt.“
Top-Entwickler von Spielen und interaktiven Avataren setzen auf NVIDIA ACE
Die führenden Entwickler von Spielen und interaktiven Avataren leisten Pionierarbeit, indem sie ACE- und generative AI-Technologien einsetzen, um die Interaktion zwischen Spielern und nicht spielbaren Charakteren (NPCs) in Spielen und Anwendungen zu verbessern.
„Dies ist ein Meilenstein für AI in Spielen“, sagte Tencent Games. „NVIDIA ACE und Tencent Games werden dazu beitragen, den Grundstein zu legen, um digitale Avatare mit individuellen, lebensechten Persönlichkeiten und Interaktionen in Videospielen zu integrieren.“
[the_ad id=“68158″]NVIDIA ACE erweckt Spielcharaktere zum Leben
In der Vergangenheit wurden NPCs mit vorgegebenen Reaktionen und Gesichtsanimationen entworfen. Dies schränkte die Interaktionen zwischen den Spielern ein, die in der Regel transaktional und kurzlebig waren und daher von der Mehrheit der Spieler übersprungen wurden.
„Generative AI-gesteuerte Charaktere in virtuellen Welten ermöglichen eine Vielzahl von Anwendungsmöglichkeiten und Erfahrungen, die bisher nicht möglich waren“, sagt Purnendu Mukherjee, Gründer und CEO von Convai. „Convai nutzt Riva ASR und A2F, um lebensechte NPCs mit niedrigen Reaktionszeiten und naturgetreuer Animation zu ermöglichen.“
Um zu zeigen, wie ACE NPC-Interaktionen verändern kann, hat NVIDIA mit Convai zusammengearbeitet, um die NVIDIA-Kairos-Demo, die auf der Computex erstmals vorgestellt wurde, mit einer Reihe neuer Funktionen und der Einbeziehung von ACE-Microservices zu erweitern.
In der neuesten Version von Kairos werden Riva ASR und A2F umfassend eingesetzt, um die Interaktivität der NPCs zu verbessern. Convai’s neues Framework erlaubt es den NPCs nun, sich untereinander zu unterhalten und gibt ihnen die Möglichkeit, Objekte zu erkennen, um sie aufzusammeln und an die gewünschten Orte zu bringen. Darüber hinaus erhalten NPCs die Fähigkeit, Spieler zu Zielen zu führen und Welten zu durchqueren.
Die Microservices Audio2Face und Riva Automatic Speech Recognition sind ab sofort verfügbar. Entwickler interaktiver Avatare können die Modelle individuell in ihre Entwicklungspipelines einbinden.