Nvidia und Entwickler schaffen lebensechte digitale Charaktere für Spiele und Anwendungen

Nvidia: Logo

NVIDIA hat heute Produktions-Microservices für die NVIDIA Avatar Cloud Engine (ACE) vorgestellt, mit denen Entwickler von Spielen, Tools und Middleware modernste generative AI-Modelle in die digitalen Avatare ihrer Spiele und Anwendungen integrieren können.

Die neuen ACE-Microservices ermöglichen Entwicklern die Erstellung interaktiver Avatare mit AI-Modellen wie NVIDIA Audio2Face™ (A2F), das ausdrucksstarke Gesichtsanimationen aus Audioquellen erzeugt, und NVIDIA Riva Automatic Speech Recognition (ASR) für die Erstellung anpassbarer mehrsprachiger Sprach- und Übersetzungsanwendungen mit generativer AI.

Zu den Herstellern, die ACE nutzen, gehören Charisma.AI, Convai, Inworld, miHoYo, NetEase Games, Ourpalm, Tencent, Ubisoft und UneeQ.

„Generative AI-Technologien verändern praktisch alles, was wir tun, und das gilt auch für die Entwicklung von Spielen und das Gameplay“, sagt Keita Iida, Vice President of Developer Relations bei NVIDIA. „NVIDIA ACE eröffnet Spieleentwicklern neue Möglichkeiten, indem es ihre Welten mit realistischen digitalen Charakteren bevölkert und gleichzeitig den Bedarf an vorformulierten Dialogen beseitigt, was zu einer größeren Interaktion im Spiel führt.“

Top-Entwickler von Spielen und interaktiven Avataren setzen auf NVIDIA ACE

Die führenden Entwickler von Spielen und interaktiven Avataren leisten Pionierarbeit, indem sie ACE- und generative AI-Technologien einsetzen, um die Interaktion zwischen Spielern und nicht spielbaren Charakteren (NPCs) in Spielen und Anwendungen zu verbessern.

„Dies ist ein Meilenstein für AI in Spielen“, sagte Tencent Games. „NVIDIA ACE und Tencent Games werden dazu beitragen, den Grundstein zu legen, um digitale Avatare mit individuellen, lebensechten Persönlichkeiten und Interaktionen in Videospielen zu integrieren.“

[the_ad id=“68158″]

NVIDIA ACE erweckt Spielcharaktere zum Leben

In der Vergangenheit wurden NPCs mit vorgegebenen Reaktionen und Gesichtsanimationen entworfen. Dies schränkte die Interaktionen zwischen den Spielern ein, die in der Regel transaktional und kurzlebig waren und daher von der Mehrheit der Spieler übersprungen wurden.

„Generative AI-gesteuerte Charaktere in virtuellen Welten ermöglichen eine Vielzahl von Anwendungsmöglichkeiten und Erfahrungen, die bisher nicht möglich waren“, sagt Purnendu Mukherjee, Gründer und CEO von Convai. „Convai nutzt Riva ASR und A2F, um lebensechte NPCs mit niedrigen Reaktionszeiten und naturgetreuer Animation zu ermöglichen.“

Um zu zeigen, wie ACE NPC-Interaktionen verändern kann, hat NVIDIA mit Convai zusammengearbeitet, um die NVIDIA-Kairos-Demo, die auf der Computex erstmals vorgestellt wurde, mit einer Reihe neuer Funktionen und der Einbeziehung von ACE-Microservices zu erweitern.

In der neuesten Version von Kairos werden Riva ASR und A2F umfassend eingesetzt, um die Interaktivität der NPCs zu verbessern. Convai’s neues Framework erlaubt es den NPCs nun, sich untereinander zu unterhalten und gibt ihnen die Möglichkeit, Objekte zu erkennen, um sie aufzusammeln und an die gewünschten Orte zu bringen. Darüber hinaus erhalten NPCs die Fähigkeit, Spieler zu Zielen zu führen und Welten zu durchqueren.

Die Microservices Audio2Face und Riva Automatic Speech Recognition sind ab sofort verfügbar. Entwickler interaktiver Avatare können die Modelle individuell in ihre Entwicklungspipelines einbinden.

Seit den ersten Runden BubbleBobble und DynaBlaster am Amiga, haben mich Videospiele in der einen oder anderen Form begleitet. Heute bin ich froh, dass sich seit Amiga und Nintendo Gameboy ein bisschen was getan hat und allen Unkenrufen zum Trotz ist für mich der PC noch immer die Plattform der Wahl. Das geht soweit, dass ich mir meine Rechner seit 2005 selber baue, aber auch als Problemlöser darf ich manchmal für Freunde und Kollegen zum Maschinengeist sprechen ?
Abonnieren
Benachrichtige mich bei
0 Kommentare
Inline Feedbacks
View all comments
0
Wie ist deine Meinung zu diesem Thema?x