GDC 2024 är igång för fullt och AI-genererade karaktärer för spel är något av de hetare ämnena. Nu har Nvidia och Ubisoft tillsammans med Inworld AI visat upp hur de lyckats skapa verklighetstrogna, AI-genererade personer för framtidens speltitlar.
AI är något många förväntar sig kommer bli en stor del av spelutveckling inom de kommande åren. Nu har vi fått se hur AI kan användas för att snabba upp utvecklingen genom att snabbt generera icke-spelbara karaktärer med sina egna röster och ansiktsanimationer.
Den senaste demonstrationen vid GDC 2024 använder sig av Inworlds teknik för att sätta upp parametrar för karaktärernas personligheter. Detta Låter utvecklare skapa en kunskapsbas och konversationsstil för individuella karaktärer. Nvidias Audio2Face-verktyg kan senare användas för att animera karaktärernas ansikten för att matcha vad som sägs.
Nvidias Avatar Cloud Engine (ACE) lägger även till andra tekniker som Riva för automatisk språkigenkänning och text-till-tal. Dessa öppnar upp för att spelare använder sina egna röster för att kommunicera med karaktärer i spelvärlden. De samlade AI-verktygen står sedan för passande svar utifrån vad spelare säger och vad för slags karaktär de pratar med.
Allt detta kan sedan resultera i karaktärer med mycket bättre uppfattning om sin omgivning och kontext i konversationer än vi sett tidigare. Nvidia och Inworld använde sina samlade krafter för att skapa demonstrationen i ovanstående video. Även Ubisoft har använt tekniker från de två företagen för att skapa vad man kallar NEO NPCs. Karaktärer som man ser mer som faktiska personer än bara program som körs inuti ett spel.
Hur stort fäste detta nya sätt att skapa spelkaraktärer på får på marknaden återstår att se. Det är dock ytterst spännande att se vad företagen anser bara vara början på en ny era av karaktärer i spel. Förhoppningsvis leder allt detta till mer intressanta karaktärer i framtidens speltitlar. Något som många spel idag har en brist på.