Virtuelle Menschen

Forscher entwickeln Algorithmus für lebensechte Avatare

27.01.2022 - Schon bald können sich Internet-Nutzer im Cyberspace als animierte 3D-Avatare begegnen. Forscher der Eidgenössische Technische Hochschule Zürich (ETH Zürich) haben neue Algorithmen entwickelt, mit denen sich virtuelle Menschen deutlich einfacher als bisher erstellen lassen.

von Dominik Grollmann

Spätestens seit der Corona-Pandemie starren wir noch häufiger in den Bildschirm. Sitzungen, Gespräche mit ArbeitskollegInnen oder Konferenzen finden per Videotelefonie statt. Geht es nach den grossen Tech-Unternehmen, sollen diese Meetings möglichst schnell in einer virtuellen Erlebniswelt, dem sogenannten Metaversum, stattfinden können - mittels 3D-Brillen und spezialisierten Computerprogrammen.

Der Schlüssel zu einem möglichst natürlichen Nutzererlebnis in Virtual-Reality-Anwendungen sind sogenannte Avatare, also computergenerierte, plastische Darstellungen von Menschen. Je realistischer die Avatare aussehen und sich verhalten, desto eher stellt sich das Gefühl einer echten sozialen Interaktion ein.

Einen Menschen detailgetreu und in Bewegung zu modellieren, fordert die Entwickler solcher Anwendungen jedoch nach wie vor heraus. Heute können Grafikprogramme zwar schon fotorealistische, statische Avatare erstellen. Um aber beispielsweise ein lachendes Gesicht zu animieren, müssen GrafikdesignerInnen fast jedes Einzelbild am Computer nochmals von Hand bearbeiten; sie bessern Nuancen wie Falten und Schattenwurf aus.

Wie es einfacher geht, zeigten Forscher um Otmar Hilliges , Professor für Computerwissenschaften an der ETH Zürich   , an der Internationalen Konferenz für Computer Vision im Herbst 2021. Anstatt jedes Detail zu modellieren, nutzen sie intelligente Algorithmen, die basierend auf 3D-Bildern von Menschen in einigen wenigen Posen lernen, animierte Ganzkörper-Avatare in allen erdenklichen Posen automatisch darzustellen.

Computermodell kann selbst Saltos darstellen

Computerprogramme, die mithilfe künstlicher Intelligenz (KI) lebensechte virtuelle Menschen erstellen, existieren erst seit wenigen Jahren. Damit diese Programme die verschiedenen Körperpositionen realistisch abbilden können, werden sie mit sogenannten 3D-Scans eines realen Menschen trainiert, die ein komplexes Kamerasystem vorgängig aufgenommen hat.

Die KI-Algorithmen verarbeiten die Scans, indem sie unzählige Punkte ausserhalb und innerhalb des Körpers vermessen und so dessen Konturen als mathematische Funktion definieren. Sie erstellen dabei eine erste Darstellung des Menschens in der Grundposition. Die Algorithmen berechnen nun jeweils den Weg von einer bewegten Pose zurück in diese Grundposition. Auf diese Weise bauen sie ein Computermodell auf, das Avatare in Bewegung versetzen kann.

Extreme Posen ausserhalb des bekannten Bewegungsrepertoires überfordern solche Modelle jedoch und es entstehen gut sichtbare Fehler in den Darstellungen: Die Arme sind losgelöst vom Körper oder die Gelenke am falschen Ort positioniert. Heutige Modelle werden daher mit möglichst vielen verschiedenen Posen trainiert, was einen riesigen Aufwand für die Bilderfassung bedeutet und eine enorme Rechenleistung voraussetzt.

Gerade für interaktive Anwendungen sind KI-Avatare daher bislang kaum verwendbar. "Es ist unmöglich, das gesamte Bewegungsrepertoire im Bild einzufangen", sagt Xu Chen, ETH-Doktorand und Erstautor der Studie.

Die von Chen entwickelte neue Methode verfolgt hingegen den umgekehrten Ansatz: Ausgehend von der Grundposition berechnen die KI-Algorithmen den Weg zu einer bewegten Pose. Weil auf diese Weise der Ausgangspunkt der Berechnungen immer der gleiche bleibt, lernen die Algorithmen besser, Bewegungen zu verallgemeinern.

Ein solches Computermodell ist erstmals in der Lage, auch neue Bewegungsmuster problemlos darzustellen. Selbst akrobatische Bewegungen wie einen Überschlag oder eine Rückenbrücke kann es erzeugen.

Beliebig neue Gesichter mit nur einem Bild

Noch lassen sich die neuen Ganzkörper-Avatare nicht personalisieren; die Darstellungen beschränken sich auf den Menschen, von dem die 3D-Bilder stammen. Chen und seine Kollegen möchten daher das Computermodell dahingehend weiterentwickeln, dass es beliebig neue Identitäten erschaffen kann.

Um die Gesichter von Avataren zu personalisieren und beliebig abzuändern, hat Marcel Bühler , ebenfalls Doktorand in Hilliges Gruppe, bereits eine Lösung gefunden. Wie auch Chen in seinen Ganzkörpermodellen nutzte Bühler intelligente Algorithmen, die aus der Kombination von einem 3D-Gesichtsmodell und einer grossen Palette von Porträtfotos neue animierte Gesichter kreieren.

Während bisherige Computerprogramme bereits gute Animationen von Gesichtern in der Frontalansicht liefern, kann das Modell von Bühler auch Gesichter in der seitlichen Ansicht sowie von oben und unten realistisch darstellen.

Für interaktive Virtual-Reality-Anwendungen bringt die Arbeit der ETH-Forscher grosse Fortschritte. Gut möglich, dass Tech-Unternehmen wie Facebook   und Microsoft   die neu entwickelten Techniken der beiden Doktoranden in ihre Avatare implementieren werden, meinen die Schweizer.

Ihr Guide im New Marketing Management - ab 6,23 im Monat!

Hat Ihnen diese Beitrag weiter geholfen? Dann holen Sie sich die ONEtoONE-Premium-Mitgliedschaft. Sie unterstützen damit die Arbeit der ONEtoONE-Redaktion. Sie erhalten Zugang zu allen Premium-Leistungen von ONEtoONE, zum Archiv und sechs mal im Jahr schicken wir Ihnen die aktuelle Ausgabe.

Mehr zum Thema:
Diskussion:

Vorträge zum Thema:

  • Bild: Martin Brahm
    Martin Brahm (Schober Information Group Deutschland GmbH)

    Data Value Management als Basis für die digitale Transformation in Vertrieb und Marketing

    Um die Themen rund um KI bearbeiten zu können, müssen Unternehmen eine gute Vorarbeit leisten: Mit der richtigen Datenstrategie die KI füttern, um richtige Entscheidungen zu treffen, das Thema hybrider Vertrieb zu bearbeiten aber auch Lösungen wie generative KI einsetzen zu können. Für diese Anforderungen hat Schober die Plattform udo entwickelt, eine modulare Lösung, deren Vorteile anhand von Kunden Cases aus Travel, Automotive und Retail B2B vorgestellt wird.

    Vortrag im Rahmen der Zukunftskonferenz 25. am 03.12.24, 11:00 Uhr

Anzeige
www.hightext.de

HighText Verlag

Mischenrieder Weg 18
82234 Weßling

Tel.: +49 (0) 89-57 83 87-0
Fax: +49 (0) 89-57 83 87-99
E-Mail: info@onetoone.de
Web: www.hightext.de

Kooperationspartner des

Folgen Sie uns:



Besuchen Sie auch:

www.press1.de

www.ibusiness.de

www.neuhandeln.de