MOTION CAPTURE &
VIRTUAL PRODUCTION STUDIO

ONPOINT STUDIOS HAT DAS GRÖSSTE MOTION CAPTURE & VIRTUELLE PRODUKTIONSVOLUMEN IN BERLIN

Wir sind ein Full-Service-Studio für virtuelle Produktion und Motion Capture, das sich auf die Entwicklung hybrider technischer Echtzeitlösungen spezialisiert hat, die es der Kreativbranche ermöglichen, ihre Realitäten zu erweitern und mit einem globalen Publikum zu interagieren – virtuell und live!

Unsere technische Ausstattung umfasst: 36 Optitrack Prime 13 Kameras | Erfassung von bis zu 5 handelnder Personen gleichzeitig | Volumengröße 7m x 9m | Volumenhöhe 3m Projektor und 4 HD TV Vorschaubildschirme echtzeit Previsualisierung in Motive, Motion Builder, Unreal & Unity | Live Remote Motion Capture Broadcasting | hochwertige Audioausgabe und Sound Desk RGB & DMX Studiobeleuchtung gesteuert über die Unreal Engine können wir jede in-Unreal Beleuchtungssituation mit unserem Studio Lighting Setup über das DMX Plugin nachbilden

MOTION CAPTURE &
VIRTUAL PRODUCTION STUDIO

BODY MOTION CAPTURE

Mit unserem Optitrack-System können wir die Leistungen von bis zu 5 darstellender Personen gleichzeitig erfassen. Wir wissen, dass Produktionen in der Regel einen engen Zeitrahmen haben. Deshalb legen wir großen Wert auf eine schnelle, qualitativ hochwertige Lieferung der Motion Capture Daten.

PERFORMANCE CAPTURE

Unser Performance Capture kombiniert die hochmoderne Technik des Body MoCaps, des Finger MoCaps, des Face Capture sowie der Sound-Aufnahmen.

FACIAL MOTION CAPTURE

Unsere verschiedenen am Kopf getragenen Kameras ermöglichen es uns, jedes Detail, jeden Ausdruck und jede Kopfdrehung der darstellenden Person einzufangen. Auf diese Weise entspricht die Gesichtsanimation des Charakters den höchsten Standards für Charakteranimation. Da die Mimik von echten Menschen aufgenommen wird, kann eine realistischere Animation erreicht werden. Selbst kleine Nuancen der Mimik können auf dem Charakter dargestellt werden. Für die Gesichtsaufnahme verwendet OnPoint Studios hochqualitative Faceware-Technologien und für Echtzeit verwenden wir den iPhone arkit workflow.

REMOTE MOTION CAPTURE

Unser Remote-MoCap-Workflow ermöglicht es, einen kompletten Motion-Capture-Dreh zu leiten, ohne physisch am Set sein zu müssen. Wir kombinieren Daten-Streaming-Technologie mit modernen Game-Engines, um die Leistung unserer darstellenden Personen in Echtzeit weiterzuleiten, egal wohin. Unser Ziel ist es, so viel kreative Freiheit und Flexibilität wie möglich zu bieten und eine Echtzeit-Vorschau zu liefern, die dem Endprodukt so nahe wie möglich kommt.

FINGER MOTION CAPTURE

OnPoint Studios verwendet die modernsten Technologien. Für Finger Motion Capture haben wir uns mit den Besten zusammengetan und verwenden die neuesten StretchSense Handschuhe. Dadurch bieten wir qualitativ hochwertige Daten, die sowohl für aufgezeichnete als auch für Live-Drehs in Echtzeit verwendet werden.

VIRTUAL PRODUCTION

Wir bieten eine breite Palette virtueller Produktionsdienstleistungen an, die die unübertroffenen Möglichkeiten der Unreal Engine nutzen. Von relativ einfachen Setups wie virtuellen Kameras bis hin zu anspruchsvolleren Mixed-Reality-Lösungen, die Greenscreens und virtuelle Realität beinhalten.

REAL TIME LIVE

OnPoint Studios haben ihre Motion Capture und Virtuelle Produktionstechnologien zusammengeführt um die Interaktionsmöglichkeiten der darstellenden Personen mit dem Publikum zu maximieren. Durch die Nutzung unserer hybriden Lösungen mit der Unreal Games Engine können wir vollständig immersive und interaktive Shows und Events in Echtzeit und Live produzieren.

MOTION CAPTURE &
VIRTUAL PRODUCTION STUDIO

OnPoint Studios ‘Cargo’ is the world’s first real-time live theatrical performance!

Durch die Kombination virtueller Produktionstechniken wie Greenscreen- und Motion-Capture-Technologien hat OnPoint ein außergewöhnlich hochwertiges, vollständig interaktives digitales Filmset geschaffen. Das OnPoint-Team stellte seine Echtzeit-Live-Fähigkeiten unter Beweis, indem es einen 3D-Charakter in die virtuelle Umgebung von „CARGO“ integrierte. Der Avatar, der von einer physischen Schauspielerin verkörpert wird, kann nicht nur mit seiner digitalen Umgebung interagieren, sondern auch Anweisungen vom entfernten Publikum entgegennehmen! OnPoint Studios ermöglicht es den darstellenden Personen, in virtuellen Umgebungen aufzutreten. Diese können gesteuert und direkt an das Publikum gestreamt werden, über jede Plattform, in Echtzeit – LIVE!

nexr show x inxspace x onpoint studios

Das Partnerschaftsprojekt von OnPoint Studios mit Pan-Pot trägt den Titel „Virtual Unreality“ und ist ein virtueller, interaktiver Showcase, der sowohl den Künstlern als auch dem Publikum gerecht wird. Konzerte werden so zu vollständig immersiven und interaktiven Musikerlebnissen. Das kann wie ein Massen-Multiplayer-Online-Spiel (MMO) ablaufen. Mit Motion-Capture-Charakteren, die wiederum so gesteuert werden, dass die Stars gleichzeitig mit der virtuellen Umgebung und den Zuschauern interagieren können, haben wir es der Kreativbranche ermöglicht, sich mit einem größeren globalen Publikum zu verbinden, und dem Publikum die Möglichkeit gegeben, in Echtzeit in ein Live-Event einzutauchen, das nicht von dieser Welt ist!

ONPOINT LETS PLAY STAGE IST EIN KONZEPT DER ONPOINT STUDIOS

OnPoint Lets Play Stage ist ein Beispiel für interaktive Shows und Performances. Durch die Kombination der Technologien des Studios können alle Show-Genres spezifisch bedient werden. Durch den Einsatz hybrider Technologien kann OnPoint sowohl 3D- als auch Live-Action-Charaktere in ein digitales Set integrieren. Dieses wird dann in Echtzeit und live auf Plattformen wie YouTube und Twitch gestreamt. Mit der Echtzeit-Live-Technologie und dem Streaming über unsere eigenen Back-Channels können wir auch viele Monetarisierungsmethoden implementieren, bei denen die Zuschauer abstimmen und Funktionen wie spezielle Effekte auslösen können. Sie können digitale Merch-Artikel wie individuelle Show-Emojis und Booster-Packs kaufen und dabei miteinander interagieren!

MONTEGA X NEXR SEMINAR X ONPOINT STUDIOS

OnPoint Studios ermöglichte den ersten Echtzeit-Live-VR-Investorentag mit NeXR Seminar und dem Kunden Montega AG. Mit unserer hybriden Lösung konnten wir live aus Berlin die Performance der Präsentierenden einfangen und diese auf den Avatar in einer VR-Umgebung übertragen.
Dies wurde dann live mittels der Unreal Engine direkt zu den Investierenden gestreamt, die sich an entfernten Orten in Europa befanden. Die Investierenden hatten die Möglichkeit direkt mit den Präsentierenden zu interagieren und sie auch in der gleichen VR-Umgebung zu sehen, indem sie Oculus Quest II-Headsets verwendeten – so konnten sie vollständig in die Veranstaltung eintauchen und an ihr teilnehmen.
Als Erweiterung der Veranstaltung haben wir diese live über Twitch an die Zuschauer gestreamt.

MOTION CAPTURE &
VIRTUAL PRODUCTION STUDIO

SOCIAL MEDIA CHANNELS

Unsere Social Media Kanäle für wöchentliche Updates und Performances aus unserem Studio.

SOCIAL MEDIA CHANNELS

Unsere Social Media Kanäle für wöchentliche Updates und Performances aus unserem Studio.

GET IN TOUCH

    UNSER TEAM

    wir freuen uns auf die Zusammenarbeit