KR102371072B1 - Method, appararus and system for providing real-time broadcasting platform using motion and facial capture - Google Patents

Method, appararus and system for providing real-time broadcasting platform using motion and facial capture Download PDF

Info

Publication number
KR102371072B1
KR102371072B1 KR1020200070557A KR20200070557A KR102371072B1 KR 102371072 B1 KR102371072 B1 KR 102371072B1 KR 1020200070557 A KR1020200070557 A KR 1020200070557A KR 20200070557 A KR20200070557 A KR 20200070557A KR 102371072 B1 KR102371072 B1 KR 102371072B1
Authority
KR
South Korea
Prior art keywords
data
motion
user
capture
face
Prior art date
Application number
KR1020200070557A
Other languages
Korean (ko)
Other versions
KR20210153472A (en
Inventor
김태원
김진식
Original Assignee
주식회사 이엠피이모션캡쳐
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이엠피이모션캡쳐 filed Critical 주식회사 이엠피이모션캡쳐
Priority to KR1020200070557A priority Critical patent/KR102371072B1/en
Priority to PCT/KR2020/007728 priority patent/WO2021251534A1/en
Publication of KR20210153472A publication Critical patent/KR20210153472A/en
Application granted granted Critical
Publication of KR102371072B1 publication Critical patent/KR102371072B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

모션 및 얼굴 캡쳐를 이용한 실시간 방송플랫폼 제공 방법이 개시된다. 본 발명의 실시간 방송플랫폼 제공 방법은 사용자의 신체에 장착된 모션감지센서 및 사용자가 촬영된 영상에 각각 기초하여, 사용자의 모션캡쳐데이터 및 얼굴캡쳐데이터를 실시간으로 추출하는 단계, 추출된 모션캡쳐데이터에 대응되는 동작을 나타내고, 얼굴캡쳐데이터가 적용된 리깅데이터(rigging)에 대응되는 얼굴표정을 나타내는 기 설정된 캐릭터의 애니메이션을 생성하는 단계 및, 생성된 애니메이션을 실시간으로 송출하기 위한 방송플랫폼을 제공하는 단계를 포함한다.A method of providing a real-time broadcasting platform using motion and face capture is disclosed. The method of providing a real-time broadcasting platform of the present invention includes the steps of extracting the user's motion capture data and face capture data in real time based on the motion detection sensor mounted on the user's body and the image captured by the user, respectively, and the extracted motion capture data Creating an animation of a preset character representing a motion corresponding to , and representing a facial expression corresponding to rigging data to which face capture data is applied, and providing a broadcasting platform for transmitting the generated animation in real time. includes

Description

모션 및 얼굴 캡쳐를 이용한 실시간 방송플랫폼 제공 방법, 장치 및 그 시스템 { METHOD, APPARARUS AND SYSTEM FOR PROVIDING REAL-TIME BROADCASTING PLATFORM USING MOTION AND FACIAL CAPTURE }Method, device and system for providing real-time broadcasting platform using motion and face capture { METHOD, APPARARUS AND SYSTEM FOR PROVIDING REAL-TIME BROADCASTING PLATFORM USING MOTION AND FACIAL CAPTURE }

본 발명은 모션 및 얼굴 캡쳐를 이용한 실시간 방송플랫폼 제공 방법, 장치 및 그 시스템에 관한 것으로 더욱 상세하게는, 모션 및 얼굴 캡쳐를 통해 실시간으로 가상의 캐릭터를 제어할 수 있는 이용한 실시간 방송플랫폼 제공 방법, 장치 및 그 시스템에 관한 것이다.The present invention relates to a method, apparatus and system for providing a real-time broadcasting platform using motion and face capture, and more particularly, to a method for providing a real-time broadcasting platform using motion and face capture to control a virtual character in real time; It relates to a device and its system.

최근 1인 미디어가 트렌드로 자리 잡으면서 '나만의 콘텐츠 만들기'가 단순한 취미를 넘어 돈이 되는 시대로 바뀌고 있다. 대표적인 콘텐츠 유통 채널이자 플랫폼인 유튜브를 중심으로 한 1인 방송 동영상 콘텐츠의 인기는 1인 크리에이터의 성장과 함께 기존 미디어 시장과 콘텐츠 산업을 재편하고 있다.Recently, as one-person media has become a trend, 'creating your own content' is changing into an era where money goes beyond a simple hobby. The popularity of one-person broadcast video content centered on YouTube, a representative content distribution channel and platform, is reorganizing the existing media market and content industry along with the growth of one-person creators.

여기에 다양한 1인 미디어 지원 사업이 더해져 신입 크리에이터들도 1인 미디어 시장에 보다 쉽게 진입하고, 양질의 콘텐츠를 제작할 수 있는 환경이 됐다. 또 이렇게 제작된 콘텐츠들은 지리적, 문화적, 언어적 한계를 뛰어넘어 전 세계의 시청자들에게 사랑받고 있다.In addition to this, various one-person media support projects have been added to create an environment where new creators can more easily enter the one-person media market and produce high-quality content. In addition, the contents produced in this way are loved by viewers around the world by going beyond geographical, cultural, and linguistic limitations.

이처럼 인터넷 방송 플랫폼을 중심으로 한 1인 미디어의 성장은 콘텐츠를 만들어내는 1인 크리에이터, 콘텐츠를 유통하는 플랫폼, 콘텐츠를 소비하는 시청자, 1인 크리에이터의 기획사 역할을 하는 MCN(Multi Channel Network)의 탄생 등 시장 전반의 변화와 성장을 이끌었다.As such, the growth of one-man media centering on the Internet broadcasting platform is the birth of the Multi Channel Network (MCN), which serves as an agency for one-person creators who create content, a platform that distributes content, viewers who consume content, and one-person creators. It has led to changes and growth throughout the market.

크리에이터의 영향력과 인기도는 시청자수와 수익이 기준이 되는 추세임으로, 크리에이터들도 시청자들의 관심을 끌고 유입을 유도하기 위하여 다양한 방법을 사용하고 있다.Since the number of viewers and revenue are the criteria for the influence and popularity of creators, creators are also using various methods to attract viewers' attention and induce influx.

그 중 가장 대표적인 것이 카메라를 이용하여 크리에이터를 촬영하고 시청자의 채팅에 따라 크리에이터는 바로 반응하여 시청자의 호응을 유도하는 방법으로, 인터넷 방송플랫폼이라서 가능해진 방식이다.Among them, the most representative method is to use a camera to film the creator, and the creator to respond immediately to the chatting of the viewer to induce a response from the viewer. This is a method made possible by the Internet broadcasting platform.

하지만, 이러한 방식은 얼굴을 공개하는 것을 부담스러워 하는 크리에이터에게는 사용하기 어려운 방식이다.However, this method is difficult to use for creators who are burdened with revealing their faces.

또한, 모션 캡쳐를 활용하여 인기 있는 만화나 동물 캐릭터를 연기해 시청자의 유입을 유도하고자 하는 크리에이터도 많았지만, 이러한 모션 캡쳐 및 애니메이션 장비는 고가로 방송을 처음 시작하려는 크리에이터에게는 부담이 되는 가격이다.In addition, there are many creators who want to induce viewers to flow by playing popular cartoon or animal characters using motion capture, but these motion capture and animation equipment are expensive and burdensome for creators who want to start broadcasting for the first time.

따라서, 상기와 같은 문제점을 해결하기 위하여 얼굴을 공개하지 않아도 시청자와 소통(리액션)이 가능하며 가격이 저렴한 모션캡쳐 솔루션에 대한 니즈가 점점 커지고 있다.Therefore, in order to solve the above problems, the need for a motion capture solution that can communicate (react) with a viewer without revealing the face and is inexpensive and has a low price is growing.

본 발명은 상술한 문제점을 해결하기 위한 것으로서, 실제 사람과 같은 형태와 움직임을 보여주는 가상의 캐릭터를 구현할 수 있는 모션 및 얼굴 캡쳐를 이용한 실시간 방송플랫폼 제공 방법, 장치 및 그 시스템을 제공하는 것을 그 목적으로 한다.An object of the present invention is to provide a method, an apparatus, and a system for providing a real-time broadcasting platform using motion and face capture capable of realizing a virtual character showing the shape and movement of a real person in order to solve the above problems. do it with

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시 예에 따른 모션 및 얼굴 캡쳐를 이용한 실시간 방송플랫폼 제공 방법은 사용자의 신체에 장착된 모션감지센서 및 상기 사용자가 촬영된 영상에 각각 기초하여, 상기 사용자의 모션캡쳐데이터 및 얼굴캡쳐데이터를 실시간으로 추출하는 단계, 상기 추출된 모션캡쳐데이터에 대응되는 동작을 나타내고, 상기 얼굴캡쳐데이터가 적용된 리깅데이터(rigging)에 대응되는 얼굴표정을 나타내는 기 설정된 캐릭터의 애니메이션을 생성하는 단계 및, 상기 생성된 애니메이션을 실시간으로 송출하기 위한 방송플랫폼을 제공하는 단계를 포함한다.A method for providing a real-time broadcasting platform using motion and face capture according to an embodiment of the present invention is based on a motion detection sensor mounted on a user's body and an image captured by the user, respectively, the user's motion capture data and face capture Extracting data in real time, generating an animation of a preset character representing a motion corresponding to the extracted motion capture data and representing a facial expression corresponding to rigging data to which the face capture data is applied; and providing a broadcasting platform for transmitting the generated animation in real time.

이때, 상기 추출하는 단계는 상기 사용자의 신체에 부착된 자이로(gyro) 센서를 통해 측정된 값에 기초하여, 상기 모션캡쳐데이터를 추출할 수 있다.In this case, the extracting may extract the motion capture data based on a value measured through a gyro sensor attached to the user's body.

또한, 상기 추출하는 단계는 상기 자이로센서를 통해 상기 사용자의 움직임에 대응되는 좌표데이터를 추출하는 단계, 상기 추출된 좌표데이터를 신체동작데이터로 변환하는 단계, 상기 변환된 신체동작데이터를 렌더러 엔진에 의한 시뮬레이션데이터와 비교하여 보정을 수행하는 단계 및, 상기 보정이 수행된 신체동작데이터를 상기 모션캡쳐데이터로 추출하는 단계를 포함할 수 있다.In addition, the extracting includes extracting coordinate data corresponding to the user's movement through the gyro sensor, converting the extracted coordinate data into body motion data, and transferring the converted body motion data to a renderer engine. It may include performing correction by comparing it with the simulation data of the present invention, and extracting the corrected body motion data as the motion capture data.

또한, 상기 추출하는 단계는 상기 사용자가 촬영된 영상 내의 상기 사용자 얼굴에서 기 설정된 객체를 인식하고, 상기 인식된 객체의 형상을 나타내는 마킹데이터를 상기 얼굴캡쳐데이터로 추출할 수 있다.In addition, the extracting may include recognizing a preset object from the user's face in the image captured by the user, and extracting marking data representing the shape of the recognized object as the face capture data.

또한, 상기 추출하는 단계는 상기 기 설정된 객체가 인식되면, 상기 인식된 객체의 중심선 및 윤곽선 중 적어도 어느 하나에 간격을 두고 배치되는 복수의 마커를 생성한 후, 상기 생성된 복수의 마커를 연결하여 상기 인식된 객체의 형상을 나타내는 상기 마킹데이터를 생성할 수 있다.In addition, in the extracting step, when the preset object is recognized, a plurality of markers disposed at an interval on at least one of a center line and an outline of the recognized object are generated, and then the plurality of generated markers are connected. It is possible to generate the marking data representing the shape of the recognized object.

또한, 상기 추출하는 단계는 사용자 입력에 따라 상기 마킹데이터의 마커 위치를 보정할 수 있다.In addition, the extracting may correct the position of the marker of the marking data according to a user input.

또한, 상기 생성하는 단계는 상기 추출된 얼굴캡쳐데이터를 상기 기 설정된 캐릭터의 리깅데이터에 적용하는 단계, 상기 리깅데이터의 상기 얼굴캡쳐데이터와의 오차를 보정하는 단계 및, 상기 오차가 보정된 리깅데이터에 기초하여, 상기 캐릭터의 표정 변화를 애니메이션으로 생성하는 단계를 포함할 수 있다.In addition, the generating includes applying the extracted face capture data to the rigging data of the preset character, correcting an error of the rigging data with the face capturing data, and rigging data in which the error is corrected Based on the , it may include the step of generating the change in the expression of the character as an animation.

또한, 상기 방법은 복수의 캐릭터 중 상기 애니메이션을 생성하기 위한 어느 하나의 캐릭터를 선택하고, 상기 선택된 캐릭터의 외형 및 동작 중 어느 하나를 커스터마이징하기 위한 UI를 상기 방송플랫폼을 통해 제공하는 단계를 더 포함할 수 있다.In addition, the method further includes the step of selecting any one character for generating the animation from among a plurality of characters and providing a UI for customizing any one of the appearance and operation of the selected character through the broadcasting platform can do.

또한, 상기 UI는 애드온(add-on) 형태의 UI 스크립트로 제작되는 것일 수 있다.In addition, the UI may be produced as an add-on type UI script.

한편, 본 발명의 일 실시 예에 따른, 모션 및 얼굴 캡쳐를 이용한 실시간 방송플랫폼 제공 장치는 사용자의 신체에 장착된 모션감지센서로부터 측정된 측정값 및 상기 사용자가 촬영된 영상을 각각 실시간으로 수신하는 입력부, 상기 모션캡쳐데이터에 대응되는 동작데이터 및 리깅데이터(rigging)를 저장하는 저장부 및, 상기 측정값 및 상기 촬영된 영상으로부터 각각 상기 사용자의 모션캡쳐데이터 및 얼굴캡쳐데이터를 추출하고, 상기 저장된 동작데이터 및 리깅데이터에 기초하여, 상기 추출된 모션캡쳐데이터에 대응되는 동작을 나타내고, 상기 얼굴캡쳐데이터가 적용된 리깅데이터에 대응되는 얼굴표정을 나타내는 기 설정된 캐릭터의 애니메이션을 생성하며, 상기 생성된 애니메이션을 실시간으로 송출하기 위한 방송플랫폼을 제공하는 프로세서를 포함한다.On the other hand, the apparatus for providing a real-time broadcasting platform using motion and face capture according to an embodiment of the present invention receives the measured value measured from the motion sensor mounted on the user's body and the image captured by the user in real time, respectively. An input unit, a storage unit for storing motion data and rigging data corresponding to the motion capture data, and extracting the user's motion capture data and face capture data from the measured value and the captured image, respectively, and the stored Based on the motion data and the rigging data, an animation of a preset character representing a motion corresponding to the extracted motion capture data and representing a facial expression corresponding to the rigging data to which the face capture data is applied is generated, and the generated animation It includes a processor that provides a broadcasting platform for transmitting in real time.

이때, 상기 모션감지센서는 자이로(gyro) 센서일 수 있다.In this case, the motion detection sensor may be a gyro sensor.

또한, 상기 프로세서는 상기 자이로센서를 통해 상기 사용자의 움직임에 대응되는 좌표데이터를 추출하고, 추출된 좌표데이터를 신체동작데이터로 변환하며, 상기 변환된 신체동작데이터를 렌더러 엔진에 의한 시뮬레이션데이터와 비교하여 보정을 수행하고, 상기 보정이 수행된 신체동작데이터를 상기 모션캡쳐데이터로 추출할 수 있다.In addition, the processor extracts coordinate data corresponding to the user's movement through the gyro sensor, converts the extracted coordinate data into body motion data, and compares the converted body motion data with simulation data by a renderer engine to perform the correction, and the corrected body motion data may be extracted as the motion capture data.

또한, 상기 프로세서는 상기 사용자가 촬영된 영상 내의 상기 사용자 얼굴에서 기 설정된 객체를 인식하고, 상기 인식된 객체의 형상을 나타내는 마킹데이터를 상기 얼굴캡쳐데이터로 추출할 수 있다.In addition, the processor may recognize a preset object from the user's face in the image captured by the user, and extract marking data representing the shape of the recognized object as the face capture data.

또한, 상기 프로세서는 상기 기 설정된 객체가 인식되면, 상기 인식된 객체의 중심선 및 윤곽선 중 적어도 어느 하나에 간격을 두고 배치되는 복수의 마커를 생성한 후, 상기 생성된 복수의 마커를 연결하여 상기 인식된 객체의 형상을 나타내는 상기 마킹데이터를 생성할 수 있다.In addition, when the preset object is recognized, the processor generates a plurality of markers disposed at an interval on at least one of a center line and an outline of the recognized object, and then connects the generated markers to recognize the plurality of markers. It is possible to generate the marking data indicating the shape of the object.

또한, 상기 장치는 사용자 인터페이스를 더 포함하고, 상기 프로세서는 상기 사용자 인터페이스를 통해 입력된 사용자 입력에 따라 상기 마킹데이터의 마커 위치를 보정할 수 있다.In addition, the device may further include a user interface, and the processor may correct the marker position of the marking data according to a user input input through the user interface.

또한, 상기 프로세서는 상기 추출된 얼굴캡쳐데이터를 상기 기 설정된 캐릭터의 리깅데이터에 적용하고, 상기 리깅데이터의 상기 얼굴캡쳐데이터와의 오차를 보정하며, 상기 오차가 보정된 리깅데이터에 기초하여, 상기 캐릭터의 표정 변화를 애니메이션으로 생성할 수 있다.In addition, the processor applies the extracted face capture data to the rigging data of the preset character, corrects an error of the rigging data with the face capture data, and based on the rigging data for which the error is corrected, the You can create an animation of a character's facial expression change.

또한, 상기 프로세서는 복수의 캐릭터 중 상기 애니메이션을 생성하기 위한 어느 하나의 캐릭터를 선택하고, 상기 선택된 캐릭터의 외형 및 동작 중 어느 하나를 커스터마이징하기 위한 UI를 상기 방송플랫폼을 통해 제공할 수 있다.In addition, the processor may select any one character for generating the animation from among a plurality of characters and provide a UI for customizing any one of an appearance and operation of the selected character through the broadcasting platform.

또한, 상기 UI는 애드온(add-on) 형태의 UI 스크립트로 제작되는 것일 수 있다.In addition, the UI may be produced as an add-on type UI script.

한편, 본 발명의 일 실시 예에 따른, 모션 및 얼굴 캡쳐를 이용한 실시간 방송플랫폼 제공 시스템은 사용자를 촬영하는 카메라, 상기 사용자의 신체에 장착되는 모션감지센서 및, 상기 모션감지센서로부터 측정된 측정값 및 상기 카메라로부터 촬영된 영상을 각각 실시간으로 수신하고, 상기 수신된 측정값 및 상기 촬영된 영상으로부터 각각 상기 사용자의 모션캡쳐데이터 및 얼굴캡쳐데이터를 추출하며, 상기 추출된 모션캡쳐데이터에 대응되는 동작을 나타내고, 상기 얼굴캡쳐데이터가 적용된 리깅데이터(rigging data)에 대응되는 얼굴표정을 나타내는 기 설정된 캐릭터의 애니메이션을 생성하고, 상기 생성된 애니메이션을 실시간으로 송출하기 위한 방송플랫폼을 제공하는 전자장치를 포함한다.On the other hand, the system for providing a real-time broadcasting platform using motion and face capture according to an embodiment of the present invention includes a camera for photographing a user, a motion detection sensor mounted on the user's body, and a measurement value measured from the motion detection sensor and receiving the images photographed from the camera in real time, extracting motion capture data and face capture data of the user from the received measurement values and the photographed images, respectively, and corresponding to the extracted motion capture data and an electronic device that provides a broadcasting platform for generating an animation of a preset character representing a facial expression corresponding to rigging data to which the face capture data is applied, and transmitting the generated animation in real time. do.

이상과 같은 본 발명의 다양한 실시 예에 따르면, 실시간으로 크리에이터의 모션캡쳐를 수행하고, 이와 같은 모션캡쳐 데이터로 미리 만들어진 캐릭터를 제어함으로써, 크리에이터가 원하는 캐릭터 또는 제작한 캐릭터를 이용하여 시청자와 실시간 커뮤니케이션 가능하며 저가의 방송 솔루션으로 사용이 가능하다.According to various embodiments of the present invention as described above, by performing motion capture of a creator in real time and controlling a character created in advance with such motion capture data, the creator uses a desired character or a created character to communicate in real time with a viewer It can be used as a low-cost broadcasting solution.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일 실시 예에 따른 모션 및 얼굴 캡쳐를 이용한 실시간 방송플랫폼 제공 방법을 간략히 설명하기 위한 흐름도,
도 2는 본 발명의 일 실시 예에 따른 실시간 방송플랫폼 제공을 위한 데이터 가공 방법을 간략히 설명하기 위한 흐름도,
도 3은 본 발명의 일 실시 예에 따른 얼굴캡쳐데이터 및 캐릭터의 애니메이션 데이터를 생성하기 위한 흐름도,
도 4 및 5는 본 발명의 일 실시 예에 따른 얼굴캡쳐데이터를 추출하는 과정을 설명하기 위한 화면,
도 6은 본 발명의 일 실시 예에 따른 얼굴캡쳐데이터를 리깅데이터에 적용하여 애니메이션 데이터를 생성하는 방법을 설명하기 위한 흐름도,
도 7은 본 발명의 일 실시 예에 따른 뉴런 센서에 의한 모션캡쳐데이터를 추출하는 과정을 설명하기 위한 흐름도,
도 8은 본 발명의 일 실시 예에 따른 뉴런 센서가 착용되는 신체범위의 다양한 예를 도시한 도면,
도 9는 본 발명의 일 실시 예에 따른 뉴런 센서에 의한 모션캡쳐데이터를 생성하는 모습을 나타낸 도면,
도 10은 본 발명의 일 실시 예에 따른 뉴런 센서에 의한 모션캡쳐데이터를 보정하는 과정을 설명하기 위한 흐름도,
도 11은 본 발명의 일 실시 예에 따른 모션캡쳐데이터 추출 최적화 알고리즘을 설명하기 위한 도면,
도 12는 본 발명의 일 실시 예에 따른 자이로센서에 의한 모션캡쳐 결과화면을 도시한 도면,
도 13은 본 발명의 일 실시 예에 따른 광학센서에 의한 모션캡쳐데이터를 추출하는 방법을 설명하기 위한 흐름도,
도 14 및 15는 본 발명의 일 실시 예에 따른 광학센서에 의한 모션캡쳐데이터를 생성하는 모습을 나타낸 도면,
도 16 및 17은 본 발명의 일 실시 예에 따른 캐릭터 커스터마이징 UI 및 방송 송출 UI를 나타낸 도면,
도 18은 본 발명의 일 실시 예에 따른 리얼타임 3D 엔진이 방송플랫폼과 실시간으로 연동된 화면을 도시한 도면,
도 19는 본 발명의 일 실시 예에 따른 장치의 구성을 간략히 도시한 블록도,
도 20은 본 발명의 일 실시 예에 따른 시스템의 구성을 간략히 도시한 블록도이다.
In order to more fully understand the drawings cited in the Detailed Description, a brief description of each drawing is provided.
1 is a flowchart for briefly explaining a method of providing a real-time broadcasting platform using motion and face capture according to an embodiment of the present invention;
2 is a flowchart for briefly explaining a data processing method for providing a real-time broadcasting platform according to an embodiment of the present invention;
3 is a flowchart for generating face capture data and animation data of a character according to an embodiment of the present invention;
4 and 5 are screens for explaining a process of extracting face capture data according to an embodiment of the present invention;
6 is a flowchart for explaining a method of generating animation data by applying face capture data to rigging data according to an embodiment of the present invention;
7 is a flowchart for explaining a process of extracting motion capture data by a neuron sensor according to an embodiment of the present invention;
8 is a view showing various examples of a body range in which a neuron sensor is worn according to an embodiment of the present invention;
9 is a view showing a state in which motion capture data is generated by a neuron sensor according to an embodiment of the present invention;
10 is a flowchart for explaining a process of correcting motion captured data by a neuron sensor according to an embodiment of the present invention;
11 is a diagram for explaining a motion capture data extraction optimization algorithm according to an embodiment of the present invention;
12 is a view showing a motion capture result screen by a gyro sensor according to an embodiment of the present invention;
13 is a flowchart for explaining a method of extracting motion capture data by an optical sensor according to an embodiment of the present invention;
14 and 15 are views showing a state in which motion capture data is generated by an optical sensor according to an embodiment of the present invention;
16 and 17 are diagrams showing a character customization UI and a broadcast transmission UI according to an embodiment of the present invention;
18 is a view showing a screen in which a real-time 3D engine is interlocked with a broadcasting platform in real time according to an embodiment of the present invention;
19 is a block diagram schematically illustrating the configuration of an apparatus according to an embodiment of the present invention;
20 is a block diagram schematically illustrating the configuration of a system according to an embodiment of the present invention.

먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 발명의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어일 수 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다.First, terms used in the present specification and claims have been selected in consideration of functions in various embodiments of the present invention. However, these terms may vary depending on the intention of a person skilled in the art, legal or technical interpretation, and emergence of new technology. Also, some terms may be arbitrarily selected by the applicant. These terms may be interpreted in the meanings defined herein, and in the absence of specific definitions, they may be interpreted based on the general content of the present specification and common technical common sense in the art.

또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조 번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명하도록 한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성 요소를 모두 도시하고 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다.Also, the same reference numerals or reference numerals in each drawing appended hereto indicate parts or components that perform substantially the same functions. For convenience of description and understanding, the same reference numbers or reference numerals are used in different embodiments to be described. That is, even though all the components having the same reference number are shown in the plurality of drawings, the plurality of drawings do not mean one embodiment.

또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 '제1', '제2' 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성 요소들을 서로 구별하기 위하여 사용하는 것이며, 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안될 것이다. 일 예로, 이러한 서수와 결합된 구성 요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한 해석되어서는 안된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다.Also, in this specification and claims, terms including ordinal numbers such as 'first' and 'second' may be used to distinguish between elements. This ordinal number is used to distinguish the same or similar components from each other, and the meaning of the term should not be limitedly interpreted due to the use of the ordinal number. As an example, for components combined with such an ordinal number, the order of use or arrangement of the elements should not be construed as being limited by the number. If necessary, each ordinal number may be used interchangeably.

본 명세서에서 단수의 표현은 문맥상 명백하게 다름을 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, '포함하다' 또는 '구성하다' 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as 'comprise' or 'comprise' are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other It should be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.

또한, 본 발명의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한 어떤 부분이 어떤 구성 요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있다는 것을 의미한다.Also, in an embodiment of the present invention, when it is said that a part is connected to another part, this includes not only direct connection but also indirect connection through another medium. In addition, the meaning that a certain part includes a certain component means that other components may be further included, rather than excluding other components, unless specifically stated to the contrary.

이하, 첨부된 도면을 참조하여 본 발명을 더욱 구체적으로 설명하기로 한다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 모션 및 얼굴 캡쳐를 이용한 실시간 방송플랫폼 제공 방법을 간략히 설명하기 위한 흐름도이다.1 is a flowchart for briefly explaining a method for providing a real-time broadcasting platform using motion and face capture according to an embodiment of the present invention.

먼저, 사용자의 신체에 장착된 모션감지센서 및 사용자가 촬영된 영상에 각각 기초하여, 사용자의 모션캡쳐데이터 및 얼굴캡쳐데이터를 실시간으로 추출할 수 있다(S110).First, based on the motion detection sensor mounted on the user's body and the image captured by the user, respectively, the user's motion capture data and face capture data can be extracted in real time (S110).

구체적으로, 모션캡쳐데이터는 사용자의 신체에 장착된 모션감지센서를 통해 측정된 값에 기초하여 추출된다. 이때, 모션감지센서는 자이로(gyro) 센서로 구현될 수 있다.Specifically, the motion capture data is extracted based on a value measured through a motion sensor mounted on the user's body. In this case, the motion detection sensor may be implemented as a gyro sensor.

자이로센서는 3축 자이로스코프(gyroscope), 3축 액셀로미터(accelerometer), 3축 마그네토미터(magnetometer)를 포함하는 IMU(Inertial Mesurment Unit)로 구현될 수 있으며, 스트랩에 의해 사용자의 신체에 부착되고 조여질 수 있다. IMU는 뉴런 센서로 통칭되기도 한다.The gyroscope may be implemented as an IMU (Inertial Measurement Unit) including a 3-axis gyroscope, a 3-axis accelerometer, and a 3-axis magnetometer, and is attached to the user's body by a strap. and can be tightened. The IMU is also commonly referred to as a neuron sensor.

허브(hub)는 자이로센서로부터 실시간으로 측정되는 값을 수신한 후, 이 데이터를 와이파이(Wi-Fi) 또는 USB 등의 유무선 통신을 통해 방송 플랫폼을 제공하는 장치에 전송할 수 있다.After receiving a value measured in real time from the gyro sensor, the hub may transmit this data to a device providing a broadcasting platform through wired/wireless communication such as Wi-Fi or USB.

사용자의 신체에 장착된 자이로센서를 통해, 사용자의 움직임에 대응되는 좌표데이터를 추출하고, 추출된 좌표데이터를 신체동작데이터로 변환할 수 있다. 이때, 변환된 신체동작데이터를 렌더러 엔진에 의한 시뮬레이션데이터와 비교하여 보정이 수행될 수 있으며, 보정이 수행된 신체동작데이터가 모션캡쳐데이터로 추출될 수 있다.Coordinate data corresponding to the user's movement may be extracted through the gyro sensor mounted on the user's body, and the extracted coordinate data may be converted into body motion data. In this case, correction may be performed by comparing the converted body motion data with simulation data by the renderer engine, and the body motion data on which the correction has been performed may be extracted as motion capture data.

한편, 사용자가 촬영된 영상 내의 사용자 얼굴에서 기 설정된 객체를 인식하고, 인식된 객체의 형상을 나타내는 마킹데이터를 얼굴캡쳐데이터로 추출할 수 있다. 여기서, 마킹데이터는 인식된 객체의 중심선 및 윤곽선 중 적어도 어느 하나에 간격을 두고 배치되는 복수의 마커를 연결하여, 인식된 객체의 형상을 나타내는 데이터일 수 있다.Meanwhile, the user may recognize a preset object from the user's face in the captured image, and may extract marking data representing the shape of the recognized object as the face capture data. Here, the marking data may be data representing the shape of the recognized object by connecting a plurality of markers disposed at an interval to at least one of a center line and an outline of the recognized object.

이때, 사용자 입력에 따라 마킹데이터의 마커 위치를 보정할 수 있다.At this time, it is possible to correct the position of the marker of the marking data according to the user input.

이후, 추출된 모션캡쳐데이터에 대응되는 동작을 나타내고, 얼굴캡쳐데이터가 적용된 리깅데이터에 대응되는 얼굴표정을 나타내는 기 설정된 캐릭터의 애니메이션을 생성한다(S120).Thereafter, an animation of a preset character representing a motion corresponding to the extracted motion capture data and representing a facial expression corresponding to the rigging data to which the face capture data is applied is generated (S120).

이때, 추출된 얼굴캡쳐데이터를 기 설정된 캐릭터의 리깅데이터(rigging)에 적용하고, 리깅데이터의 얼굴캡쳐데이터와의 오차를 보정할 수 있다. 이때, 오차가 보정된 리깅데이터에 기초하여, 캐릭터의 표정 변화를 애니메이션으로 생성할 수 있다.In this case, the extracted face capture data may be applied to rigging data of a preset character, and an error between the rigging data and the face capture data may be corrected. At this time, based on the rigging data for which the error is corrected, the change in the expression of the character may be generated as an animation.

이후, 생성된 애니메이션을 실시간으로 송출하기 위한 방송 플랫폼을 제공한다(S130). 이때, 복수의 캐릭터 중 애니메이션을 생성하기 위한 어느 하나르ㅣ 캐릭터를 선택하고, 선택된 캐릭터의 외형 및 동작 중 어느 하나를 커스터마이징하기 위한 UI를 방송플랫폼을 통해 제공할 수 있다.Thereafter, a broadcasting platform for transmitting the generated animation in real time is provided (S130). In this case, any one of the plurality of characters for generating animation may be selected, and a UI for customizing any one of the appearance and operation of the selected character may be provided through the broadcasting platform.

이하, 구체적인 각 단계의 실시 예에 있어서는 도면과 함께 후술하도록 한다.Hereinafter, specific examples of each step will be described later along with the drawings.

도 2는 본 발명의 일 실시 예에 따른 실시간 방송플랫폼 제공을 위한 데이터 가공 방법을 간략히 설명하기 위한 흐름도이다.2 is a flowchart for briefly explaining a data processing method for providing a real-time broadcasting platform according to an embodiment of the present invention.

콘텐츠가 기획되면(S210), 3D 캐릭터 모델링을 기반으로, 리얼타임 렌더러 엔진을 통해, 실사에 가까운 모델링된 데이터를 구현할 수 있다(S220). 이때, 리얼타임 렌더러 엔진은 예를 들어, 언리얼(unreal) 엔진으로 구현될 수 있다.When the content is planned (S210), based on 3D character modeling, through a real-time renderer engine, it is possible to implement modeled data close to the real thing (S220). In this case, the real-time renderer engine may be implemented as, for example, an unreal engine.

이후, 캐릭터 리깅(character rigging)을 통해, 사람의 움직임에 대한 범위를 지정해주고(S230), 모션/얼굴 캡쳐를 통해 모션캡쳐데이터 및 얼굴캡쳐데이터를 추출한다(S240). 이때, 모션캡쳐데이터는 자이로 타입의 모션캡쳐를 통해 실제 사람의 움직임을 데이터화하여 추출할 수 있으며, 얼굴캡쳐데이터는 마커없이도 촬영된 영상을 통해 얼굴 각 부위의 움직임을 캡쳐하여 추출할 수 있다.Thereafter, through character rigging, a range for human movement is designated (S230), and motion capture data and face capture data are extracted through motion/face capture (S240). In this case, the motion capture data can be extracted by converting actual human motion into data through gyro-type motion capture, and the face capture data can be extracted by capturing the motion of each part of the face through an image taken without a marker.

이후, 추출된 모션캡쳐데이터에 대응되는 동작을 나타내고, 얼굴캡쳐데이터가 적용된 리깅데이터에 대응되는 얼굴표정을 나타내는 3D 애니메이션을 생성할 수 있고(S250), 이를 기 설정된 캐릭터에 적용하여 생동감 있는 애니메이션 캐릭터(S260)를 구현할 수 있다.Thereafter, a 3D animation representing a motion corresponding to the extracted motion capture data and representing a facial expression corresponding to the rigging data to which the face capture data is applied can be generated (S250), and a lively animation character is applied by applying it to a preset character (S260) can be implemented.

한편, S210 내지 S260 단계와 동시에 또는 별도로, S210 내지 S260 단계에서 구현된 캐릭터를 커스터마이징할 수 있는 UI 스크립트를 실시간 영상 송출 플랫폼(실시간 방송 플랫폼)에 제공하기 위한 소프트웨어를 기획하고(S270), 기획된 소프트웨어에서 제공되는, 캐릭터의 선택, 커스터마이징 및 효과 등을 지정할 수 있는 UI를 디자인할 수 있다(S280). 디자인된 UI를 구현하기 위한 프로그래밍이 수행되면(S290), S260 단계에서 구현된 캐릭터의 애니메이션데이터 및 S290 단계에서 구현된 프로그래밍 데이터를 실시간 영상 송출 플랫폼(10)에 전송할 수 있다.On the other hand, simultaneously or separately from steps S210 to S260, a software for providing a UI script capable of customizing the character implemented in steps S210 to S260 to a real-time image transmission platform (real-time broadcasting platform) is planned (S270), and the planned It is possible to design a UI for specifying selection, customization, and effects of a character provided by the software (S280). When programming for implementing the designed UI is performed (S290), animation data of the character implemented in step S260 and programming data implemented in step S290 may be transmitted to the real-time image transmission platform 10 .

도 3은 본 발명의 일 실시 예에 따른 얼굴캡쳐데이터 및 캐릭터의 애니메이션 데이터를 생성하기 위한 흐름도이다.3 is a flowchart for generating face capture data and animation data of a character according to an embodiment of the present invention.

도 3에 도시된 마커리스 알고리즘에 따르면, 커스터마이징된 캐릭터의 표정 연기를 위한 얼굴캡쳐데이터를 생성하는데에 있어서, 마커를 얼굴에 직접 찍고 이를 인식하도록 했었던 기존 얼굴캡쳐방식과 달리, 마커 없이도 얼굴캡쳐데이터를 추출하고, 이에 기초하여 리깅데이터의 움직임을 나타내는 애니메이션데이터를 생성할 수 있다.According to the markerless algorithm shown in Fig. 3, in generating the face capture data for the facial expression performance of the customized character, unlike the existing face capturing method in which a marker is directly captured on the face and recognized, the face capture data without a marker , and based on this, animation data representing the movement of the rigging data can be generated.

먼저, 카메라를 통해 얼굴 데이터를 촬영하고(S310), 마커리스 알고리즘에 따라 얼굴부위별 위치를 설정한다(S320).First, face data is photographed through the camera (S310), and a position for each face part is set according to a markerless algorithm (S320).

이후, 얼굴부위별 위치 데이터를 추적 및 분석하고(S330), 움직임이 입혀질 리깅데이터를 로딩한다(S340).Thereafter, the position data for each face part is tracked and analyzed (S330), and the rigging data to which the movement is applied is loaded (S340).

추적된 위치 데이터를 리깅데이터에 추가하고(S350), 얼굴 부위별 각 위치의 오차 및 노이즈로 인한 오류를 보정한다(S360). 이때, 실제 얼굴 부위별 각 위치의 값과 보정된 값의 차이가 기 설정된 임계값 이상인지 여부를 판단하고(S370), 임계값 이상인 경우, 출력이 비정상이라고 판단하고(S370:N) S360 단계를 재수행한다. 임계값 미만인 경우 출력이 정상이라고 판단하고(S370:Y), 데이터 최적화 과정을 수행하여(S380), 최종적으로 최적화된 애니메이션데이터를 생성할 수 있다(S390).The tracked position data is added to the rigging data (S350), and the error due to the error and noise of each position for each face part is corrected (S360). At this time, it is determined whether the difference between the value of each position for each actual face part and the corrected value is equal to or greater than a preset threshold value (S370), and if it is equal to or greater than the threshold value, it is determined that the output is abnormal (S370:N) and step S360 redo If it is less than the threshold, it is determined that the output is normal (S370:Y), and a data optimization process is performed (S380), and finally optimized animation data can be generated (S390).

도 4 및 5는 본 발명의 일 실시 예에 따른 얼굴캡쳐데이터를 추출하는 과정을 설명하기 위한 화면이다.4 and 5 are screens for explaining a process of extracting face capture data according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 사용자의 촬영 영상에서 얼굴 표정을 나타내는데 주요한 포인트가 되는 눈, 코 및 입 등의 객체를 자동으로 인식할 수 있다. 이때, 인식된 각 객체의 중심선 또는 윤곽선 상에 간격을 두어 마커를 생성한 후, 생성된 마커를 연결하여 각 객체의 형상을 나타내는 마킹데이터(41)를 생성할 수 있다.As shown in FIG. 4 , objects such as eyes, nose, and mouth, which are main points for representing facial expressions in a user's captured image, may be automatically recognized. At this time, after creating markers by spacing them on the center line or outline of each recognized object, the created markers are connected to generate the marking data 41 representing the shape of each object.

이때, 도 5에 도시된 바와 같이, 자동으로 인식된 각 객체의 마커는 실제 부위의 중심선 또는 윤곽선과 오차가 발생할 수도 있으므로, 사용자 입력에 따라 사용자가 직접 마커의 위치를 미세 조절하는 것이 가능하다.At this time, as shown in FIG. 5 , since the automatically recognized marker of each object may have an error with the center line or outline of the actual part, it is possible for the user to fine-tune the position of the marker directly according to a user input.

도 6은 본 발명의 일 실시 예에 따른 얼굴캡쳐데이터를 리깅데이터에 적용하여 애니메이션 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a method of generating animation data by applying face capture data to rigging data according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 마커의 세부 조절이 끝나면 커스터마이징된 캐릭터의 표정 연기를 하는데에 기준이 되는 마커(61-1, 61-2, 61-3)들을 선택하고, 추적된 마커 데이터를 캐릭터 리깅데이터에 적용할 수 있다. 이에 따라, 리깅데이터에서 선택된 마커(61-1, 61-2, 61-3)에 대응되는 포인트(62-1, 62-2, 62-3)가 마커(61-1, 61-2, 61-3)의 움직임과 동기화될 수 있다.As shown in FIG. 6 , when detailed adjustment of the marker is finished, the markers 61-1, 61-2, and 61-3 that are the standards for performing the customized character's facial expression are selected, and the tracked marker data is converted into the character. It can be applied to rigging data. Accordingly, the points 62-1, 62-2, 62-3 corresponding to the selected markers 61-1, 61-2, and 61-3 in the rigging data are the markers 61-1, 61-2, 61 It can be synchronized with the movement of -3).

도 7은 본 발명의 일 실시 예에 따른 자이로센서에 의한 모션캡쳐데이터를 추출하는 과정을 설명하기 위한 흐름도이다.7 is a flowchart illustrating a process of extracting motion capture data by a gyro sensor according to an embodiment of the present invention.

도 7의 모션캡쳐 알고리즘에 따르면, 기존에 가장 널리 사용된 방식인, 신체에 마커를 장착하고 이를 촬영하여 모션을 캡쳐하였던 방식 대신에, 마커 없이도 자이로센서를 활용하여 모션을 캡쳐할 수 있다.According to the motion capture algorithm of FIG. 7 , motion can be captured by using a gyro sensor without a marker, instead of the conventional most widely used method of capturing motion by attaching a marker to the body and photographing it.

먼저, 자이로스코프 및 허브를 셋업하고(S710), 감지된 모션캡쳐데이터에 대한 캘리브레이션을 수행할 수 있다(S720). 이때, 모션캡쳐데이터의 출력이 정상 범위 내인지 여부를 판단하고(S730), 정상 범위 내인 경우(S730:Y), 출력된 모션캡쳐데이터의 좌표값을 저장한다(S740). 정상 범위 내가 아닌 경우(S730:N)에는 캘리브레이션을 재수행할 수 있다. 모션캡쳐데이터의 출력이 정상 범위 내인지 여부는 출력값과 기 설정된 임계값을 비교하여, 그 값의 차이가 기 설정된 값 이상인지 여부에 따라 판단할 수 있다.First, the gyroscope and the hub may be set up (S710), and calibration may be performed on the detected motion capture data (S720). At this time, it is determined whether the output of the motion capture data is within the normal range (S730), and if it is within the normal range (S730:Y), the coordinates of the output motion capture data are stored (S740). If it is not within the normal range (S730:N), calibration may be performed again. Whether the output of the motion capture data is within a normal range may be determined according to whether the difference between the output value and a preset threshold value is greater than or equal to a preset value by comparing the output value.

이후, 저장된 데이터의 좌표값을 신체동작데이터로 변환하고(S750), 변환된 신체동작데이터의 실제동작과의 오차 및 노이즈에 의한 오류를 보정한다(S760). 보정된 신체동작데이터의 출력이 정상 범위 내인지 여부를 판단하고(S770), 정상 범위 내인 경우(S770:Y), 데이터 최적화를 수행하여(S780), 최종 신체동작데이터를 출력한다(S790).Thereafter, the coordinate values of the stored data are converted into body motion data (S750), and errors due to noise and errors of the converted body motion data with actual motions are corrected (S760). It is determined whether the output of the corrected body motion data is within the normal range (S770), and if it is within the normal range (S770:Y), data optimization is performed (S780), and final body motion data is output (S790).

보정된 신체동작데이터의 출력이 정상 범위 내가 아닌 경우에는(S770:N) S760 단계의 보정을 재수행할 수 있다.When the output of the corrected body motion data is not within the normal range (S770:N), the correction in step S760 may be re-performed.

신체동작데이터의 출력이 정상 범위 내인지 여부는 출력값과 기 설정된 임계값을 비교하여, 그 값의 차이가 기 설정된 값 이상인지 여부에 따라 판단할 수 있다.Whether the output of the body motion data is within a normal range may be determined according to whether the difference between the output value and a preset threshold value is greater than or equal to a preset value by comparing the output value.

도 8은 본 발명의 일 실시 예에 따른 뉴런 센서가 착용되는 신체범위의 다양한 예를 도시한 도면이다.8 is a diagram illustrating various examples of a body range in which a neuron sensor is worn according to an embodiment of the present invention.

뉴런 센서는 3축 자이로스코프, 3축 가속도계, 3축 자력계가 내장된 IMU(관성 측정 장치)를 통해 움직임을 실시간으로 체크하게 되며, 데이터는 Embedded data fusion, Human body dynamic 및 Physical engine 알고리즘에 입각하여 계산된 후, 60fs의 속도로 9개의 축 센서 유닛이 사용자(액터)의 몸에 함께 장착되는 허브에 전달된다. 허브에 전달된 데이터는 와이파이(Wi-Fi) 또는 USB 케이블을 통해 모션캡쳐데이터를 출력하는 전자장치(100)에 최종적으로 전달될 수 있다.The neuron sensor checks the movement in real time through an IMU (Inertial Measurement Unit) with a built-in 3-axis gyroscope, 3-axis accelerometer, and 3-axis magnetometer. After being calculated, the 9 axis sensor units are transmitted at a speed of 60 fs to a hub that is mounted together on the body of the user (actor). The data transmitted to the hub may be finally delivered to the electronic device 100 that outputs the motion capture data through Wi-Fi or a USB cable.

신체에 장착되는 센서의 개수는 세부적인 움직임을 포착하는 범위에 따라 (a) 내지 (d)와 같이 설정될 수 있다.The number of sensors mounted on the body may be set as (a) to (d) according to the range for capturing detailed movements.

(a)와 같은 11 뉴런의 경우, 손, 발을 제외한 팔, 다리, 몸통에만 부착되어 모션캡쳐데이터를 추적할 수 있다.In the case of 11 neurons as shown in (a), they are attached only to the arms, legs, and torso, excluding the hands and feet, so that motion capture data can be tracked.

(b)와 같은 18 뉴런의 경우, (a)의 실시 예에서 어깨, 손, 발에 추가적으로 부착되어 모션캡쳐데이터를 추적할 수 있다.In the case of 18 neurons as shown in (b), in the embodiment of (a), they are additionally attached to the shoulder, hand, and foot to track the motion capture data.

(c)와 같은 21 뉴런의 경우, (b)의 실시 예에서 왼손 손가락에 추가적으로 부착되어 모션캡쳐데이터를 추적할 수 있다.In the case of 21 neurons as shown in (c), in the embodiment of (b), they are additionally attached to the finger of the left hand so that motion capture data can be tracked.

(d)와 같은 32 뉴런의 경우, (c)의 실시 예에서 오른손 손가락에 추가적으로 부착되어 모션캡쳐데이터를 추적할 수 있다.In the case of 32 neurons as shown in (d), in the embodiment of (c), they are additionally attached to the finger of the right hand to track the motion capture data.

도 9는 본 발명의 일 실시 예에 따른 자이로센서에 의한 모션캡쳐데이터를 생성하는 모습을 나타낸 도면이다.9 is a diagram illustrating a state in which motion capture data is generated by a gyro sensor according to an embodiment of the present invention.

사용자가 뉴런을 착용하였을 때, 도 9의 (a)에 도시된 바와 같은 모델링이 수행될 수 있다. 이때, 뉴런을 착용한 사용자의 신체사이즈를 선택하여 적용할 수 있으며, 캘리브레이션 및 자세교정이 수행될 수 있다.When a user wears a neuron, modeling as shown in FIG. 9A may be performed. In this case, the body size of the user wearing the neurons may be selected and applied, and calibration and posture correction may be performed.

이때, 뉴런 센서를 이용한 모션캡쳐 방식은 기존 마커를 위용한 모션 캡쳐 방식에 비해 오차가 발생할 여지가 크므로, 이를 캘리브레이션하기 위한 알고리즘을 At this time, since the motion capture method using the neuron sensor has a large margin of error compared to the existing motion capture method for markers, an algorithm for calibrating it

캘리브레이션은 외부 잡음으로부터 데이터의 혼선을 방지하고 사용자의 움직임을 정확하게 추출하기 위해 진행될 수 있다. 움직임이 큰 동작의 경우, 캘리브레이션이 정확하지 않은 경우가 생기므로, 이 경우에는 캘리브레이션의 재작업을 통해 모션캡쳐의 정확도를 유지할 수 있다.Calibration may be performed to prevent cross-talk of data from external noise and to accurately extract the user's movement. In the case of a motion with a large movement, the calibration may not be accurate. In this case, the accuracy of the motion capture can be maintained through rework of the calibration.

도 9의 (b)에 도시된 바와 같이, 4가지 자세를 취한 후, 이러한 자세가 인식될 때까지 유지하여 캘리브레이션을 수행한 후 캡쳐를 진행할 수 있다. 도 9의 (b)는 4가지 교정용 포즈를 나타낸 것이다.As shown in (b) of FIG. 9 , after taking four postures, it is maintained until these postures are recognized to perform calibration, and then capture can be performed. Figure 9 (b) shows four poses for correction.

도 12에 도시된 바와 같이, 사용자(1210)의 감지된 모션에 따라, 모션캡쳐데이터에 대응되는 동작데이터(122)가 생성되며, 동작데이터(122)의 움직임에 따라 기 설정된 캐릭터(1230)가 대응되도록 움직임을 수행할 수 있다.12 , according to the detected motion of the user 1210 , motion data 122 corresponding to the motion capture data is generated, and a preset character 1230 is generated according to the movement of the motion data 122 . The movement can be performed to correspond.

도 10은 본 발명의 일 실시 예에 따른 자이로센서에 의한 모션캡쳐데이터를 보정하는 과정을 설명하기 위한 흐름도이다.10 is a flowchart illustrating a process of correcting motion captured data by a gyro sensor according to an embodiment of the present invention.

먼저, 자이로센서를 통한 모션캡쳐를 수행하면서(S1010-1), 신체동작 데이터의 실제 좌표값을 추출한다(S1020-1). 이와 동시에, 유니티(unity) 또는 언리얼(unreal) 엔진과 같은 리얼타임 렌더러 엔진을 통한 시뮬레이션을 수행하고(S1010-2), 시뮬레이션된 데이터의 좌표값을 추출하는 동작(S1020-2)을 동시에 수행할 수 있다.First, while performing motion capture through the gyro sensor (S1010-1), the actual coordinate values of the body motion data are extracted (S1020-1). At the same time, simulation through a real-time renderer engine such as Unity or Unreal engine is performed (S1010-2), and an operation of extracting coordinate values of the simulated data (S1020-2) is simultaneously performed. can

이에 따라 신체동작 데이터 및 시뮬레이션 데이터가 각각 출력되면(S1130-1, S1130-2), 출력된 신체동작 데이터 및 시뮬레이션 데이터를 서로 비교하여, 신체동작 데이터가 시뮬레이션 데이터와 가장 근접할 수 있도록 보정을 수행한다.Accordingly, when body motion data and simulation data are respectively output (S1130-1 and S1130-2), the output body motion data and simulation data are compared with each other, and correction is performed so that the body motion data is closest to the simulation data. do.

이때 보정 과정은 위치값의 오차, 외부 노이즈로 인한 오류 및 격한 움직임에 의해 발생한 오차 등을 보정하는 작업 등으로 이루어질 수 있다.In this case, the correction process may be performed by correcting an error of a position value, an error caused by external noise, an error caused by a violent movement, and the like.

이렇게 보정된 신체동작데이터가 캐릭터의 움직임을 표현하기 위한 최종 신체동작데이터로 출력되게 된다(S1040). 그리고, 위와 같은 비교 작업 및 보정 작업은 스크립트화될 수 있다.The body motion data corrected in this way is output as final body motion data for expressing the movement of the character (S1040). And, the above comparison operation and correction operation may be scripted.

도 11은 본 발명의 일 실시 예에 따른 모션캡쳐데이터 추출 최적화 알고리즘을 설명하기 위한 도면이다.11 is a diagram for explaining a motion capture data extraction optimization algorithm according to an embodiment of the present invention.

본 발명에서 사용하고자 하는 자이로 형태의 모션캡쳐방식의 추출데이터는 BVH를 기반으로 한다. BVH 데이터는 모션의 포지션(position) 값과 로테이션(rotation) 값을 포함한 X, Y 및 Z 축의 위치 정보가 들어간 본 데이터(Bone data)이므로, 실제 사용하고자 하는 캐릭터 Bone에 리깅 데이터의 포지션 및 로테이션 값을 (0,0,0)으로 수렴시킬 때 정확한 위치 값을 추출할 수 있다.The extracted data of the gyro-type motion capture method to be used in the present invention is based on BVH. Since BVH data is bone data that contains position information on the X, Y and Z axes including motion position and rotation values, the position and rotation values of the rigging data are placed on the character bone to be used. When converges to (0,0,0), the exact position value can be extracted.

그러나, 현재 방식(1110)에서는 추출되는 데이터를 (0,0,0)으로 자동 보정하는 기능이 없으므로, BVH 데이터 출력시 모든 데이터의 위치데이터가 일관된 형태로 나오지 않고, 데이터 자체가 오류가 나는 현상이 발생하여 출력 후 추가적으로 보정 과정을 거치게 되며, 그로 인해 최종데이터의 출력 진행에 외부 수정을 진행하는 일이 발생하게 된다.However, in the current method 1110, since there is no function to automatically correct the extracted data to (0,0,0), the location data of all data does not come out in a consistent form when outputting BVH data, and the data itself is an error. This occurs, and an additional correction process is performed after output, and as a result, external correction is performed in the progress of outputting the final data.

이를 보완하기 위하여, 뉴런데이터를 출력하는 과정 및 Bone 데이터를 출력하는 과정(1130) 중간에 X,Y 및 Z 값을 (0,0,0)으로 보정해주는 변환과정(1120)을 추가하여, 실시간으로 데이터의 위치 값이 정상적으로 출력되도록 하여 최종 데이터 출력까지 걸리는 딜레이를 감소시킬 수 있다.In order to compensate for this, a conversion process 1120 for correcting X, Y and Z values to (0,0,0) is added in the middle of the process of outputting neuron data and outputting bone data (1130) in real time. This allows the position value of the data to be output normally, thereby reducing the delay until the final data output.

리얼타임 렌더러 엔진에서 동작하는 소프트웨어를 제작 후에, C++ 및 JAVA를 통해 내부에 적용 가능한 스크립트 제작을 진행하여, 프로그램에서 최종데이터 출력시에 추출데이터를 확인 후 변경해주는 형태로 데이터 추출 최적화를 구현할 수 있다.After creating software that runs on the real-time renderer engine, you can create scripts that can be applied internally through C++ and JAVA, and implement data extraction optimization in the form of checking and changing the extracted data when outputting the final data in the program. .

도 13은 본 발명의 일 실시 예에 따른 광학센서에 의한 모션캡쳐데이터를 추출하는 방법을 설명하기 위한 흐름도이다.13 is a flowchart for explaining a method of extracting motion capture data by an optical sensor according to an embodiment of the present invention.

본 발명의 모션캡쳐데이터는 광학센서에 의해 추출될 수도 있다. 광학식 모션캡쳐 방식은, 옵티컬 카메라, 스위칭 허브, 라우터, 마커가 부착된 모션 수트 및 마커를 포함하는 장비로 수행될 수 있다.The motion capture data of the present invention may be extracted by an optical sensor. The optical motion capture method may be performed with an optical camera, a switching hub, a router, a motion suit with a marker attached thereto, and equipment including a marker.

옵티컬 카메라는 적외선 렌즈가 포함된 고해상도 카메라를 통해 액터(사용자) 적외선을 투사하여 재귀반사된 위치데이터 값을 스위칭 허브로 전달하는 구성이다.The optical camera is a configuration that transmits the retro-reflected position data value to the switching hub by projecting the actor (user) infrared rays through a high-resolution camera with an infrared lens.

스위칭 허브는 옵티컬 카메라와 이더넷 케이블로 연결되어, 전원을 공급하고 촬영된 데이터를 수신하여 라우터로 전달하는 구성이다.The switching hub is connected to the optical camera with an Ethernet cable, supplies power, receives captured data, and delivers it to the router.

라우터는 각 스위칭 허브로부터 수신된 데이터를 최종 모션캡쳐데이터를 출력하기 위한 전자장치(100)로 전달하는 구성이다.The router is configured to transmit data received from each switching hub to the electronic device 100 for outputting the final motion capture data.

전자장치(100)는 라우터로부터 전달받은 카메라의 위치값을 전용프로그램을 통해 실시간으로 처리하여, 모션캡쳐데이터를 출력하는 구성이다.The electronic device 100 is configured to process the camera position value transmitted from the router in real time through a dedicated program, and output motion capture data.

모션 수트는 액터의 움직임을 표현하기 위해 마커가 부착될 수 있는 수트이며, 마커는 모션 수트를 착용한 액터의 각 관절부위에 부착되어 적외선 반사에 의한 신체의 위치값을 표현하는 구성이다.A motion suit is a suit to which a marker can be attached to express the movement of an actor, and the marker is attached to each joint part of the actor wearing the motion suit and expresses the position value of the body by infrared reflection.

적외선 송출 및 검출용 렌즈가 내장된 고해상도 옵티컬 카메라에서 적외선을 액터를 향해 발사하면, 반사물질이 도포된 마커가 적외선을 반사하여 돌아오는 데이터를 검출하고, 이를 통해 액터의 위치와 각도에 기반한 모션캡쳐데이터를 저장할 수 있다.When a high-resolution optical camera with a built-in infrared emitting and detection lens emits infrared light toward an actor, the marker coated with a reflective material reflects the infrared and detects the returned data, and through this, motion capture based on the actor's position and angle data can be saved.

모션캡쳐데이터는 관성 및 광학 알고리즘이 적용된 2대 이상의 옵티컬 카메라에서 방출되는 적외선을 통해 마커가 동시에 관측되면, 마커의 3차원 좌표를 삼각함수에 의해 계산하여 위치값을 추출하고, 이 위치값을 120fps 이상의 속도로 스위칭 허브로 전달하게 된다. 이렇게 전달된 데이터는 라우터를 통해 이더넷으로 전자장치(100)에 최종적으로 전달되게 된다.In the motion capture data, when a marker is simultaneously observed through infrared rays emitted from two or more optical cameras to which inertial and optical algorithms are applied, the three-dimensional coordinates of the marker are calculated by a trigonometric function to extract the position value, and the position value is set at 120 fps. It is transmitted to the switching hub at a higher speed. The transmitted data is finally delivered to the electronic device 100 via Ethernet through the router.

전신 움직임의 포착 시 기본적으로 기본 신체관절 부위(37군데)에 발 위치(4군데)를 추가하는 제1 형태 또는 기본 신체관절 부위(37군데)에 허벅지, 팔, 가슴, 머리의 마커(13군데)를 추가하는 제2 형태를 기반으로 액터의 모션을 포착할 수 있다.The first form of adding foot positions (4 places) to the basic body joint parts (37 places) when capturing whole body movements, or markers for thighs, arms, chest, and head (13 places) in the basic body joint parts (37 places) ) can be added to capture the actor's motion.

구체적으로 도 13에 도시된 바와 같이, 카메라 위치 및 각도를 설정하여 주변환경을 정리하는 센서 보정을 수행한다(S1310). 카메라 뷰를 차단할 수 있는 반짝거리는 물체나 불필요한 장애물을 제거하고 바닥은 반사되지 않는 매트를 사용하여 반사로 인한 왜곡을 최소화할 수 있다. 캡쳐 데이터의 효율적 이용을 위해서는 카메라의 적절한 배치가 필요하며, 카메라 레이아웃에 대한 계획을 정한 후 카메라를 배치할 수 있다.Specifically, as shown in FIG. 13 , sensor correction is performed to organize the surrounding environment by setting the camera position and angle ( S1310 ). Remove any shiny objects or unnecessary obstructions that may block the camera view, and use a non-reflective mat on the floor to minimize reflection distortion. In order to efficiently use the captured data, it is necessary to properly arrange the cameras, and after making a plan for the camera layout, the cameras can be arranged.

2대 이상의 동기된 카메라를 통해 마커를 동시 추적해야 정확한 동작값을 얻을 수 있기에 카메라 간의 거리는 일정한 거리를 두고 분리시키며, 서로 마주보지 않은 상태에서 캡쳐를 위한 볼륨이 나올 수 있게 화면을 통해 확인하면서 카메라를 배치한다.Since accurate motion values can be obtained only when markers are tracked simultaneously through two or more synchronized cameras, the distance between the cameras is separated by a certain distance, and the camera place the

카메라 캘리브레이션용 완드를 이용하여, 캡쳐 볼륨 전체에 마커가 달린 완드를 흔들어서 카메라가 흔들리는 샘플을 수집하게 하고, 그 수집된 샘플들을 이용하여 위치값에 대한 계산을 진행한다. 모든 계산이 끝나면 캡쳐 볼륨에 대한 접지면을 정의하여 계산된 값의 위치값을 설정할 수 있다.Using a wand for camera calibration, shake a wand with a marker over the entire capture volume to collect a sample that the camera shakes, and calculate a position value using the collected samples. After all calculations are done, you can define the ground plane for the capture volume and set the position value of the calculated value.

이후, 모션 수트를 착용한 액터의 적절한 위치에 마커를 부착시킨 후, 캡쳐 볼륨의 중앙으로 이동하여, 도 14의 (a)에 도시된 바와 같인 T 교정 포즈를 지시한 후, 도 14의 (b)와 같이, 프로그램 내에서 실제 캡쳐에 사용되는, 초기 측정된 스켈레톤을 생성한다(S1320).Then, after attaching a marker to an appropriate position of the actor wearing the motion suit, moving to the center of the capture volume, instructing the T-correction pose as shown in Fig. 14 (a), ), an initially measured skeleton that is used for actual capture in the program is generated (S1320).

이후, 도 15의 (a)에 도시된 바와 같이 스켈레톤의 움직임 데이터를 녹화하며(S1330), 캡쳐되는 스켈레톤의 움직임은 적외선 반사를 통해 광학식 카메라로 전달되어 전자장치(100)에서 실시간으로 확인가능하다. 또한, 모션빌더 플러그인을 통해, 모션빌더에 표현된 모델링 데이터와 실제 모션캡쳐가 진행되는 스켈레톤과 연동하여 모션빌더의 모델링 움직임을 스켈레톤의 움직임으로 표현할 수 있다.Thereafter, as shown in (a) of FIG. 15, the movement data of the skeleton is recorded (S1330), and the captured movement of the skeleton is transmitted to the optical camera through infrared reflection and can be checked in real time in the electronic device 100 . In addition, through the Motion Builder plug-in, modeling data expressed in Motion Builder and the skeleton in which motion capture is performed can be linked to express the modeling movement of Motion Builder as the movement of the skeleton.

이때, 마커 위치를 확인하고 손실 데이터를 재건하는 데이터 처리과정이 수행될 수 있으며(S1340), 도 15의 (b)에 도시된 바와 같이, 액터의 움직임과 최대한 근사하게 마커의 위치값이 설정되어 액터의 움직임이 모델링 데이터의 신체관절이 변환되는 스켈레톤의 움직임으로 표현될 수 있다(S1350).At this time, a data processing process of confirming the marker position and reconstructing the lost data may be performed (S1340), and as shown in FIG. 15 (b), the position value of the marker is set as closely as possible to the movement of the actor. The movement of the actor may be expressed as the movement of the skeleton in which the body joints of the modeling data are converted (S1350).

마커가 실장된 부위는 움직임을 통해 각 카메라로 캡쳐된 2D 개체와 이 2D 개체를 바탕으로 실시간으로 재구성된 3D 데이터가 모두 저장되며, 이렇게 저장된 추적데이터들은 다양한 형태의 파일형태(CSV, FBX, C3D)로 추출되어 사용 가능하게 만들어 진다. 이렇게 저장된 3D 데이터는 3D 캐릭터에 적용되게 된다(S1360).In the area where the marker is mounted, both the 2D object captured by each camera through movement and the 3D data reconstructed in real time based on the 2D object are saved. ) and made available for use. The 3D data stored in this way is applied to the 3D character (S1360).

도 16 및 17은 본 발명의 일 실시 예에 따른 캐릭터 커스터마이징 UI 및 방송 송출 UI를 나타낸 도면이다.16 and 17 are diagrams illustrating a character customization UI and a broadcast transmission UI according to an embodiment of the present invention.

도 16에 도시된 바와 같이, 방송플랫폼은 방송 전 또는 방송 중에 원하는 캐릭터, 동작, 자막, 환경, 특수효과 등을 커스터마이징할 수 있는 저작도구를 포함하는 UI를 제공할 수 있다.As shown in FIG. 16 , the broadcasting platform may provide a UI including an authoring tool capable of customizing desired characters, motions, subtitles, environments, special effects, etc. before or during broadcasting.

도 16의 (a)에 도시된 바와 같이, 방송 전 제공되는 UI는 캐릭터 화면 영역(1610-1), 캐릭터 커스터마이징 영역(1620-1) 및 캐릭터 모델링 영역(1630-1)을 포함할 수 있고, 각 영역은 도 16의 (b)에 도시된 각 영역(1610-2, 1620-2, 1630-2)와 같이 구현될 수 있다. 캐릭터 모델링 영역(1630-1)에서는 복수의 캐릭터 중 애니메이션을 생성하기 위한 어느 하나의 캐릭터를 선택할 수 있고, 캐릭터 커스터마이징 영역(1620-1)에서는 선택된 캐릭터의 외형 및 동작 중 어느 하나를 커스터마이징할 수 있다.As shown in (a) of FIG. 16, the UI provided before broadcasting may include a character screen area 1610-1, a character customizing area 162-1, and a character modeling area 1630-1, Each region may be implemented as each region 1610-2, 1620-2, and 1630-2 shown in FIG. 16B. In the character modeling area 1630-1, any one character for generating animation among a plurality of characters may be selected, and in the character customization area 162-1, any one of the appearance and motion of the selected character may be customized. .

또한, 도 17의 (a)에 도시된 바와 같이, 실시간 방송 중에 제공되는 UI는 배경화면 선택 영역(1710-1), 실시간 방송화면 영역(1720-1), 효과 선택 영역(1730-1) 및 저작도구 영역(1740-1)을 포함할 수 있고, 각 영역은 도 17의 (b)에 도시된 각 영역(1710-2, 1720-2, 1730-2, 1740-2)와 같이 구현될 수 있다.In addition, as shown in (a) of FIG. 17 , the UI provided during real-time broadcasting includes a background screen selection area 1710-1, a real-time broadcast screen area 172-1, an effect selection area 1730-1 and It may include an authoring tool area 1740-1, and each area may be implemented like each area 1710-2, 1720-2, 1730-2, 1740-2 shown in FIG. 17B. there is.

도 18은 본 발명의 일 실시 예에 따른 리얼타임 3D 엔진이 방송플랫폼과 실시간으로 연동된 화면을 도시한 도면이다.18 is a diagram illustrating a screen in which a real-time 3D engine is interlocked with a broadcasting platform in real time according to an embodiment of the present invention.

도 18의 (a) 및 (b)에 도시된 바와 같이, 오브젝트의 재질, 재료, 픽셀 단위 연산을 이용한 파티클 광원 실시간 처리 알고리즘을 스크립트를 통해 구현할 수 있다. 언리얼과 같은 렌더러 엔진을 실시간으로 연동하면, 사용하고자 하는 캐릭터를 바로 불러올 수 있고, 실시간 커스터마이징이 가능하다.As shown in (a) and (b) of FIG. 18 , a particle light source real-time processing algorithm using an object's material, material, and pixel unit operation can be implemented through a script. By linking a renderer engine such as Unreal in real time, the character you want to use can be directly imported, and real-time customization is possible.

또한, UI는 애드온(add-on) 형태의 UI 스크립트로 제작될 수 있다. 구체적으로, 기존 방송 송출 플랫폼과 렌더러 엔진을 연동할 수 있도록, 렌더러 엔진 내 블루프린트(blueprint)를 이용하여 송출 플랫폼에 애드온(add-on)될 수 있도록 UI 스크립트를 제작할 수 있다.In addition, the UI may be produced as an add-on type UI script. Specifically, a UI script can be produced to be added-on to the transmission platform by using a blueprint in the renderer engine so that the existing broadcast transmission platform and the renderer engine can be linked.

도 19는 본 발명의 일 실시 예에 따른 장치의 구성을 간략히 도시한 블록도이다.19 is a block diagram schematically illustrating the configuration of an apparatus according to an embodiment of the present invention.

본 발명의 일 실시 예에 다른 전자장치(100)는 입력부(110), 저장부(120) 및 프로세서(130)를 포함한다.The electronic device 100 according to an embodiment of the present invention includes an input unit 110 , a storage unit 120 , and a processor 130 .

입력부(110)는 사용자의 신체에 장착된 모션감지센서로부터 측정된 측정값 및 사용자가 촬영된 영상을 실시간으로 수신하는 구성이다. 이에 따라, 입력부(110)는 모션감지센서 및 사용자를 촬영하는 카메라와 유무선 통신방식을 통해 통신을 수행하는 통신부(미도시)를 포함할 수 있다.The input unit 110 is configured to receive, in real time, a measured value measured from a motion sensor mounted on the user's body and an image captured by the user. Accordingly, the input unit 110 may include a motion sensor and a communication unit (not shown) for performing communication through a wired/wireless communication method with a camera for photographing a user.

저장부(120)는 모션캡쳐데이터에 대응되는 동작데이터 및 리깅데이터를 저장하는 구성이다. 저장부(120)는 The storage unit 120 is configured to store motion data and rigging data corresponding to the motion capture data. The storage unit 120 is

프로세서(130)는 전자장치(100)를 전반적으로 제어하기 위한 구성이다.The processor 130 is a configuration for overall controlling the electronic device 100 .

구체적으로, 프로세서(130)는 측정값 및 촬영된 영상으로부터, 각각 사용자의 모션캡쳐데이터 및 얼굴캡쳐데이터를 추출하고, 저장된 동작데이터 및 리깅데이터에 기초하여, 추출된 모션캡쳐데이터에 대응되는 동작을 나타내고, 얼굴캡쳐데이터가 적용된 리깅데이터에 대응되는 얼굴표정을 나타내는 기 설정된 캐릭터의 애니메이션을 생성하며, 생성된 애니메이션을 실시간으로 송출하기 위한 방송플랫폼을 제공할 수 있다.Specifically, the processor 130 extracts the user's motion capture data and face capture data from the measured values and the captured image, respectively, and based on the stored motion data and rigging data, performs an operation corresponding to the extracted motion capture data. It is possible to provide a broadcasting platform for generating an animation of a preset character representing a facial expression corresponding to the rigging data to which the face capture data has been applied, and transmitting the generated animation in real time.

이때, 프로세서(130)는 자이로센서로 구현되는 모션감지센서를 통해 사용자의 움직임에 대응되는 좌표데이터를 추출하고, 추출된 좌표데이터를 신체동작데이터로 변환하며, 변환된 신체동작데이터를 렌더러 엔진에 의한 시뮬레이션 데이터와 비교하여 보정을 수행하고, 보정이 수행된 신체동작데이터를 모션캡쳐데이터로 추출할 수 있다.At this time, the processor 130 extracts coordinate data corresponding to the user's movement through a motion detection sensor implemented as a gyro sensor, converts the extracted coordinate data into body motion data, and sends the converted body motion data to the renderer engine. It is possible to perform correction by comparing it with the simulation data of the present invention, and extract the corrected body motion data as motion capture data.

또한, 프로세서(130)는 사용자가 촬영된 영상 내의 사용자 얼굴에서 기 설정된 객체를 인식하고, 인식된 객체의 형상을 나타내는 마킹데이터를 얼굴캡쳐데이터로 추출할 수 있다.In addition, the processor 130 may recognize a preset object from the user's face in the image captured by the user, and extract marking data representing the shape of the recognized object as the face capture data.

이때, 프로세서(130)는 기 설정된 객체가 인식되면, 인식된 객체의 중심선 및 윤곽선 중 적어도 어느 하나에 간격을 두고 배치되는 복수의 마커를 생성한 후, 생성된 복수의 마커를 연결하여, 인식된 객체의 형상을 나타내는 마킹데이터를 생성할 수 있다.In this case, when a preset object is recognized, the processor 130 generates a plurality of markers disposed at an interval on at least one of a center line and an outline of the recognized object, and then connects the plurality of generated markers to recognize the recognized object. Marking data representing the shape of an object can be created.

또한, 본 발명의 일 실시 예에 따른 전자장치(100)는 사용자 인터페이스(미도시)를 더 포함할 수 있다. 이때, 프로세서(130)는 사용자 인터페이스를 통해 입력된 사용자 명령에 따라 마킹데이터의 마커 위치를 보정할 수 있다.Also, the electronic device 100 according to an embodiment of the present invention may further include a user interface (not shown). In this case, the processor 130 may correct the marker position of the marking data according to a user command input through the user interface.

또한, 프로세서(130)는 추출된 얼굴캡쳐데이터를 기 설정된 캐릭터의 리깅데이터에 적용하고, 리깅데이터의 얼굴캡쳐데이터와의 오차를 보정하며, 오차가 보정된 리깅데이터에 기초하여 캐릭터의 표정 변화를 애니메이션으로 생성할 수 있다.In addition, the processor 130 applies the extracted face capture data to the rigging data of the preset character, corrects the error of the rigging data with the face capture data, and changes the expression of the character based on the error corrected rigging data You can create animations.

이때, 프로세서(130)는 복수의 캐릭터 중 애니메이션을 생성하기 위한 어느 하나의 캐릭터를 선택하고, 선택된 캐릭터의 외형 및 동작 중 어느 하나를 커스터마이징하기위한 UI를 방송플랫폼을 통해 제공할 수 있다.In this case, the processor 130 may select any one character for generating animation among a plurality of characters and provide a UI for customizing any one of the appearance and operation of the selected character through the broadcasting platform.

도 20은 본 발명의 일 실시 예에 따른 시스템의 구성을 간략히 도시한 블록도이다.20 is a block diagram schematically illustrating the configuration of a system according to an embodiment of the present invention.

본 발명의 일 실시 예에 따른 방송 플랫폼 제공 시스템(1000)은 전자장치(100), 카메라(200) 및 자이로센서(300)를 포함한다. 이때, 전자장치(100), 카메라(200) 및 자이로센서(300)는 네트워크(2000)를 통해 연결될 수 있다.The broadcast platform providing system 1000 according to an embodiment of the present invention includes an electronic device 100 , a camera 200 , and a gyro sensor 300 . In this case, the electronic device 100 , the camera 200 , and the gyro sensor 300 may be connected through the network 2000 .

전자장치(100)는 실시간 방송 플랫폼을 제공하기 위한 구성으로, 카메라(200) 및 자이로센서(300)로부터 얼굴캡쳐데이터 및 모션캡쳐데이터를 각각 수신할 수 있다.The electronic device 100 is configured to provide a real-time broadcasting platform, and may receive face capture data and motion capture data from the camera 200 and the gyro sensor 300, respectively.

이때, 전자장치(100)는 카메라(200) 및 자이로센서(300)와 연결된 외부 장치(미도시)를 통해 얼굴캡쳐데이터 및 모션캡쳐데이터를 수신할 수도 있다.In this case, the electronic device 100 may receive the face capture data and the motion capture data through an external device (not shown) connected to the camera 200 and the gyro sensor 300 .

전자장치(100)는 수신된 측정값 및 촬영된 영상으로부터 각각 사용자의 모션캡쳐데이터 및 얼굴캡쳐데이터를 추출한다. 이후, 전자장치(100)는 추출된 모션캡쳐데이터에 대응되는 동작을 나타내고, 얼굴캡쳐데이터가 적용된 리깅데이터에 대응되는 얼굴표정을 나타내는 기 설정된 캐릭터의 애니메이션을 생성할 수 있다.The electronic device 100 extracts motion capture data and face capture data of the user from the received measurement value and the captured image, respectively. Thereafter, the electronic device 100 may generate an animation of a preset character representing a motion corresponding to the extracted motion capture data and representing a facial expression corresponding to the rigging data to which the face capture data is applied.

이후, 전자장치(100)는 제공되는 방송플랫폼을 통해 생성된 애니메이션을 실시간으로 송출할 수 있다.Thereafter, the electronic device 100 may transmit the animation generated through the provided broadcasting platform in real time.

이상과 같은 본 발명의 다양한 실시 예에 따르면, 크리에이터가 원하는 캐릭터 또는 제작한 캐릭터를 이용하여 시청자와 실시간 커뮤니케이션 가능하며 저가의 방송 솔루션으로 사용이 가능하다.According to various embodiments of the present invention as described above, it is possible to communicate in real time with a viewer using a character desired by a creator or a character created by the creator, and can be used as a low-cost broadcasting solution.

상술한 다양한 실시 예에 따른 방송플랫폼 제공 방법은 프로그램으로 구현되어 다양한 기록 매체에 저장될 수 있다. 즉, 각종 프로세서에 의해 처리되어 상술한 방송플랫폼 제공 방법을 실행할 수 있는 컴퓨터 프로그램이 기록 매체에 저장된 상태로 사용될 수도 있다. 일 예로, ⅰ) 사용자의 신체에 장착된 모션감지센서 및 사용자가 촬영된 영상에 각각 기초하여, 사용자의 모션캡쳐데이터 및 얼굴캡쳐데이터를 실시간으로 추출하는 단계, ⅱ) 추출된 모션캡쳐데이터에 대응되는 동작을 나타내고, 얼굴캡쳐데이터가 적용된 리깅데이터(rigging)에 대응되는 얼굴표정을 나타내는 기 설정된 캐릭터의 애니메이션을 생성하는 단계 및, ⅲ) 생성된 애니메이션을 실시간으로 송출하기 위한 방송플랫폼을 제공하는 단계를 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.The broadcast platform providing method according to the above-described various embodiments may be implemented as a program and stored in various recording media. That is, a computer program that is processed by various processors to execute the above-described method for providing a broadcast platform may be used in a state stored in a recording medium. As an example, i) extracting the user's motion capture data and face capture data in real time based on the motion detection sensor mounted on the user's body and the image captured by the user, ii) corresponding to the extracted motion capture data Creating an animation of a preset character representing a motion to be performed and representing a facial expression corresponding to rigging data to which face capture data is applied; and iii) providing a broadcasting platform for transmitting the generated animation in real time. A non-transitory computer readable medium in which a program for performing the above is stored may be provided.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.The non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, and the like, and can be read by a device. Specifically, the above-described various applications or programs may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

한편, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.On the other hand, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims In addition, various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

S110: 사용자의 신체에 장착된 모션감지센서 및 사용자가 촬영된 영상에 각각 기초하여, 사용자의 모션캡쳐데이터 및 얼굴캡쳐데이터를 실시간으로 추출하는 단계
S120: 추출된 모션캡쳐데이터에 대응되는 동작을 나타내고, 얼굴캡쳐데이터가 적용된 리깅데이터(rigging)에 대응되는 얼굴표정을 나타내는 기 설정된 캐릭터의 애니메이션을 생성하는 단계
S130: 생성된 애니메이션을 실시간으로 송출하기 위한 방송플랫폼을 제공하는 단계
100: 전자장치 110: 입력부
120: 저장부 130: 프로세서
200: 카메라 300: 자이로센서
1000: 방송플랫폼 제공 시스템 2000: 네트워크
S110: A step of extracting the user's motion capture data and face capture data in real time based on the motion detection sensor mounted on the user's body and the image captured by the user, respectively
S120: Creating an animation of a preset character representing a motion corresponding to the extracted motion capture data and representing a facial expression corresponding to rigging data to which the face capture data is applied
S130: Step of providing a broadcasting platform for transmitting the generated animation in real time
100: electronic device 110: input unit
120: storage unit 130: processor
200: camera 300: gyro sensor
1000: broadcasting platform providing system 2000: network

Claims (20)

모션 및 얼굴 캡쳐를 이용한 실시간 방송플랫폼 제공 방법에 있어서,
사용자의 신체에 장착된 모션감지센서 및 상기 사용자가 촬영된 영상에 각각 기초하여, 사용자의 모션캡쳐데이터 및 얼굴캡쳐데이터를 실시간으로 추출하는 단계;
추출된 모션캡쳐데이터에 대응되는 동작을 나타내고, 상기 얼굴캡쳐데이터가 적용된 리깅데이터(rigging)에 대응되는 얼굴표정을 나타내는 기 설정된 캐릭터의 애니메이션을 생성하는 단계; 및
생성된 애니메이션을 실시간으로 송출하기 위한 방송플랫폼을 제공하는 단계를 포함하고,
상기 추출하는 단계는,
상기 모션감지센서의 측정값으로부터 사용자의 움직임에 대응되는 좌표데이터를 추출하는 단계;
추출된 좌표데이터가 정상범위이면 상기 좌표데이터를 신체동작데이터로 변환하고, 정상범위가 아니면 상기 좌표데이터의 캘리브레이션을 수행하는 단계;
변환된 신체동작데이터를 렌더러 엔진에 의한 시뮬레이션데이터와 비교하여 상기 변환된 신체동작데이터가 상기 시뮬레이션데이터에 최대 근접되도록 하는 보정을 수행하는 단계; 및
보정된 신체동작데이터를 상기 모션캡쳐데이터로 추출하는 단계를 포함하는 방법.
In the method of providing a real-time broadcasting platform using motion and face capture,
extracting motion capture data and face capture data of the user in real time based on a motion sensor mounted on the user's body and an image captured by the user, respectively;
generating an animation of a preset character representing a motion corresponding to the extracted motion capture data and representing a facial expression corresponding to rigging data to which the face capture data is applied; and
Including the step of providing a broadcasting platform for transmitting the generated animation in real time,
The extracting step is
extracting coordinate data corresponding to the user's movement from the measured value of the motion sensor;
converting the coordinate data into body motion data if the extracted coordinate data is within a normal range, and performing calibration of the coordinate data if it is not within the normal range;
Comparing the converted body motion data with simulation data by a renderer engine and performing correction so that the converted body motion data is closest to the simulation data; and
and extracting the corrected body motion data as the motion capture data.
제1항에 있어서,
상기 모션감지센서는 자이로센서이고,
상기 추출하는 단계는,
상기 자이로(gyro) 센서를 통해 측정된 값에 기초하여 상기 좌표데이터를 추출하는 것을 특징으로 하는 방법.
According to claim 1,
The motion sensor is a gyro sensor,
The extracting step is
Method of extracting the coordinate data based on the value measured through the gyro (gyro) sensor.
삭제delete 제1항에 있어서,
상기 추출하는 단계는,
사용자가 촬영된 영상 내의 상기 사용자 얼굴에서 기 설정된 객체를 인식하고, 인식된 객체의 형상을 나타내는 마킹데이터를 상기 얼굴캡쳐데이터로 추출하는 것을 특징으로 하는 방법.
According to claim 1,
The extracting step is
A method characterized in that the user recognizes a preset object from the user's face in the captured image, and extracts marking data representing the shape of the recognized object as the face capture data.
제4항에 있어서,
상기 추출하는 단계는,
상기 기 설정된 객체가 인식되면, 인식된 객체의 중심선 및 윤곽선 중 적어도 어느 하나에 간격을 두고 배치되는 복수의 마커를 생성한 후, 상기 복수의 마커를 연결하여 상기 마킹데이터를 생성하는 것을 특징으로 하는 방법.
5. The method of claim 4,
The extracting step is
When the preset object is recognized, a plurality of markers are generated at an interval on at least one of a center line and an outline of the recognized object, and then the marking data is generated by connecting the plurality of markers. method.
제5항에 있어서,
상기 추출하는 단계는,
사용자 입력에 따라 상기 마킹데이터의 마커 위치를 보정하는 것을 특징으로 하는 방법.
6. The method of claim 5,
The extracting step is
Method, characterized in that for correcting the marker position of the marking data according to a user input.
제4항에 있어서,
상기 생성하는 단계는,
추출된 얼굴캡쳐데이터를 기 설정된 캐릭터의 리깅데이터에 적용하는 단계;
상기 리깅데이터와 상기 얼굴캡쳐데이터의 오차를 보정하는 단계; 및
오차가 보정된 리깅데이터에 기초하여, 캐릭터의 표정 변화를 상기 애니메이션으로 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
5. The method of claim 4,
The generating step is
applying the extracted face capture data to rigging data of a preset character;
correcting an error between the rigging data and the face capture data; and
Based on the error-corrected rigging data, the method comprising the step of generating a change in the expression of the character as the animation.
제1항에 있어서,
복수의 캐릭터 중 상기 애니메이션을 생성하기 위한 어느 하나의 캐릭터를 선택하고, 선택된 캐릭터의 외형 및 동작 중 어느 하나를 커스터마이징하기 위한 UI를 상기 방송플랫폼을 통해 제공하는 단계;를 더 포함하는 방법.
According to claim 1,
Selecting any one character for generating the animation from among a plurality of characters, and providing a UI for customizing any one of the appearance and operation of the selected character through the broadcasting platform; Method further comprising a.
제8항에 있어서,
상기 UI는 애드온(add-on) 형태의 UI 스크립트로 제작되는 것을 특징으로 하는 방법.
9. The method of claim 8,
The method, characterized in that the UI is produced as an add-on (add-on) type UI script.
모션 및 얼굴 캡쳐를 이용한 실시간 방송플랫폼 제공 방법을 위한 실시간 방송플랫폼 제공장치로,
사용자의 신체에 장착된 모션감지센서로부터 측정된 측정값 및 사용자가 촬영된 영상을 각각 실시간으로 수신하는 입력부; 및
상기 측정값 및 촬영된 영상으로부터 각각 사용자의 모션캡쳐데이터 및 얼굴캡쳐데이터를 추출하고, 저장부에 저장된 동작데이터 및 리깅데이터에 기초하여, 추출된 모션캡쳐데이터에 대응되는 동작을 나타내고, 상기 얼굴캡쳐데이터가 적용된 리깅데이터에 대응되는 얼굴표정을 나타내는 기 설정된 캐릭터의 애니메이션을 생성하며, 생성된 애니메이션을 실시간으로 송출하기 위한 방송플랫폼을 제공하는 프로세서를 포함하고,
상기 프로세서는,
상기 측정값으로부터 사용자의 움직임에 대응되는 좌표데이터를 추출하고, 추출된 좌표데이터가 정상범위이면 상기 좌표데이터를 신체동작데이터로 변환하고, 정상범위가 아니면 상기 좌표데이터의 캘리브레이션을 수행하며, 변환된 신체동작데이터와 렌더러 엔진에 의한 시뮬레이션데이터를 비교하여 상기 신체동작데이터가 상기 시뮬레이션데이터에 최대 근접되도록 하는 보정을 수행하고, 보정된 신체동작데이터를 상기 모션캡쳐데이터로 추출하는 것을 특징으로 하는 장치.
A real-time broadcasting platform providing device for a method of providing a real-time broadcasting platform using motion and face capture,
an input unit for receiving, in real time, a measured value measured from a motion sensor mounted on the user's body and an image captured by the user; and
Each of the user's motion capture data and face capture data is extracted from the measured value and the captured image, and based on the motion data and rigging data stored in the storage unit, an operation corresponding to the extracted motion capture data is displayed, and the face capture A processor that provides a broadcasting platform for generating an animation of a preset character representing a facial expression corresponding to the rigging data to which the data is applied, and transmitting the generated animation in real time,
The processor is
Coordinate data corresponding to the user's movement is extracted from the measured value, and if the extracted coordinate data is within a normal range, the coordinate data is converted into body motion data. If it is not within the normal range, the coordinate data is calibrated, and the converted Comparing body motion data with simulation data by a renderer engine, performing correction such that the body motion data is closest to the simulation data at maximum, and extracting the corrected body motion data as the motion capture data.
제10항에 있어서,
상기 모션감지센서는,
자이로(gyro) 센서인 것을 특징으로 하는 장치.
11. The method of claim 10,
The motion sensor is
Device characterized in that it is a gyro (gyro) sensor.
삭제delete 제10항에 있어서,
상기 프로세서는,
사용자가 촬영된 영상 내의 사용자 얼굴에서 기 설정된 객체를 인식하고, 인식된 객체의 형상을 나타내는 마킹데이터를 상기 얼굴캡쳐데이터로 추출하는 것을 특징으로 하는 장치.
11. The method of claim 10,
The processor is
A device characterized in that the user recognizes a preset object from the user's face in the captured image, and extracts marking data representing the shape of the recognized object as the face capture data.
제13항에 있어서,
상기 프로세서는,
상기 기 설정된 객체가 인식되면, 인식된 객체의 중심선 및 윤곽선 중 적어도 어느 하나에 간격을 두고 배치되는 복수의 마커를 생성한 후, 상기 복수의 마커를 연결하여 상기 마킹데이터를 생성하는 것을 특징으로 하는 장치.
14. The method of claim 13,
The processor is
When the preset object is recognized, a plurality of markers are generated at an interval on at least one of a center line and an outline of the recognized object, and then the marking data is generated by connecting the plurality of markers. Device.
제14항에 있어서,
사용자 인터페이스;를 더 포함하고,
상기 프로세서는,
상기 사용자 인터페이스를 통해 입력된 사용자 명령에 따라 상기 마킹데이터의 마커 위치를 보정하는 것을 특징으로 하는 장치.
15. The method of claim 14,
User interface; further comprising,
The processor is
Device characterized in that for correcting the marker position of the marking data according to a user command input through the user interface.
제13항에 있어서,
상기 프로세서는,
추출된 얼굴캡쳐데이터를 기 설정된 캐릭터의 리깅데이터에 적용하고, 상기 리깅데이터와 상기 얼굴캡쳐데이터의 오차를 보정하며, 오차가 보정된 리깅데이터에 기초하여 캐릭터의 표정 변화를 상기 애니메이션으로 생성하는 것을 특징으로 하는 장치.
14. The method of claim 13,
The processor is
Applying the extracted face capture data to the rigging data of a preset character, correcting the error between the rigging data and the face capturing data, and generating the change in the expression of the character as the animation based on the error corrected rigging data device characterized.
제10항에 있어서,
상기 프로세서는,
복수의 캐릭터 중 상기 애니메이션을 생성하기 위한 어느 하나의 캐릭터를 선택하고, 선택된 캐릭터의 외형 및 동작 중 어느 하나를 커스터마이징하기 위한 UI를 상기 방송플랫폼을 통해 제공하는 것을 특징으로 하는 장치.
11. The method of claim 10,
The processor is
Device, characterized in that selecting any one character for generating the animation from among a plurality of characters, and providing a UI for customizing any one of the appearance and operation of the selected character through the broadcasting platform.
제17항에 있어서,
상기 UI는,
애드온(add-on) 형태의 UI 스크립트로 제작되는 것을 특징으로 하는 장치.
18. The method of claim 17,
The UI is
A device, characterized in that it is produced as an add-on type UI script.
모션 및 얼굴 캡쳐를 이용한 실시간 방송플랫폼 제공 시스템에 있어서,
사용자를 촬영하는 카메라;
상기 사용자의 신체에 장착되는 모션감지센서; 및
상기 모션감지센서로부터 측정된 측정값 및 상기 카메라로부터 촬영된 영상을 각각 실시간으로 수신하고, 상기 측정값 및 상기 촬영된 영상으로부터 각각 사용자의 모션캡쳐데이터 및 얼굴캡쳐데이터를 추출하며, 추출된 모션캡쳐데이터에 대응되는 동작을 나타내고, 상기 얼굴캡쳐데이터가 적용된 리깅데이터(rigging data)에 대응되는 얼굴표정을 나타내는 기 설정된 캐릭터의 애니메이션을 생성하고, 상기 애니메이션을 실시간으로 송출하기 위한 방송플랫폼을 제공하는 전자장치를 포함하고,
상기 전자장치는,
상기 측정값으로부터 사용자의 움직임에 대응되는 좌표데이터를 추출하고, 추출된 좌표데이터가 정상범위이면 상기 좌표데이터를 신체동작데이터로 변환하고, 정상범위가 아니면 상기 좌표데이터의 캘리브레이션을 수행하며, 변환된 신체동작데이터와 렌더러 엔진에 의한 시뮬레이션데이터를 비교하여 상기 신체동작데이터가 상기 시뮬레이션데이터에 최대 근접되도록 하는 보정을 수행하고, 보정된 신체동작데이터를 상기 모션캡쳐데이터로 추출하는 것을 특징으로 하는 시스템.
In the real-time broadcasting platform providing system using motion and face capture,
a camera to photograph the user;
a motion sensor mounted on the user's body; and
Each of the measured values measured from the motion sensor and the captured images from the camera are received in real time, and the user's motion capture data and face capture data are extracted from the measured values and the captured images, respectively, and the extracted motion capture Electronic that provides a broadcasting platform for generating an animation of a preset character representing a motion corresponding to data, representing a facial expression corresponding to rigging data to which the face capture data is applied, and transmitting the animation in real time device, including
The electronic device is
Coordinate data corresponding to the user's movement is extracted from the measured value, and if the extracted coordinate data is within a normal range, the coordinate data is converted into body motion data. If it is not within the normal range, the coordinate data is calibrated, and the converted Comparing body motion data with simulation data by a renderer engine, performing correction such that the body motion data is closest to the simulation data at maximum, and extracting the corrected body motion data as the motion capture data.
제1항, 제2항 및 제4항 내지 제9항 중 어느 한 항의 모션 및 얼굴 캡쳐를 이용한 실시간 방송플랫폼 제공 방법을 실행하기 위한 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a recording medium for executing the method of providing a real-time broadcasting platform using the motion and face capture of any one of claims 1, 2, and 4 to 9.
KR1020200070557A 2020-06-10 2020-06-10 Method, appararus and system for providing real-time broadcasting platform using motion and facial capture KR102371072B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200070557A KR102371072B1 (en) 2020-06-10 2020-06-10 Method, appararus and system for providing real-time broadcasting platform using motion and facial capture
PCT/KR2020/007728 WO2021251534A1 (en) 2020-06-10 2020-06-15 Method, apparatus, and system for providing real-time broadcasting platform using motion and face capturing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200070557A KR102371072B1 (en) 2020-06-10 2020-06-10 Method, appararus and system for providing real-time broadcasting platform using motion and facial capture

Publications (2)

Publication Number Publication Date
KR20210153472A KR20210153472A (en) 2021-12-17
KR102371072B1 true KR102371072B1 (en) 2022-03-10

Family

ID=78846171

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200070557A KR102371072B1 (en) 2020-06-10 2020-06-10 Method, appararus and system for providing real-time broadcasting platform using motion and facial capture

Country Status (2)

Country Link
KR (1) KR102371072B1 (en)
WO (1) WO2021251534A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4250469A2 (en) 2021-01-19 2023-09-27 LG Energy Solution, Ltd. Electrode assembly and battery, and battery pack and vehicle comprising same
CN114638918B (en) * 2022-01-26 2023-03-28 武汉艺画开天文化传播有限公司 Real-time performance capturing virtual live broadcast and recording system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101681096B1 (en) * 2010-07-13 2016-12-01 삼성전자주식회사 System and method of face animation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060109044A (en) * 2005-04-15 2006-10-19 엘지전자 주식회사 Method for manufacturing 3d facial expression animation using feature point algorithm
US20110304629A1 (en) * 2010-06-09 2011-12-15 Microsoft Corporation Real-time animation of facial expressions
KR20120059994A (en) * 2010-12-01 2012-06-11 삼성전자주식회사 Apparatus and method for control avatar using expression control point
KR102200239B1 (en) * 2018-09-07 2021-01-08 (주)위지윅스튜디오 Real-time computer graphics video broadcasting service system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101681096B1 (en) * 2010-07-13 2016-12-01 삼성전자주식회사 System and method of face animation

Also Published As

Publication number Publication date
WO2021251534A1 (en) 2021-12-16
KR20210153472A (en) 2021-12-17

Similar Documents

Publication Publication Date Title
JP7068562B2 (en) Techniques for recording augmented reality data
US11880541B2 (en) Systems and methods of generating augmented reality (AR) objects
US10368047B2 (en) Six-degree of freedom video playback of a single monoscopic 360-degree video
US10699428B2 (en) Volumetric depth video recording and playback
CN102622774B (en) Living room film creates
US20140104387A1 (en) Handheld portable optical scanner and method of using
KR20180121494A (en) Method and system for real-time 3D capture and live feedback using monocular cameras
US20210158552A1 (en) Systems and methods for enhanced depth determination using projection spots
CN103258339A (en) Real-time compositing of live recording-based and computer graphics-based media streams
KR102371072B1 (en) Method, appararus and system for providing real-time broadcasting platform using motion and facial capture
US10692286B2 (en) Device and method of creating an augmented interactive virtual reality system
US20240020901A1 (en) Method and application for animating computer generated images
US11601632B2 (en) Device and method of creating an augmented interactive virtual reality system
Törmänen Comparison of entry level motion capture suits aimed at indie game production
AU2018203096B2 (en) System, method and apparatus for rapid film pre-visualization
Herath et al. Unconstrained Segue Navigation for an Immersive Virtual Reality Experience

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right