KR102621814B1 - Video generating device and method therfor - Google Patents

Video generating device and method therfor Download PDF

Info

Publication number
KR102621814B1
KR102621814B1 KR1020230138010A KR20230138010A KR102621814B1 KR 102621814 B1 KR102621814 B1 KR 102621814B1 KR 1020230138010 A KR1020230138010 A KR 1020230138010A KR 20230138010 A KR20230138010 A KR 20230138010A KR 102621814 B1 KR102621814 B1 KR 102621814B1
Authority
KR
South Korea
Prior art keywords
image
module
user
marker
data
Prior art date
Application number
KR1020230138010A
Other languages
Korean (ko)
Inventor
권도균
유한
양정석
Original Assignee
주식회사 에이펀인터렉티브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이펀인터렉티브 filed Critical 주식회사 에이펀인터렉티브
Priority to KR1020230138010A priority Critical patent/KR102621814B1/en
Application granted granted Critical
Publication of KR102621814B1 publication Critical patent/KR102621814B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

영상 생성 장치가 제공된다. 상기 영상 생성 장치는 및 상기 사용자와 상호작용하는 사물의 외형을 촬영하여 생성된 배경 데이터를 이용하여, 상기 사용자가 제거된 제1 영상을 생성하는 배경 생성 모듈, 상기 사용자의 움직임과 관련된 사용자 모션 데이터를 이용하여, 메타버스 캐릭터의 움직임이 포함된 제2 영상을 생성하는 캐릭터 구현 모듈, 상기 사물의 움직임과 관련된 사물 모션 데이터와, 상기 배경 데이터를 이용하여, 상기 사물 표면에 부착된 제1 마커와 관련된 제1 마커 제거 객체가 포함된 제3 영상을 생성하는 마커 제거 모듈, 상기 제1 영상을 기초로, 상기 제2 영상 및 상기 제3 영상을 이용하여, 최종 영상을 생성하는 영상 합성 모듈을 포함한다.An image generating device is provided. The image generating device includes a background generating module that generates a first image with the user removed using background data generated by photographing the appearance of an object interacting with the user, and user motion data related to the user's movement. A character implementation module that generates a second image containing the movement of the metaverse character using a character implementation module, object motion data related to the movement of the object, and the background data, using a first marker attached to the surface of the object and It includes a marker removal module for generating a third image including a related first marker removal object, and an image synthesis module for generating a final image based on the first image and using the second image and the third image. do.

Description

영상 생성 장치 및 그 방법 {Video generating device and method therfor}Video generating device and method therfor}

본 발명은 영상 생성 장치 및 그 방법에 관한 것이다. 구체적으로, 본 발명은 사용자의 모션 및 사용자가 상호작용하는 사물의 모션을 추적하여, 사용자를 메타버스 캐릭터로 변환하고, 변환된 캐릭터와 상기 사물이 이질감 없이 상호작용하는 영상을 생성하는 장치 및 그 방법에 관한 것이다. The present invention relates to an image generating device and method. Specifically, the present invention is a device that tracks the user's motion and the motion of the objects with which the user interacts, converts the user into a metaverse character, and generates an image in which the converted character and the object interact without a sense of heterogeneity, and the same. It's about method.

메타버스 캐릭터 영상 제작은 매우 복잡한 절차를 통해서 이루어진다. 종래의 메타버스 캐릭터 제작의 경우 2D나 3D 컴퓨터 그래픽 영상은 제작자가 동작들을 일일이 수작업으로 만들기 때문에, 시간적/경제적으로 많은 비용이 소요되었으며, 또한 동작간 리얼리티가 부족하다는 단점이 있다.Metaverse character video production is accomplished through a very complex process. In the case of conventional metaverse character production, 2D or 3D computer graphics images require a lot of time and economic costs because the creator makes each movement manually, and also have the disadvantage of lacking realism between movements.

이러한 단점을 극복하고자, 최근 메타버스 캐릭터 영상 생성 장치는 캐릭터의 리얼리티를 살리기 위해 다양한 방식을 이용하고 있으며, 최근 실제 연기자의 움직임을 이용하여, 메타버스 캐릭터의 움직임을 구현하여 캐릭터 리얼리티를 극대화하는 시도가 있다. To overcome these shortcomings, recent metaverse character image creation devices are using various methods to preserve the reality of characters, and recent attempts have been made to maximize character reality by implementing the movements of metaverse characters using the movements of actual actors. There is.

공개특허공보 제10-2020-0142391호Public Patent Publication No. 10-2020-0142391

본 발명의 과제는, 메타버스 캐릭터가 등장하는 영상의 리얼리티를 극대화하는 영상 생성 장치 및 그 방법을 제공하는 것이다.The object of the present invention is to provide an image generation device and method that maximizes the reality of images in which metaverse characters appear.

또한, 본 발명의 과제는 메타버스 캐릭터와 현실 사물이 상호작용하는 과정이 포함된 영상의 리얼리티를 극대화하는 영상 생성 장치 및 그 방법을 제공하는 것이다.Additionally, the object of the present invention is to provide an image generating device and method that maximizes the reality of an image including the process of interaction between metaverse characters and real objects.

또한, 본 발명의 과제는 연기를 수행하는 사용자의 모션이 캐릭터로 변환되는 과정에서, 변환된 캐릭터와 현실 사물이 서로 겹쳐지는 부분이 이질감 없이 자연스러운 영상을 생성하는 영상 생성 장치 및 그 방법을 제공하는 것이다.In addition, the object of the present invention is to provide an image generating device and method that generates a natural image without any sense of heterogeneity in the overlap between the converted character and the real object in the process of converting the motion of the user performing the act into a character. will be.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned above, and other objects and advantages of the present invention that are not mentioned can be understood by the following description and will be more clearly understood by the examples of the present invention. Additionally, it will be readily apparent that the objects and advantages of the present invention can be realized by the means and combinations thereof indicated in the patent claims.

상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 영상 생성 장치는 사용자 및 상기 사용자와 상호작용하는 사물의 외형을 촬영하여 생성된 배경 데이터를 이용하여, 상기 사용자가 제거된 제1 영상을 생성하는 배경 생성 모듈, 상기 사용자의 움직임과 관련된 사용자 모션 데이터를 이용하여, 메타버스 캐릭터의 움직임이 포함된 제2 영상을 생성하는 캐릭터 구현 모듈, 상기 사물의 움직임과 관련된 사물 모션 데이터와, 상기 배경 데이터를 이용하여, 상기 사물의 표면에 부착된 제1 마커와 관련된 제1 마커 제거 객체가 포함된 제3 영상을 생성하는 마커 제거 모듈, 상기 제1 영상을 기초로, 상기 제2 영상 및 상기 제3 영상을 이용하여, 최종 영상을 생성하는 영상 합성 모듈을 포함한다. An image generating device according to some embodiments of the present invention to solve the above problem generates a first image with the user removed by using background data generated by photographing the appearance of a user and an object interacting with the user. a background generation module, a character implementation module that generates a second image containing the movement of a metaverse character using user motion data related to the user's movement, object motion data related to the movement of the object, and the background data A marker removal module that generates a third image including a first marker removal object related to the first marker attached to the surface of the object, based on the first image, the second image and the third image. It includes an image synthesis module that generates a final image using the image.

몇몇 실시예에 따르면, 상기 마커 제거 모듈은 상기 배경 데이터에 포함된 상기 사물의 표면 정보에 기초하여 제1 마커 제거 객체를 생성하는 마커 제거 객체 생성 모듈, 상기 사물 모션 데이터를 이용하여, 상기 제1 마커의 위치와 대응되는 위치에 상기 제1 마커 제거 객체를 배치하는 마커 제거 객체 배치 모듈을 포함하고, 상기 제1 마커는 반사 마커, AR 마커 및 혼합 마커 중 적어도 하나일 수 있다.According to some embodiments, the marker removal module is a marker removal object creation module that generates a first marker removal object based on surface information of the object included in the background data, and uses the object motion data to create the first marker removal object. and a marker removal object placement module that places the first marker removal object at a position corresponding to the position of the marker, and the first marker may be at least one of a reflective marker, an AR marker, and a mixed marker.

몇몇 실시예에 따르면, 상기 마커 제거 객체 생성 모듈은 영상 촬영 장치로부터 수신한 배경 데이터에서 상기 사물의 외관 정보를 추출하고, 상기 사물 외관 정보를 기초로, 상기 제1 마커가 부착된 위치에 대응되는 위치와 관련된 제1 마커 제거 객체를 생성하고, 상기 제1 마커 제거 객체는 패치 이미지 또는 모델링 이미지 중 적어도 하나일 수 있다.According to some embodiments, the marker removal object creation module extracts appearance information of the object from background data received from an image capture device, and based on the object appearance information, generates an object corresponding to the location where the first marker is attached. A first marker removal object related to the location is created, and the first marker removal object may be at least one of a patch image or a modeling image.

몇몇 실시예에 따르면, 상기 마커 제거 객체 배치 모듈은 모션 캡쳐 장치로부터 상기 사물의 이동 방향 및 이동 속도에 관한 정보가 포함된 상기 사물 모션 데이터를 수신하고, 상기 사물 모션 데이터를 이용하여 상기 제1 마커 제거 객체를 3차원 공간에 배치할 수 있다.According to some embodiments, the marker removal object placement module receives the object motion data including information about the moving direction and moving speed of the object from a motion capture device, and uses the object motion data to select the first marker. Removal objects can be placed in three-dimensional space.

몇몇 실시예에 따르면, 상기 배경 생성 모듈은 상기 배경 데이터에 기초하여 상기 사용자를 트래킹하여 사용자 트래킹 데이터를 생성하는 사용자 트래킹 모듈, 상기 사용자 트래킹 데이터를 이용하여 상기 배경 데이터에서 상기 사용자를 제거하는 사용자 제거 모듈, 상기 사용자가 제거된 위치의 배경을 보정하는 배경 보정 모듈을 포함할 수 있다.According to some embodiments, the background generation module includes a user tracking module that generates user tracking data by tracking the user based on the background data, and a user removal module that removes the user from the background data using the user tracking data. module, and may include a background correction module that corrects the background of the location from which the user was removed.

몇몇 실시예에 따르면, 상기 캐릭터 구현 모듈은 상기 사용자 모션 데이터를 이용하여 골격 데이터를 생성하는 골격 생성 모듈, 상기 골격 데이터를 이용하여 리깅 데이터를 생성하는 리타겟 모듈, 상기 리깅 데이터를 기초로 렌더링 작업을 수행하여 캐릭터를 구현하는 렌더링 모듈을 포함할 수 있다.According to some embodiments, the character implementation module includes a skeleton generation module for generating skeleton data using the user motion data, a retargeting module for generating rigging data using the skeleton data, and a rendering operation based on the rigging data. It can include a rendering module that implements the character by performing .

상기 과제를 해결하기 위한 본 방명의 몇몇 실시예에 따른 영상 생성 방법은 배경 생성 모듈, 캐릭터 구현 모듈, 마커 제거 모듈 및 영상 합성 모듈을 포함하는 영상 생성 장치의 영상 생성 방법으로서, 상기 배경 생성 모듈이 사용자 및 상기 사용자와 상호작용하는 사물을 촬영하여 생성된 배경 데이터를 이용하여 상기 사용자가 제거된 제1 영상을 생성하고, 상기 캐릭터 구현 모듈이 모션 캡쳐 장치로부터 수신된 사용자 모션 데이터를 이용하여 구현한 캐릭터의 움직임이 포함된 제2 영상을 생성하고, 상기 마커 제거 모듈이 상기 배경 데이터와 사물 모션 데이터를 이용하여, 상기 사물의 표면에 부착된 제1 마커와 관련된 제1 마커 제거 객체가 포함된 제3 영상을 생성하고, 상기 영상 합성 모듈이 상기 제1 내지 제3 영상을 이용하여 최종 영상을 생성하는 것을 포함한다.An image generation method according to some embodiments of the present invention for solving the above problem is an image generation method of an image generation device including a background generation module, a character implementation module, a marker removal module, and an image synthesis module, wherein the background generation module A first image with the user removed is generated using background data generated by photographing a user and an object interacting with the user, and the character implementation module is implemented using user motion data received from a motion capture device. A second image containing movement of a character is generated, and the marker removal module uses the background data and object motion data to create a second image containing a first marker removal object associated with a first marker attached to the surface of the object. It includes generating three images, and the image synthesis module generating a final image using the first to third images.

몇몇 실시예에 따르면, 상기 마커 제거 모듈은 마커 제거 객체 생성 모듈 및 마커 제거 객체 배치 모듈을 포함하고, 상기 마커 제거 객체 생성 모듈은 상기 배경 데이터에서 상기 사물의 외관 정보를 추출하고, 상기 사물 외관 정보를 기초로, 상기 제1 마커가 부착된 위치에 대응되는 위치와 관련된 제1 마커 제거 객체를 생성할 수 있다.According to some embodiments, the marker removal module includes a marker removal object creation module and a marker removal object placement module, and the marker removal object creation module extracts appearance information of the object from the background data, and extracts appearance information of the object from the background data. Based on , a first marker removal object related to a location corresponding to the location where the first marker is attached may be created.

몇몇 실시예에 따르면, 상기 마커 제거 객체 배치 모듈은 시간에 따라 변화하는 상기 사물의 움직임에 대응하여, 상기 마커 제거 객체가 움직이도록 배치할 수 있다.According to some embodiments, the marker removal object placement module may arrange the marker removal object to move in response to the movement of the object that changes over time.

몇몇 실시예에 따르면, 상기 캐릭터 구현 모듈은 상기 사용자의 신체와 대응되는 캐릭터를 구현하고, 상기 사용자의 움직임에 대응되는 캐릭터의 움직임을 구현하되, 상기 캐릭터는 상기 사물에 의해 가려지는 상기 사용자의 신체 영역은 제외하고 구현될 수 있다.According to some embodiments, the character implementation module implements a character corresponding to the user's body and implements movement of the character corresponding to the user's movement, wherein the character is the user's body obscured by the object. It can be implemented excluding areas.

본 발명의 영상 생성 장치는, 연기를 수행하는 사용자의 모션을 반영하여, 메타버스 캐릭터의 움직임과 연출 효과에 적용하므로 캐릭터의 리얼리티를 극대화할 수 있다. The image generating device of the present invention reflects the motion of the user performing the act and applies it to the movement and production effects of the metaverse character, thereby maximizing the reality of the character.

또한, 본 발명의 영상 생성 장치는 사용자가 캐릭터로 전환된 후에도 사용자가 접촉하고 있는 실제 사물을 캐릭터와 이질감 없이 표현할 수 있다.In addition, the image generating device of the present invention can express the actual object that the user is in contact with without any sense of heterogeneity with the character even after the user switches to the character.

또한, 본 발명의 영상 생성 장치는 이미지 증강을 통해 실제 사물에 부착된 마커가 영상에서 보이지 않도록 하여 퀄리티가 극대화된 영상을 제작할 수 있다.Additionally, the image generating device of the present invention can produce images with maximized quality by preventing markers attached to real objects from being visible in the image through image augmentation.

상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above-described content, specific effects of the present invention are described below while explaining specific details for carrying out the invention.

도 1은 본 발명의 몇몇 실시예에 따른 영상 생성 장치를 이용하여 최종 영상을 생성하는 과정을 개략적으로 설명하기 위한 도면이다.
도 2 및 도 3은 본 발명의 몇몇 실시예에 따른 배경 생성 모듈을 통해 제1 영상을 생성하는 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 몇몇 실시예에 따른 모션 캡쳐 장치가 사용자 모션 데이터 및 사물 모션 데이터를 영상 생성 장치의 각 모듈로 전송하는 과정을 설명하기 위한 도면이다.
도 5 및 도 6은 본 발명의 몇몇 실시예에 따른 캐릭터 구현 모듈을 통해 제2 영상을 생성하는 과정을 설명하기 위한 도면이다.
도 7 및 도 8은 본 발명의 몇몇 실시예에 따른 마커 제거 모듈을 통해 제3 영상을 생성하는 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 몇몇 실시예에 따른 영상 생성 장치에서 이용되는 마커 종류를 설명하기 위한 예시적인 도면이다.
도 10은 본 발명의 몇몇 실시예에 따른 도 2의 과정을 통해 생성된 제1 영상을 설명하기 위한 예시적인 도면이다.
도 11은 본 발명의 몇몇 실시예에 따른 도 4의 과정을 통해 생성된 제2 영상을 설명하기 위한 예시적인 도면이다.
도 12는 본 발명의 몇몇 실시예에 따른 도 5의 과정을 통해 생성된 제3 영상을 설명하기 위한 예시적인 도면이다.
도 13은 본 발명의 몇몇 실시예에 따른 영상 합성 모듈을 통해 최종 영상을 생성하는 과정을 설명하기 위한 도면이다.
도 14는 본 발명의 몇몇 실시예에 따른 최종 영상을 생성하는 순서를 설명하기 위한 도면이다.
1 is a diagram schematically illustrating a process for generating a final image using an image generating device according to some embodiments of the present invention.
2 and 3 are diagrams for explaining a process of generating a first image through a background generation module according to some embodiments of the present invention.
FIG. 4 is a diagram illustrating a process in which a motion capture device transmits user motion data and object motion data to each module of an image generating device according to some embodiments of the present invention.
Figures 5 and 6 are diagrams for explaining the process of generating a second image through a character implementation module according to some embodiments of the present invention.
Figures 7 and 8 are diagrams for explaining the process of generating a third image through a marker removal module according to some embodiments of the present invention.
FIG. 9 is an exemplary diagram illustrating types of markers used in an image generating device according to some embodiments of the present invention.
FIG. 10 is an exemplary diagram for explaining a first image generated through the process of FIG. 2 according to some embodiments of the present invention.
FIG. 11 is an exemplary diagram for explaining a second image generated through the process of FIG. 4 according to some embodiments of the present invention.
FIG. 12 is an exemplary diagram illustrating a third image generated through the process of FIG. 5 according to some embodiments of the present invention.
Figure 13 is a diagram for explaining the process of generating a final image through an image synthesis module according to some embodiments of the present invention.
Figure 14 is a diagram for explaining the procedure for generating a final image according to some embodiments of the present invention.

본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and patent claims should not be construed as limited to their general or dictionary meaning. According to the principle that the inventor can define terms or word concepts in order to explain his or her invention in the best way, it should be interpreted with a meaning and concept consistent with the technical idea of the present invention. In addition, the embodiments described in this specification and the configurations shown in the drawings are only one embodiment of the present invention and do not completely represent the technical idea of the present invention, so they cannot be replaced at the time of filing the present application. It should be understood that there may be various equivalents, variations, and applicable examples.

본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B used in the present specification and claims may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term 'and/or' includes any of a plurality of related stated items or a combination of a plurality of related stated items.

본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the specification and claims are merely used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "include" or "have" should be understood as not precluding the existence or addition possibility of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless clearly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다.Additionally, each configuration, process, process, or method included in each embodiment of the present invention may be shared within the scope of not being technically contradictory to each other.

본 발명은 메타버스 캐릭터 영상 생성 장치에 관한 것으로, '메타버스 캐릭터 영상 생성'은 메타버스, 가상현실, 증강현실 혹은 확장현실에서 이용되는 메타버스 캐릭터의 움직임 및 연출 효과를 포함하는 영상의 제작을 의미할 수 있다. 다시 말해서, 본 명세서에서 '메타버스 캐릭터'는 2D 또는 3D로 구현된 가상의 디지털 아이돌 캐릭터, 게임 캐릭터 등을 포함할 수 있다. 또한, '메타버스 영상'라 함은 메타버스 캐릭터를 포함하는 영상으로서, 메타버스 캐릭터 뿐만 아니라, 메타버스 배경, 구조물 등을 모두 포함하는 영상을 의미할 수 있다. The present invention relates to a metaverse character image generation device, and 'metaverse character image generation' refers to the production of images including the movement and production effects of metaverse characters used in metaverse, virtual reality, augmented reality, or extended reality. It can mean. In other words, in this specification, 'metaverse character' may include a virtual digital idol character, game character, etc. implemented in 2D or 3D. In addition, 'metaverse video' refers to a video that includes metaverse characters, and may mean a video that includes not only metaverse characters, but also metaverse backgrounds and structures.

이하, 도 1 내지 도 14를 참조하여, 본 발명의 몇몇 실시예에 따른 영상 생성 장치 및 그 방법을 설명한다.Hereinafter, an image generating device and method according to some embodiments of the present invention will be described with reference to FIGS. 1 to 14.

도 1은 본 발명의 몇몇 실시예에 따른 영상 생성 장치를 이용하여 최종 영상을 생성하는 과정을 개략적으로 설명하기 위한 도면이다.1 is a diagram schematically illustrating a process for generating a final image using an image generating device according to some embodiments of the present invention.

도 1을 참조하면, 본 발명의 몇몇 실시예에 따른 영상 생성 장치(10)는 배경 생성 모듈(100), 캐릭터 구현 모듈(200), 마커 제거 모듈(300) 및 영상 합성 모듈(400)을 포함할 수 있다. Referring to FIG. 1, the image generation device 10 according to some embodiments of the present invention includes a background creation module 100, a character implementation module 200, a marker removal module 300, and an image synthesis module 400. can do.

배경 생성 모듈(100)은 영상 촬영 장치(20)로부터 배경 데이터(BG_D)를 수신할 수 있다. 영상 촬영 장치(20)는 영상을 촬영하여 배경 데이터(BG_D)를 생성할 수 있다. 예를 들어, 영상 촬영 장치는 마커를 부착한 채 연기를 수행하는 사용자(이하, 사용자), 사용자와 상호작용하는 사물(OB)(이하, 사물) 및 사용자가 촬영되고 있는 장소를 포함한 배경 전체를 촬영하여 배경 데이터(BG_D)를 생성할 수 있다. 이때, 배경 데이터(BG_D)는 사용자와 사물(OB)이 직접 또는 간접적으로 접촉하는, 즉, 사용자와 사물(OB)이 서로 상호작용하는 영상을 포함할 수 있다. 다시 말해서, 배경 데이터(BG_D)는 사용자 및 사물(OB)이 촬영된 영상을 포함할 수 있다. 영상 촬영 장치(20)에서 생성된 배경 데이터(BG_D)는 배경 생성 모듈(100) 및/또는 마커 제거 모듈(300)에 제공될 수 있다. 배경 생성 모듈(100)은 배경 데이터(BG_D)를 이용하여 제1 영상(V_1)을 생성할 수 있다. 제1 영상(V_1)은 배경 데이터(BG_D)에서 사용자가 제거되고, 사용자가 제거된 영역이 보정된 영상일 수 있다. 제1 영상(V_1)에 대한 구체적인 설명은 후술한다. 배경 생성 모듈(100)은 생성된 제1 영상(V_1)을 영상 합성 모듈(400)에 제공할 수 있다.The background generation module 100 may receive background data (BG_D) from the image capturing device 20. The image capture device 20 may capture an image and generate background data (BG_D). For example, an imaging device may record the entire background, including the user performing the performance with a marker attached (hereinafter referred to as user), the object (OB) interacting with the user (hereinafter referred to as object), and the location where the user is being filmed. You can create background data (BG_D) by shooting. At this time, the background data BG_D may include an image in which the user and the object OB are in direct or indirect contact, that is, the user and the object OB interact with each other. In other words, the background data (BG_D) may include images in which the user and the object (OB) are captured. Background data (BG_D) generated by the image capturing device 20 may be provided to the background generation module 100 and/or the marker removal module 300. The background generation module 100 may generate the first image (V_1) using the background data (BG_D). The first image V_1 may be an image in which the user has been removed from the background data (BG_D) and the area from which the user has been removed has been corrected. A detailed description of the first image (V_1) will be described later. The background generation module 100 may provide the generated first image V_1 to the image synthesis module 400.

캐릭터 구현 모듈(200)은 모션 캡쳐 장치(30)로부터 사용자 모션 데이터(MD_U)를 수신할 수 있다. 모션 캡쳐 장치(30)는 사용자의 움직임을 센싱하여 사용자 모션 데이터(MD_U)를 생성할 수 있다. 사용자 모션 데이터(MD_U)는 사용자의 이동 방향 및 이동 속도에 관련된 데이터를 포함할 수 있다. 예를 들어, 모션 캡쳐 장치(30)는 사용자에게 부착된 마커를 센싱하여 사용자 모션 데이터(MD_U)를 생성할 수 있다. 사용자 모션 데이터(MD_U)는 바디 모션 데이터(BM_D), 페이셜 모션 데이터(FM_D) 및 핸드 모션 데이터(HM_D) 중 적어도 하나를 포함할 수 있다. 캐릭터 구현 모듈(200)은 사용자 모션 데이터(MD_U)를 이용하여 메타버스 캐릭터의 움직임이 포함된 메타버스 캐릭터 영상을 생성할 수 있다. 본 명세서에서는 영상 촬영 장치(20)와 모션 캡쳐 장치(30)가 서로 다른 구성요소인 것으로 표현하였으나, 실시예들이 이에 제한되는 것은 아니다. 모션 캡쳐 장치(30)가 광학식 마커(MK)를 이용하는 경우, 영상 촬영 장치(20)와 모션 캡쳐 장치(30)는 서로 동일한 구성요소일 수 있다. 다만, 본 명세서에서는 설명의 편의를 위해, 영상 촬영 장치(20)와 모션 캡쳐 장치(30)를 서로 구분되는 것으로 표현한다. The character implementation module 200 may receive user motion data (MD_U) from the motion capture device 30. The motion capture device 30 may generate user motion data (MD_U) by sensing the user's movement. User motion data (MD_U) may include data related to the user's movement direction and movement speed. For example, the motion capture device 30 may generate user motion data (MD_U) by sensing a marker attached to the user. User motion data (MD_U) may include at least one of body motion data (BM_D), facial motion data (FM_D), and hand motion data (HM_D). The character implementation module 200 may generate a metaverse character image including the movement of the metaverse character using user motion data (MD_U). In this specification, the image photographing device 20 and the motion capture device 30 are expressed as different components, but the embodiments are not limited thereto. When the motion capture device 30 uses an optical marker (MK), the image capture device 20 and the motion capture device 30 may be the same component. However, in this specification, for convenience of explanation, the image photographing device 20 and the motion capture device 30 are expressed as distinct from each other.

또한, 캐릭터 구현 모듈(200)은 모션 캡쳐 장치(30)로부터 사물 모션 데이터(MD_O)를 수신할 수 있다. 모션 캡쳐 장치(30)는 사물(OB)의 움직임을 센싱하여 사물 모션 데이터(MD_O)를 생성할 수 있다. 예를 들어, 모션 캡쳐 장치(30)는 사물(OB)에 부착된 마커(MK)를 센싱하여 사물 모션 데이터(MD_O)를 생성할 수 있다. 사물 모션 데이터(MD_O)는 사물(OB)의 이동 방향 및 이동 속도에 관련된 데이터를 포함할 수 있다. 캐릭터 구현 모듈(200)은 사물 모션 데이터(MD_O)를 이용하여, 전술한 메타버스 캐릭터 영상에서 사물(OB)의 영역을 제거한 제2 영상(V_2)을 생성할 수 있다. 다시 말해서, 제2 영상(V_2)은 사물(OB)의 영역이 제거된 메타버스 캐릭터 영상일 수 있다. 제2 영상(V_2)에 대한 구체적인 설명은 후술한다. 캐릭터 구현 모듈(200)은 사용자 모션 데이터(MD_U) 및 사물 모션 데이터(MD_O)를 이용하여 생성된 제2 영상(V_2)을 영상 합성 모듈(400)로 전송할 수 있다.Additionally, the character implementation module 200 may receive object motion data (MD_O) from the motion capture device 30. The motion capture device 30 may generate object motion data (MD_O) by sensing the movement of the object (OB). For example, the motion capture device 30 may generate object motion data MD_O by sensing a marker MK attached to an object OB. Object motion data MD_O may include data related to the movement direction and movement speed of the object OB. The character implementation module 200 may use the object motion data (MD_O) to generate a second image (V_2) by removing the area of the object (OB) from the above-described metaverse character image. In other words, the second image V_2 may be a metaverse character image from which the object OB area has been removed. A detailed description of the second image (V_2) will be described later. The character implementation module 200 may transmit the second image V_2 generated using user motion data (MD_U) and object motion data (MD_O) to the image synthesis module 400.

마커 제거 모듈(300)은 모션 캡쳐 장치(30)로부터 사물 모션 데이터(MD_O)를 수신할 수 있다. 또한, 마커 제거 모듈(300)은 영상 촬영 장치(20)로부터 배경 데이터(BG_D)를 수신할 수 있다. 전술한 바와 같이, 배경 데이터(BG_D)는 사용자 및 사물(OB)이 촬영된 영상을 포함할 수 있다. 즉, 배경 데이터(BG_D)는 사물(OB)에 대한 외형 정보를 포함할 수 있다. 마커 제거 모듈(300)은 영상 촬영 장치(20)에서 수신한 배경 데이터(BG_D)를 이용하여 마커 제거 객체를 생성하고, 모션 캡쳐 장치(30)에서 수신한 사물 모션 데이터(MD_O)를 이용하여, 사물(OB)의 움직임과 마커 제거 객체의 움직임을 서로 매핑함으로써 제3 영상(V_3)을 생성할 수 있다. 다시 말해서, 제3 영상(V_3)은 마커 제거 객체가 사물(OB)의 마커(MK)와 대응되는 위치에 배치된 영상일 수 있다. 제3 영상(V_3)에 대한 구체적인 설명은 후술한다. 마커 제거 모듈(300)은 생성된 제3 영상(V_3)을 영상 합성 모듈(400)로 전송할 수 있다.The marker removal module 300 may receive object motion data (MD_O) from the motion capture device 30. Additionally, the marker removal module 300 may receive background data (BG_D) from the image capturing device 20. As described above, the background data BG_D may include images of a user and an object OB. That is, the background data (BG_D) may include appearance information about the object (OB). The marker removal module 300 creates a marker removal object using the background data (BG_D) received from the imaging device 20, and uses the object motion data (MD_O) received from the motion capture device 30, The third image (V_3) can be generated by mapping the movement of the object (OB) and the movement of the marker-removed object. In other words, the third image V_3 may be an image in which the marker removal object is placed at a location corresponding to the marker MK of the object OB. A detailed description of the third video (V_3) will be described later. The marker removal module 300 may transmit the generated third image V_3 to the image synthesis module 400.

영상 합성 모듈은 배경 생성 모듈(100)에서 수신한 제1 영상(V_1), 캐릭터 구현 모듈(200)에서 수신한 제2 영상(V_2) 및 마커 제거 모듈에서 수신한 제3 영상(V_3)을 이용하여 최종 영상(V_F)을 생성할 수 있다.The image synthesis module uses the first image (V_1) received from the background creation module 100, the second image (V_2) received from the character implementation module 200, and the third image (V_3) received from the marker removal module. Thus, the final image (V_F) can be generated.

몇몇 실시예에 따르면, 영상 촬영 장치(20), 모션 캡쳐 장치(30) 및 영상 생성 장치(10)는 네트워크를 통해 서로 데이터를 교환할 수 있다. 네트워크를 통해서 데이터를 전송할 수 있다. 네트워크는 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.According to some embodiments, the image capturing device 20, the motion capture device 30, and the image generating device 10 may exchange data with each other through a network. Data can be transmitted through the network. Networks may include networks based on wired Internet technology, wireless Internet technology, and short-distance communication technology. Wired Internet technology may include, for example, at least one of a local area network (LAN) and a wide area network (WAN).

무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Wireless Internet technologies include, for example, Wireless LAN (WLAN), DLNA (Digital Living Network Alliance), Wibro (Wireless Broadband), Wimax (World Interoperability for Microwave Access: Wimax), and HSDPA (High Speed Downlink Packet). Access), HSUPA (High Speed Uplink Packet Access), IEEE 802.16, Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced), Wireless Mobile Broadband Service (WMBS) and 5G NR (New Radio) technology. However, this embodiment is not limited to this.

근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication. At least one of NFC), Ultrasound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include. However, this embodiment is not limited to this.

네트워크를 통해서 통신하는 영상 촬영 장치(20), 모션 캡쳐 장치(30) 및 영상 생성 장치(10)는 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The image capture device 20, motion capture device 30, and image generation device 10 that communicate through a network may comply with technical standards and standard communication methods for mobile communication. For example, standard communication methods include GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), and EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only). , at least one of Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTEA), and 5G New Radio (NR) may include. However, this embodiment is not limited to this.

도 2 및 도 3은 본 발명의 몇몇 실시예에 따른 배경 생성 모듈을 통해 제1 영상을 생성하는 과정을 설명하기 위한 도면이다.2 and 3 are diagrams for explaining a process of generating a first image through a background generation module according to some embodiments of the present invention.

도 2 및 도 3을 참조하면, 배경 생성 모듈(100)은 사용자 트래킹 모듈(100_1), 사용자 제거 모듈(100_2), 배경 보정 모듈(100_3)을 포함할 수 있다. 사용자 트래킹 모듈(100_1)은 영상 촬영 장치(20)로부터 배경 데이터(BG_D)를 수신할 수 있다. 사용자 트래킹 모듈(100_1)은 배경 데이터(BG_D)에서 사용자를 트래킹하여, 사용자 트래킹 데이터(UT_D)를 생성할 수 있다(S100). 사용자 트래킹 데이터(UT_D)는 사용자의 윤곽을 특정한 데이터일 수 있다. 다시 말해서, 사용자 트래킹 데이터(UT_D)는 움직이는 사용자의 윤곽 영역을 트래킹한 데이터일 수 있다. 몇몇 실시예에 따르면, 사용자 트래킹 모듈(100_1)은 딥러닝 기반 객체 감지 알고리즘을 이용하여 사용자 트래킹 데이터(UT_D)를 생성할 수 있다. 예를 들어, 딥러닝 기반의 객체 감지 알고리즘은 YOLO(You Only Look Once), CNN, SSD(Single Shot Multibox Detector) 중 적어도 하나가 사용될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다. 사용자 트래킹 모듈(100_1)은 사용자 트래킹 데이터(UT_D)를 사용자 제거 모듈(100_2)로 전송할 수 있다.Referring to FIGS. 2 and 3 , the background generation module 100 may include a user tracking module 100_1, a user removal module 100_2, and a background correction module 100_3. The user tracking module 100_1 may receive background data (BG_D) from the image capture device 20. The user tracking module 100_1 may track the user in the background data (BG_D) and generate user tracking data (UT_D) (S100). User tracking data (UT_D) may be data that specifies the user's outline. In other words, the user tracking data (UT_D) may be data that tracks the outline area of a moving user. According to some embodiments, the user tracking module 100_1 may generate user tracking data UT_D using a deep learning-based object detection algorithm. For example, the deep learning-based object detection algorithm may use at least one of YOLO (You Only Look Once), CNN, and SSD (Single Shot Multibox Detector), but the present embodiment is not limited thereto. The user tracking module 100_1 may transmit user tracking data (UT_D) to the user removal module 100_2.

사용자 제거 모듈(100_2)은 사용자 트래킹 모듈(100_1)로부터 사용자 트래킹 데이터(UT_D)를 수신할 수 있다. 사용자 제거 모듈(100_2)은 사용자 트래킹 데이터(UT_D)를 이용하여 사용자 제거 영상(UR_V)을 생성할 수 있다(S110). 사용자 제거 영상(UR_V)은 배경 데이터(BG_D)에서 사용자가 제거된 영상일 수 있다. 다시 말해서, 사용자 제거 모듈(100_2)은 사용자 트래킹 데이터(UT_D)를 기반으로, 배경 데이터(BG_D)에서 사용자의 윤곽을 포함한 사용자 형상 전체를 제거함으로써 사용자 제거 영상(UR_V)을 생성할 수 있다. 사용자 제거 모듈(100_2)은 사용자 제거 영상(UR_V)을 배경 보정 모듈(100_3)로 전송할 수 있다.The user removal module 100_2 may receive user tracking data UT_D from the user tracking module 100_1. The user removal module 100_2 may generate a user removal image (UR_V) using the user tracking data (UT_D) (S110). The user removal image (UR_V) may be an image in which the user has been removed from the background data (BG_D). In other words, the user removal module 100_2 can generate the user removal image UR_V by removing the entire user shape, including the user's outline, from the background data BG_D, based on the user tracking data UT_D. The user removal module 100_2 may transmit the user removal image UR_V to the background correction module 100_3.

배경 보정 모듈(100_3)은 사용자 제거 모듈(100_2)로부터 사용자 제거 영상(UR_V)을 수신할 수 있다. 배경 보정 모듈(100_3)은 사용자 제거 영상(UR_V)에서 배경을 보정하여 제1 영상(V_1)을 생성할 수 있다(S120). 이때, 사용자 제거 영상(UR_V)은 배경 데이터(BG_D)에서 사용자의 영역(즉, 사용자의 윤곽 내부 영역)이 제거된 영상일 수 있으며, 사용자의 외형이 제거된 부분은 데이터가 없이 비어있거나, 단색으로 채워져 있을 수 있다. 배경 보정 모듈(100_3)은 사용자 제거 영상(UR_V)에서 사용자의 영역이 제거된 부분을 주변 배경 영역과 대응되도록 보정하여 제1 영상(V_1)을 생성할 수 있다. 다시 말해서, 제1 영상(V_1)은 처음부터 사용자가 존재하지 않았던 것과 같이, 사용자가 제거된 영역과 주변 영역이 서로 어우러지는 영상일 수 있다.The background correction module 100_3 may receive the user removal image UR_V from the user removal module 100_2. The background correction module 100_3 may generate the first image V_1 by correcting the background in the user-removed image UR_V (S120). At this time, the user removal image (UR_V) may be an image in which the user's area (i.e., the area inside the user's outline) has been removed from the background data (BG_D), and the area from which the user's outline has been removed is empty without data or in a single color. It may be filled with . The background correction module 100_3 may generate the first image V_1 by correcting the portion from which the user area has been removed in the user removal image UR_V to correspond to the surrounding background area. In other words, the first image V_1 may be an image in which the area from which the user was removed and the surrounding area blend together, as if the user had not existed from the beginning.

몇몇 실시예에 따르면, 배경 보정 모듈(100_3)은 이미지 합성 또는 딥러닝 기술을 이용하여, 사용자 제거 영상(UR_V)을 제1 영상(V_1)으로 생성할 수 있다. 예를 들어, 배경 보정 모듈(100_3)은 GANs(Generative Adversarial Networks) 또는 CNNs(Convolutional Neural Networks)를 이용하여, 사용자 제거 영상(UR_V)을 보정함으로써 제1 영상(V_1)을 생성할 수 있다. 이때, 딥러닝 기술은 제거된 사용자의 영역의 주변 배경 정보를 이용하여 학습될 수 있다. According to some embodiments, the background correction module 100_3 may generate the user-removed image UR_V as the first image V_1 using image synthesis or deep learning technology. For example, the background correction module 100_3 may generate the first image (V_1) by correcting the user removal image (UR_V) using Generative Adversarial Networks (GANs) or Convolutional Neural Networks (CNNs). At this time, deep learning technology can be learned using surrounding background information of the removed user's area.

또 다른 예로, 배경 보정 모듈(100_3)은 배경 데이터(BG_D)가 생성되기 전에, 사용자가 존재하지 않은 환경에서 영상 데이터를 생성하고, 이 영상 데이터를 이용하여 제1 영상(V_1)을 생성할 수 있다. 즉, 배경 보정 모듈(100_3)은 사용자 제거 영상(UR_V)에서, 제거된 사용자의 영역을 미리 촬영한 영상 데이터와 합성하여 제1 영상(V_1)을 생성할 수 있다. 단, 배경 보정 모듈(100_3)이 딥러닝 기술 또는 영상 합성 기술을 이용하는 것은 단순히 예시적인 것이며, 본 발명이 이에 제한되는 것은 아니다. 배경 생성 모듈(100)은 배경 데이터(BG_D)를 이용하여 생성된 제1 영상(V_1)을 영상 합성 모듈(400)로 전송할 수 있다.As another example, the background correction module 100_3 may generate image data in an environment where the user does not exist before the background data (BG_D) is generated, and use this image data to generate the first image (V_1). there is. That is, the background correction module 100_3 may generate the first image V_1 by combining the removed user area with pre-photographed image data in the user removal image UR_V. However, the fact that the background correction module 100_3 uses deep learning technology or image synthesis technology is merely illustrative, and the present invention is not limited thereto. The background generation module 100 may transmit the first image V_1 generated using the background data BG_D to the image synthesis module 400.

도 4는 모션 캡쳐 장치가 사용자 모션 데이터 및 사물 모션 데이터를 영상 생성 장치의 각 모듈로 전송하는 과정을 설명하기 위한 도면이다. FIG. 4 is a diagram illustrating a process in which a motion capture device transmits user motion data and object motion data to each module of an image generating device.

몇몇 실시예에 따르면, 모션 캡쳐 장치(30)는 바디 캡쳐 모듈(30_1), 페이셜 캡쳐 모듈(30_2), 핸드 캡쳐 모듈(30_3) 및 사물 캡쳐 모듈(30_4)을 포함할 수 있다. 모션 캡쳐 장치(30)는 사용자의 신체에 부착된 센서 및/또는 마커를 통해, 사용자의 움직임을 데이터로 기록할 수 있다. 다시 말해서, 모션 캡쳐 장치(30)는 사용자의 움직임을 센싱하여, 사용자 모션 데이터(MD_U)를 생성할 수 있다. 사용자 모션 데이터(MD_U)는 사용자의 골격의 움직임 및 근육의 움직임을 표현하는 데이터일 수 있다. 또한, 모션 캡쳐 장치(30)는 사용자와 사물(OB)에 부착된 센서 및/또는 마커를 통해, 사물(OB)의 움직임을 데이터로 기록할 수 있다. 다시 말해, 모션 캡쳐 장치(30)는 사물(OB)의 움직임을 센싱하여, 사물(OB)의 이동 방향 및 이동 속도를 포함하는 사물 모션 데이터(MD_O)를 생성할 수 있다.According to some embodiments, the motion capture device 30 may include a body capture module 30_1, a facial capture module 30_2, a hand capture module 30_3, and an object capture module 30_4. The motion capture device 30 may record the user's movements as data through sensors and/or markers attached to the user's body. In other words, the motion capture device 30 can sense the user's movement and generate user motion data (MD_U). User motion data (MD_U) may be data expressing the user's skeletal movements and muscle movements. Additionally, the motion capture device 30 may record the movement of the object OB as data through sensors and/or markers attached to the user and the object OB. In other words, the motion capture device 30 may sense the movement of the object OB and generate object motion data MD_O including the movement direction and speed of the object OB.

예를 들어, 모션 캡쳐 장치(30)는 광학식, 자기식 및/또는 관성식 모션 캡쳐 장치로 구현될 수 있다. 광학식 모션 캡쳐 장치는, 마커 및 카메라를 포함할 수 있다. 광학식 모션 캡쳐 장치는 마커를 부착한 사용자의 움직임을 하나 이상의 카메라로 촬상하고, 삼각측량법을 통해 사용자에게 부착된 마커의 삼차원적 좌표를 역산하여 모션 데이터를 생성하는 장치일 수 있다. 자기식 모션 캡쳐 장치는 사용자의 관절 등에 자기장을 계측할 수 있는 센서를 부착한 뒤 자기장 발생 장치 근처에서 각 센서의 자기장 변화량을 계산하여 움직임을 측정함으로써 모션 데이터를 생성하는 장치일 수 있다. 관성식 모션 캡쳐 장치는 가속도 센서, 자이로 센서 및 지자기센서를 포함하는 관성 센서를 사용자의 관절 등에 부착하여, 사용자의 움직임, 회전 및/또는 방향을 읽어내어 모션 데이터를 생성하는 장치일 수 있다. 다만, 상술한 광학식, 자기식 및 관성식 모션 캡쳐 장치는, 본 발명의 몇몇 실시예에 따른 모션 캡쳐 장치(30)가 구현될 수 있는 일례를 설명한 것일 뿐, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 모션 캡쳐 장치(30)는 인공지능을 이용한 영상 처리 기술을 이용하거나, 이를 광학식, 자기식 및/또는 관성식 모션 캡쳐 장치(30)와 병행하여 모션 데이터를 생성할 수도 있을 것이다. 이하에서는, 설명의 편의를 위해, 모션 캡쳐 장치(30)는 마커 및 카메라를 포함하는 광학식 모션 캡쳐 장치인 것을 가정하여 설명한다.For example, motion capture device 30 may be implemented as an optical, magnetic, and/or inertial motion capture device. An optical motion capture device may include a marker and a camera. An optical motion capture device may be a device that captures the movements of a user with a marker attached using one or more cameras and generates motion data by inverting the three-dimensional coordinates of the marker attached to the user through triangulation. A magnetic motion capture device may be a device that generates motion data by attaching a sensor capable of measuring a magnetic field to a user's joints, etc., and then measuring movement by calculating the amount of change in the magnetic field of each sensor near the magnetic field generator. An inertial motion capture device may be a device that attaches an inertial sensor including an acceleration sensor, a gyro sensor, and a geomagnetic sensor to a user's joints, reads the user's movement, rotation, and/or direction, and generates motion data. However, the above-described optical, magnetic, and inertial motion capture devices are merely an example of how the motion capture device 30 according to some embodiments of the present invention can be implemented, and the embodiments are not limited thereto. For example, the motion capture device 30 may generate motion data using image processing technology using artificial intelligence or in parallel with the optical, magnetic, and/or inertial motion capture device 30. Hereinafter, for convenience of explanation, it is assumed that the motion capture device 30 is an optical motion capture device including a marker and a camera.

몇몇 실시예에 따르면, 바디 캡쳐 모듈(30_1)은 바디 모션 데이터(BM_D)를 생성할 수 있다. 바디 모션 데이터(BM_D)는 사용자의 바디의 움직임, 즉 사용자의 활동 모션에 대한 데이터일 수 있다. 다시 말해서, 바디 캡쳐 모듈(30_1)은 머리, 목, 팔, 몸, 다리 등 사용자의 신체의 움직임을 센싱하여 바디 모션 데이터(BM_D)를 생성할 수 있다. 예를 들어, 바디 캡쳐 모듈(30_1)은 사용자가 특정 행동(걷기, 뛰기, 기기, 앉기, 서기, 눕기, 춤추기, 싸우기, 발길질하기, 팔 휘두르기 등)을 할 때의 머리, 목, 팔, 몸, 다리 등의 움직임을 센싱하여 바디 모션 데이터(BM_D)를 생성할 수 있다. 바디 캡쳐 모듈(30_1)은 사용자의 신체에 마커를 부착하고, 이를 센싱하여 바디 모션 데이터(BM_D)를 생성할 수 있으나, 본 실시예가 이에 제한되는 것은 아니다. According to some embodiments, the body capture module 30_1 may generate body motion data BM_D. Body motion data (BM_D) may be data about the movement of the user's body, that is, the user's activity motion. In other words, the body capture module 30_1 can generate body motion data BM_D by sensing movements of the user's body, such as the head, neck, arms, body, and legs. For example, the body capture module 30_1 captures the head, neck, arms, etc. when the user performs a specific action (walking, running, crawling, sitting, standing, lying down, dancing, fighting, kicking, swinging arms, etc.) Body motion data (BM_D) can be generated by sensing the movement of the body, legs, etc. The body capture module 30_1 may attach a marker to the user's body and sense the marker to generate body motion data BM_D, but the present embodiment is not limited thereto.

몇몇 실시예에 따르면, 페이셜 캡쳐 모듈(30_2)은 페이셜 모션 데이터(FM_D)를 생성할 수 있다. 페이셜 모션 데이터(FM_D)는 사용자의 얼굴의 움직임을 센싱한 데이터, 즉 사용자의 표정에 대한 데이터일 수 있다. 다시 말해서, 페이셜 캡쳐 모듈(30_2)은 사용자의 얼굴의 움직임을 센싱하여 페이셜 모션 데이터(FM_D)를 생성할 수 있다. 예를 들어, 페이셜 캡쳐 모듈(30_2)은 사용자의 특정 표정(우는 표정, 웃는 표정, 놀란 표정, 화난 표정, 경멸하는 표정, 아쉬운 표정, 사랑스러운 표정, 혐오하는 표정 등)에서의 얼굴의 움직임을 센싱하여 페이셜 모션 데이터(FM_D)를 생성할 수 있다. 페이셜 캡쳐 모듈(30_2)은 사용자의 얼굴에 마커를 부착하고 이를 센싱한 데이터와, 사용자의 얼굴 표정에 대한 영상 처리 기술을 추가적으로 이용하여 페이셜 모션 데이터(FM_D)를 생성할 수 있으나, 본 실시예가 이에 제한되는 것은 아니다.According to some embodiments, the facial capture module 30_2 may generate facial motion data (FM_D). Facial motion data (FM_D) may be data that senses the movement of the user's face, that is, data about the user's facial expression. In other words, the facial capture module 30_2 can generate facial motion data (FM_D) by sensing the movement of the user's face. For example, the facial capture module 30_2 captures the movement of the user's face in a specific expression (a crying expression, a smiling expression, a surprised expression, an angry expression, a disdainful expression, a regretful expression, a loving expression, a disgusting expression, etc.). Facial motion data (FM_D) can be generated by sensing. The facial capture module 30_2 may attach a marker to the user's face and generate facial motion data (FM_D) by additionally using data sensed and image processing technology for the user's facial expression, but this embodiment does not do this. It is not limited.

몇몇 실시예에 따르면, 핸드 캡쳐 모듈(30_3)은 사용자의 손 움직임을 센싱하여 핸드 모션 데이터(HM_D)를 생성할 수 있다. 핸드 모션 데이터(HM_D)는 사용자의 손 움직임을 센싱한 데이터, 즉 사용자의 손 동작에 대한 데이터일 수 있다. 다시 말해서, 핸드 캡쳐 모듈(30_3)은 사용자의 손 움직임을 센싱하여 핸드 모션 데이터(HM_D)를 생성할 수 있다. 예를 들어, 핸드 캡쳐 모듈(30_3)은 사용자의 손 동작(손가락 오므리기, 손가락 펴기 등)에서의 손가락 마디의 움직임을 센싱하여 핸드 모션 데이터를 생성할 수 있다. 핸드 캡쳐 모듈(30_3)은 손가락 관절의 움직임을 센싱할 수 있는 특수 장갑 또는 웨어러블 장치로 구현될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다. According to some embodiments, the hand capture module 30_3 may generate hand motion data (HM_D) by sensing the user's hand movements. Hand motion data (HM_D) may be data that senses the user's hand movement, that is, data about the user's hand movement. In other words, the hand capture module 30_3 can generate hand motion data (HM_D) by sensing the user's hand movements. For example, the hand capture module 30_3 may generate hand motion data by sensing the movement of finger joints in the user's hand movements (closed fingers, extended fingers, etc.). The hand capture module 30_3 may be implemented as a special glove or wearable device capable of sensing movement of finger joints, but the present embodiment is not limited thereto.

즉, 모션 캡쳐 장치(30)는 바디 모션 데이터(BM_D), 페이셜 모션 데이터(FM_D) 및 핸드 모션 데이터(HM_D) 중 적어도 하나를 이용하여 사용자의 몸짓, 표정 및 손 동작 중 적어도 하나에 관련된 사용자 모션 데이터(MD_U)를 생성할 수 있다.That is, the motion capture device 30 uses at least one of body motion data (BM_D), facial motion data (FM_D), and hand motion data (HM_D) to perform user motion related to at least one of the user's gesture, facial expression, and hand movement. Data (MD_U) can be created.

사물 캡쳐 모듈(30_4)은 사물 모션 데이터(MD_O)를 생성할 수 있다. 사물 모션 데이터(MD_O)는 사물(OB)에 부착된 마커(MK)의 이동 방향 및 이동 속도를 포함할 수 있다. 또한, 사물 모션 데이터(MD_O)는 사물(OB)에 부착된 마커(MK)의 절대적 위치와 복수의 마커들간 상대적 위치 관계에 대한 정보를 포함할 수 있다. 사물 캡쳐 모듈(30_4)은 반사 마커(MK_1) 또는 AR 마커(MK_2)로 구현될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다. 모션 캡쳐 장치(30)는 사물 모션 데이터(MD_O)를 마커 제거 모듈(300)로 전송할 수 있다. The object capture module 30_4 may generate object motion data (MD_O). Object motion data MD_O may include the movement direction and movement speed of the marker MK attached to the object OB. Additionally, the object motion data MD_O may include information about the absolute position of the marker MK attached to the object OB and the relative positional relationship between the plurality of markers. The object capture module 30_4 may be implemented with a reflective marker (MK_1) or an AR marker (MK_2), but the present embodiment is not limited thereto. The motion capture device 30 may transmit object motion data (MD_O) to the marker removal module 300.

도 5 및 도 6은 본 발명의 몇몇 실시예에 따른 캐릭터 구현 모듈을 통해 제2 영상을 생성하는 과정을 설명하기 위한 도면이다.Figures 5 and 6 are diagrams for explaining the process of generating a second image through a character implementation module according to some embodiments of the present invention.

몇몇 실시예에 따르면, 캐릭터 구현 모듈(200)은 골격 생성 모듈(200_1), 리타겟 모듈(200_2) 및 렌더링 모듈(200_3)을 포함할 수 있다. 골격 생성 모듈(200_1)은 모션 캡쳐 장치(30)로부터 사용자 모션 데이터(MD_U)를 수신할 수 있다(S200). 골격 생성 모듈(200_1)은 사용자의 관절 등에 부착된 마커(MK)에서 얻은 사용자 모션 데이터(MD_U)를 이용하여 제1 골격 데이터를 생성할 수 있다(S210). 이때, 제1 골격 데이터는 사용자의 골격 크기, 골격 위치 및 골격 방향 등에 관한 데이터를 포함할 수 있다. 또한, 골격 생성 모듈(200_1)은 모션 캡쳐 장치(30)로부터 사물 모션 데이터(MD_O)를 수신할 수 있다. 골격 생성 모듈(200_1)은 제1 골격 데이터와 사물 모션 데이터(MD_O)를 기초로 제2 골격 데이터(SK_D)를 생성할 수 있다(S220). 즉, 제2 골격 데이터(SK_D)는 제1 골격 데이터를 수정하여 생성된 것일 수 있다. 구체적으로, 골격 생성 모듈(200_1)은 사물 모션 데이터(MD_O)를 이용하여, 제1 골격 데이터에서 사용자의 골격이 사물(OB)에 의해 가려지는 부분을 추출할 수 있다. 이후, 제1 골격 데이터에서 추출한 부분을 삭제하여 제2 골격 데이터(SK_D)를 생성할 수 있다. 골격 생성 모듈(200_1)은 사용자 모션 데이터(MD_U) 및 사물 모션 데이터(MD_O)를 이용하여 생성된 제2 골격 데이터(SK_D)를 리타겟 모듈(200_2)로 전송할 수 있다. 결과적으로, 골격 생성 모듈(200_1)에서 리타겟 모듈(200_2)로 전송되는 제2 골격 데이터(SK_D)는 사용자의 골격이 사물(OB)에 의해 가려지는 부분에 대한 데이터가 삭제된 데이터일 수 있다.According to some embodiments, the character implementation module 200 may include a skeleton creation module 200_1, a retargeting module 200_2, and a rendering module 200_3. The skeleton creation module 200_1 may receive user motion data (MD_U) from the motion capture device 30 (S200). The skeleton generation module 200_1 may generate first skeleton data using user motion data (MD_U) obtained from markers (MK) attached to the user's joints, etc. (S210). At this time, the first skeleton data may include data regarding the user's skeleton size, skeleton location, and skeleton direction. Additionally, the skeleton creation module 200_1 may receive object motion data (MD_O) from the motion capture device 30. The skeleton generation module 200_1 may generate second skeleton data SK_D based on the first skeleton data and object motion data MD_O (S220). That is, the second skeletal data SK_D may be created by modifying the first skeletal data. Specifically, the skeleton creation module 200_1 may use the object motion data MD_O to extract the part where the user's skeleton is obscured by the object OB from the first skeleton data. Thereafter, the part extracted from the first skeleton data can be deleted to generate the second skeleton data (SK_D). The skeleton generation module 200_1 may transmit the second skeleton data SK_D generated using the user motion data MD_U and the object motion data MD_O to the retarget module 200_2. As a result, the second skeleton data SK_D transmitted from the skeleton generation module 200_1 to the retarget module 200_2 may be data in which data about the portion of the user's skeleton obscured by the object OB has been deleted. .

리타겟 모듈(200_2)은 골격 생성 모듈(200_1)로부터 제2 골격 데이터(SK_D)를 수신할 수 있다. 리타겟 모듈(200_2)은 제2 골격 데이터(SK_D)를 리깅(Rigging)하는 과정을 거쳐 리깅 데이터(RG_D)를 생성할 수 있다(S230). 이때, 리깅 과정은 3D 캐릭터를 구현할 때, 조인트(joint)라 불리는 구조를 적용하여 캐릭터에 움직임을 적용하는 과정을 뜻할 수 있다. 구체적으로는, 제2 골격 데이터(SK_D)를 이용하여, 골격들을 연결하고, 각 골격마다 움직일 수 있는 방향과 각도 등에 가중치를 부여하여 캐릭터가 인간과 같이 자연스럽게 움직일 수 있게 만드는 과정을 뜻할 수 있다. 리타겟 모듈(200_2)은 제2 골격 데이터(SK_D)를 이용하여 생성된 리깅 데이터(RG_D)를 렌더링 모듈(200_3)로 전송할 수 있다.The retarget module 200_2 may receive second skeleton data SK_D from the skeleton generation module 200_1. The retarget module 200_2 may generate rigging data RG_D through a process of rigging the second skeleton data SK_D (S230). At this time, the rigging process may refer to the process of applying movement to the character by applying a structure called a joint when implementing a 3D character. Specifically, it may refer to the process of connecting the bones using the second skeleton data (SK_D) and assigning weights to the direction and angle of movement for each skeleton so that the character can move naturally like a human. The retarget module 200_2 may transmit rigging data RG_D generated using the second skeleton data SK_D to the rendering module 200_3.

렌더링 모듈(200_3)은 리깅 데이터(RG_D)를 토대로 캐릭터 외형에 대한 렌더링 작업을 수행하여 캐릭터를 구현할 수 있다(S240). 구체적으로 렌더링 과정은 캐릭터의 피부, 옷, 머리카락 등 캐릭터의 외형과 질감을 결정하는 단계, 캐릭터를 둘러싼 조명을 설정하여 명암을 주는 단계, 그림자 등 다양한 시각적 요소를 계산하여 재현하는 단계 등을 포함할 수 있다. 렌더링 모듈(200_3)은 캐릭터의 움직임이 포함된 제2 영상(V_2)을 생성할 수 있다(S250). 즉, 제2 영상(V_2)은 사용자 모션 데이터(MD_U)를 기초로 생성된 메타버스 캐릭터 영상에 관한 것이되, 메타버스 캐릭터 영상에서 사용자의 골격이 사물(OB)에 의해 가려지는 부분이 제거된 영상을 의미할 수 있다. 캐릭터 구현 모듈(200)은 제2 영상(V_2)을 영상 합성 모듈(400)로 전송할 수 있다.The rendering module 200_3 may implement a character by performing a rendering operation on the character's appearance based on the rigging data (RG_D) (S240). Specifically, the rendering process includes steps to determine the character's appearance and texture such as the character's skin, clothes, and hair, steps to provide contrast by setting the lighting surrounding the character, and steps to calculate and reproduce various visual elements such as shadows. You can. The rendering module 200_3 may generate a second image (V_2) including the character's movement (S250). That is, the second image (V_2) relates to a metaverse character image generated based on user motion data (MD_U), and the part where the user's skeleton is obscured by an object (OB) in the metaverse character image has been removed. It may mean a video. The character implementation module 200 may transmit the second image V_2 to the image synthesis module 400.

본 명세서에서는 사용자의 골격이 사물(OB)에 의해 가려지는 부분을 캐릭터로 구현하지 않기 위해, 골격 생성 모듈(200_1)에서 제1 골격 데이터를 수정하여 제2 골격 데이터(SK_D)를 생성하는 것으로 설명하였으나, 본 실시예가 이에 제한되는 것은 아니다. 본 발명의 기술 분야에서 통상의 지식을 가진 자는 다양한 방법을 통해 메타버스 캐릭터 영상에서 사물 영역을 제거함으로써 제2 영상(V_2)을 생성할 수 있을 것이다.In this specification, in order to not implement the part of the user's skeleton that is obscured by the object (OB) as a character, it is explained that the first skeleton data is modified in the skeleton creation module 200_1 to generate the second skeleton data (SK_D). However, this embodiment is not limited to this. A person skilled in the art of the present invention will be able to generate the second image (V_2) by removing the object area from the metaverse character image through various methods.

도 7 및 도 8은 본 발명의 몇몇 실시예에 따른 마커 제거 모듈을 통해 제3 영상을 생성하는 과정을 설명하기 위한 도면이다.Figures 7 and 8 are diagrams for explaining the process of generating a third image through a marker removal module according to some embodiments of the present invention.

몇몇 실시예에 따르면, 마커 제거 모듈(300)은 마커 제거 객체 생성 모듈(300_1) 및 마커 제거 객체 배치 모듈(300_2)을 포함할 수 있다. 마커 제거 객체 생성 모듈(300_1)은 영상 촬영 장치(20)로부터 배경 데이터(BG_D)를 수신하여, 배경 데이터에 포함된 사물(OB)의 외관을 분석할 수 있다. 이때, 사물(OB)의 외관은 사물(OB)의 형상, 모양, 색채, 재질, 명암, 패턴 및 크기 등의 정보를 포함할 수 있다. 마커 제거 객체 생성 모듈(300_1)은 사물(OB)의 외관에 대한 정보를 토대로, 사물(OB)의 표면에 부착된 마커(MK)를 가릴 수 있는 마커 제거 객체(MR_0)를 생성할 수 있다(S300). 이때, 마커 제거 객체(MR_0)는 사물(OB)의 외관에 대한 정보 중 마커(MK)가 부착된 위치와 대응하는 위치의 사물(OB) 표면 정보를 이용하여 생성될 수 있다. 이때, 마커 제거 객체 생성 모듈(300_1)은 인공지능을 이용하여 마커(MK)가 부착된 위치와 대응하는 위치의 사물(OB) 표면 정보를 학습할 수 있으며, 상기 학습된 정보를 토대로 마커 제거 객체(MR_0)를 생성할 수 있다. 또한, 마커 제거 객체 생성 모듈(300_1)은 마커(MK)를 부착하기 전, 사물(OB) 외관에 대한 정보를 이용하여 마커 제거 객체(MR_0)를 생성할 수도 있다. 즉, 마커(MK)가 부착되지 않은 사물(OB)의 표면 정보를 저장하고, 저장한 정보를 이용하여 마커 제거 객체(MR_O)를 생성할 수 있다. 따라서, 마커 제거 객체(MR_0)는 마커(MK)가 부착된 위치의 사물(OB) 표면과 대응되는 형상, 모양 및 색채를 가지는 객체일 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다. 마커 제거 객체 생성 모듈(300_1)은 마커 제거 객체(MR_0)를 마커 제거 객체 배치 모듈(300_2)로 전송할 수 있다.According to some embodiments, the marker removal module 300 may include a marker removal object creation module 300_1 and a marker removal object placement module 300_2. The marker removal object creation module 300_1 may receive background data BG_D from the image capturing device 20 and analyze the appearance of the object OB included in the background data. At this time, the appearance of the object OB may include information such as the shape, shape, color, material, brightness, pattern, and size of the object OB. The marker removal object creation module 300_1 may generate a marker removal object MR_0 that can cover the marker MK attached to the surface of the object OB based on information about the appearance of the object OB ( S300). At this time, the marker removal object MR_0 may be created using surface information of the object OB at a location corresponding to the location where the marker MK is attached, among information about the appearance of the object OB. At this time, the marker removal object creation module 300_1 can use artificial intelligence to learn the surface information of the object (OB) at the location corresponding to the location where the marker (MK) is attached, and create a marker removal object based on the learned information. (MR_0) can be created. Additionally, the marker removal object creation module 300_1 may generate the marker removal object MR_0 using information about the appearance of the object OB before attaching the marker MK. That is, surface information of an object (OB) to which a marker (MK) is not attached can be stored, and a marker removal object (MR_O) can be created using the stored information. Accordingly, the marker removal object MR_0 may be an object having a shape, shape, and color corresponding to the surface of the object OB at the location where the marker MK is attached. However, this embodiment is not limited to this. The marker removal object creation module 300_1 may transmit the marker removal object MR_0 to the marker removal object placement module 300_2.

마커 제거 객체 배치 모듈(300_2)은 마커 제거 객체 생성 모듈(300_1)로부터 마커 제거 객체(MR_0)를 수신할 수 있다. 마커 제거 객체 배치 모듈(300_2)은 모션 캡쳐 장치(30)로부터 사물 모션 데이터(MD_O)를 수신할 수 있다. 상기 사물 모션 데이터(MD_O)는 사물(OB)의 이동 방향 및 이동 속도 등을 포함할 수 있다. 마커 제거 객체 배치 모듈(300_2)은 사물 모션 데이터(MD_O)에 기초하여, 마커 제거 객체(MR_0)가 사물(OB)에 부착된 마커(MK)의 움직임과 대응되도록 배치하여 제3 영상(V_3)을 생성할 수 있다(S310, S320). 다시 말해서, 제3 영상(V_3)은 마커 제거 객체(MR_O)가 사물(OB)에 부착된 마커(MK)의 움직임과 대응되도록 배치된 영상일 수 있다. 즉, 마커 제거 객체 배치 모듈(300_2)은 시간에 따라 움직이는 사물(OB)에 부착된 마커(MK)의 움직임에 대응하여, 마커 제거 객체(MR_0)의 배치를 변경할 수 있다. 마커 제거 객체 배치 모듈(300_2)은 생성된 제3 영상(V_3)을 영상 합성 모듈(400)로 전송할 수 있다.The marker removal object placement module 300_2 may receive the marker removal object MR_0 from the marker removal object creation module 300_1. The marker removal object placement module 300_2 may receive object motion data (MD_O) from the motion capture device 30. The object motion data MD_O may include the moving direction and moving speed of the object OB. Based on the object motion data (MD_O), the marker removal object placement module 300_2 arranges the marker removal object (MR_0) to correspond to the movement of the marker (MK) attached to the object (OB) to create the third image (V_3). can be created (S310, S320). In other words, the third image V_3 may be an image in which the marker removal object MR_O is arranged to correspond to the movement of the marker MK attached to the object OB. That is, the marker removal object placement module 300_2 may change the arrangement of the marker removal object MR_0 in response to the movement of the marker MK attached to the object OB moving with time. The marker removal object placement module 300_2 may transmit the generated third image V_3 to the image synthesis module 400.

도 9는 본 발명의 몇몇 실시예에 따른 영상 생성 장치에서 이용되는 마커 종류를 설명하기 위한 예시적인 도면이다.FIG. 9 is an exemplary diagram illustrating types of markers used in an image generating device according to some embodiments of the present invention.

사용자 또는 사물(OB)에 부착되는 마커(MK)에는 반사 마커(MK_1), AR 마커(MK_2) 및 혼합 마커(MK_3)가 포함될 수 있다. 이때, 혼합 마커(MK_3)는 반사 마커(MK_1)와 AR 마커(MK_2)가 결합된 마커를 뜻할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The marker (MK) attached to the user or object (OB) may include a reflective marker (MK_1), an AR marker (MK_2), and a mixed marker (MK_3). At this time, the mixed marker (MK_3) may refer to a marker that combines a reflective marker (MK_1) and an AR marker (MK_2). However, this embodiment is not limited to this.

몇몇 실시예에 따른 반사 마커(MK_1)는 빛을 특정 방식으로 반사하는 마커일 수 있다. 반사 마커(MK_1)는 특정 빛을 인식하여 트래킹하는 방식인 광학식 트래킹을 통해 탐지될 수 있다. 반사 마커(MK_1)가 부착된 사물(OB)의 위치 및 움직임이 광학식 트래킹을 통해 추적될 수 있다. 구체적으로, 광학 센싱 장치는 반사 마커(MK_1)에서 반사된 빛을 감지하여 반사 마커(MK_1)의 위치를 계산하고, 이러한 위치 정보를 기반으로 반사 마커(MK_1)의 움직임을 트래킹하고, 사물(OB)에 부착된 반사 마커(MK_1)의 상대적인 위치와 방향을 측정할 수 있다.The reflective marker MK_1 according to some embodiments may be a marker that reflects light in a specific way. The reflective marker (MK_1) can be detected through optical tracking, which is a method of recognizing and tracking specific light. The position and movement of the object (OB) to which the reflective marker (MK_1) is attached can be tracked through optical tracking. Specifically, the optical sensing device detects the light reflected from the reflective marker (MK_1), calculates the position of the reflective marker (MK_1), tracks the movement of the reflective marker (MK_1) based on this position information, and detects the object (OB). ) can measure the relative position and direction of the reflective marker (MK_1) attached.

몇몇 실시예에 따른 AR 마커(MK_2)는 고유의 패턴을 가지는 마커일 수 있다. AR 마커(MK_2)는 흑백 패턴으로 구성된, 사각형 또는 원형의 1차원 평면 패턴으로 구성될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니며, AR 마커(MK_2)에 컬러 패턴이 포함될 수 있으며, 입체적 형상으로 구성될 수도 있다. AR 마커(MK_2)는 각각 고유의 패턴을 가지며, 상기 패턴은 고유의 식별자로 인식된다. 식별자 센싱 장치는 상기 식별자를 감지하고, 이를 트래킹할 수 있다. 상기 식별자 센싱 장치는 카메라 또는 광학 스캐너를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The AR marker (MK_2) according to some embodiments may be a marker with a unique pattern. The AR marker (MK_2) may be composed of a square or circular one-dimensional flat pattern composed of a black and white pattern. However, this embodiment is not limited to this, and the AR marker (MK_2) may include a color pattern and may be configured in a three-dimensional shape. Each AR marker (MK_2) has a unique pattern, and the pattern is recognized as a unique identifier. The identifier sensing device can detect the identifier and track it. The identifier sensing device may include a camera or optical scanner. However, this embodiment is not limited to this.

몇몇 실시예에 따른 혼합 마커(MK_3)는 AR 마커(MK_2)위에 반사 마커가 결합된 형태의 마커일 수 있다. 혼합 마커(MK_3)는 광학 센싱 장치 및/또는 식별자 센싱 장치에 의해 감지될 수 있다. 또한, 혼합 마커 고유의 센싱 장치에 의해 감지될 수도 있다. 혼합 마커(MK_3)는 반사 마커(MK_1) 또는 AR 마커(MK_2)가 단독으로 인식되기 어려운 상황에서 광학식 트래킹 또는 식별자 트래킹 중 적어도 하나를 수행하여 감지될 수 있다. 예를 들어, 날씨가 흐리거나 장소가 어두워서 빛의 반사가 어려운 상황에서는 반사 마커(MK_1)가 감지되기 어려울 수 있다. 또한, AR 마커(MK_2)가 부착된 물체가 빠르게 움직이는 상황에서는 식별자 센싱이 매끄럽게 연결되지 않을 수 있다. 이때, 혼합 마커(MK_3)는 두 가지 마커 중 적어도 어느 하나를 인식하고, 그 중 하나의 마커가 인식되기 어려울 때, 다른 마커를 인식하고 트래킹할 수 있다. 이 경우, 상황에 따라 두 가지 마커를 선택적으로 번갈아가며 인식함으로써, 사물(OB)의 움직임을 더 정확하게 트래킹할 수 있다. The mixed marker (MK_3) according to some embodiments may be a marker in which a reflective marker is combined on the AR marker (MK_2). The mixing marker (MK_3) may be detected by an optical sensing device and/or an identifier sensing device. Additionally, the mixed marker may be detected by a unique sensing device. The mixed marker (MK_3) can be detected by performing at least one of optical tracking or identifier tracking in a situation where it is difficult to recognize the reflective marker (MK_1) or the AR marker (MK_2) alone. For example, in situations where light reflection is difficult due to cloudy weather or a dark location, it may be difficult to detect the reflective marker (MK_1). Additionally, in situations where the object to which the AR marker (MK_2) is attached moves quickly, identifier sensing may not be connected smoothly. At this time, the mixed marker (MK_3) recognizes at least one of the two markers, and when one of the markers is difficult to recognize, it can recognize and track the other marker. In this case, by selectively recognizing two markers alternately depending on the situation, the movement of the object (OB) can be tracked more accurately.

도 10은 본 발명의 몇몇 실시예에 따른 도 2의 과정을 통해 생성된 제1 영상을 설명하기 위한 예시적인 도면이다.FIG. 10 is an exemplary diagram for explaining a first image generated through the process of FIG. 2 according to some embodiments of the present invention.

몇몇 실시예에 따른 영상 촬영 장치(20)는 사용자, 사용자와 상호작용하는 사물(OB)의 움직임이 포함된 영상을 촬영할 수 있다. 영상 촬영 장치(20)는 촬영된 영상을 기초로, 배경 데이터(BG_D)를 생성할 수 있다. 배경 생성 모듈(100)은 배경 데이터(BG_D)를 기초로 사용자를 트래킹하여, 사용자를 제거한 후 배경을 보정한 제1 영상(V_1)을 생성할 수 있다.The image capturing device 20 according to some embodiments may capture images including movements of a user and an object (OB) interacting with the user. The image capturing device 20 may generate background data (BG_D) based on the captured image. The background generation module 100 may track the user based on the background data (BG_D), remove the user, and then generate the first image (V_1) with the background corrected.

예를 들면, 촬영 배경지인 스튜디오에는 사용자가 마커(MK)를 부착한 채로, 마커(MK)가 부착된 사물(OB)을 들고 의자에 앉아있을 수 있다. 상기 스튜디오에는 사용자 외에도 마커(MK)를 부착하지 않은 일반 출연자도 존재할 수 있으나, 실시예들이 이에 제한되는 것은 아니다. 영상 촬영 장치(20)는 사용자 및 일반 출연자가 연기를 수행하는 것을 촬영할 수 있다. 영상 촬영 장치(20)는 상기 촬영한 배경 데이터(BG_D)를 배경 생성 모듈(100)로 전송할 수 있다. 배경 생성 모듈(100)은 사용자의 윤곽을 트래킹하여 사용자 트래킹 데이터(UT_D)를 생성하고, 상기 사용자 트래킹 데이터(UT_D)를 이용하여 상기 배경 데이터에서 사용자를 제거할 수 있다. 이때, 배경 데이터(BG_D)에서 사용자의 윤곽을 포함한 사용자 형상 전체를 제거하면서 사용자 형상 뒤 배경 부분도 같이 제거될 수 있다. 배경 보정 모듈(100_3)은 제거된 배경 부분을 해당 부분과 근접한 주변 배경 영역과 대응되도록 보정하여 제1 영상(V_1)을 생성할 수 있다. 이에 따라, 제1 영상(V_1)에는 사용자만 제거되고, 사용자가 들고 있던 사물(OB) 및 일반 출연자는 동일하게 남아있을 수 있다. 즉, 배경 생성 모듈(100)은 사용자가 처음부터 존재하지 않았던 것과 같은 제1 영상(V_1)을 생성할 수 있다.For example, in a studio, which is the background for filming, a user can sit on a chair with a marker (MK) attached and holding an object (OB) to which the marker (MK) is attached. In addition to users, there may also be general performers without markers (MK) in the studio, but embodiments are not limited thereto. The video recording device 20 can capture a user and a general actor performing an act. The image capturing device 20 may transmit the captured background data (BG_D) to the background generation module 100. The background generation module 100 may generate user tracking data (UT_D) by tracking the outline of the user, and remove the user from the background data using the user tracking data (UT_D). At this time, while removing the entire user shape, including the user's outline, from the background data (BG_D), the background portion behind the user shape may also be removed. The background correction module 100_3 may generate the first image V_1 by correcting the removed background portion to correspond to the surrounding background area adjacent to the corresponding portion. Accordingly, only the user is removed from the first image V_1, and the object OB held by the user and the general performer may remain the same. That is, the background generation module 100 may generate the first image V_1 as if the user had not existed from the beginning.

도 11은 본 발명의 몇몇 실시예에 따른 도 5의 과정을 통해 생성된 제2 영상을 설명하기 위한 예시적인 도면이다.FIG. 11 is an exemplary diagram for explaining a second image generated through the process of FIG. 5 according to some embodiments of the present invention.

몇몇 실시예에 따른 모션 캡쳐 장치(30)는 사용자에게 부착된 마커(MK)들을 이용하여, 사용자의 움직임 정보가 포함된 사용자 모션 데이터(MD_U)를 생성할 수 있다. 또한, 모션 캡쳐 장치(30)는 사물(OB)에 부착된 마커(MK)들을 이용하여, 사물(OB)의 움직임 정보가 포함된 사물 모션 데이터(MD_O)를 생성할 수 있다. 캐릭터 구현 모듈(200)은 사용자 모션 데이터(MD_U)를 토대로, 사용자의 움직임과 대응되도록 움직이는 메타버스 캐릭터를 구현할 수 있다. 이때, 사물 모션 데이터(MD_O)를 이용하여, 사용자가 사물(OB)에 의해 가려진 부분은 캐릭터로 구현하지 않을 수 있다. 캐릭터 구현 모듈(200)은 캐릭터의 움직임을 포함하는 제2 영상(V_2)을 생성할 수 있다. 제2 영상(V_2)에는 배경 및 사물(OB)은 포함되지 않을 수 있다.The motion capture device 30 according to some embodiments may generate user motion data (MD_U) containing the user's movement information using markers (MK) attached to the user. Additionally, the motion capture device 30 may generate object motion data MD_O including movement information of the object OB using markers MK attached to the object OB. The character implementation module 200 can implement a metaverse character that moves to correspond to the user's movements, based on user motion data (MD_U). At this time, using the object motion data (MD_O), the part obscured by the user's object (OB) may not be implemented as a character. The character implementation module 200 may generate a second image (V_2) including movement of the character. The second image (V_2) may not include the background or object (OB).

예를 들면, 모션 캡쳐 장치(30)는 사용자의 옷에 부착된 마커(MK)를 감지하고, 이를 기초로 사용자 모션 데이터(MD_U)를 생성할 수 있다. 또한, 모션 캡쳐 장치(30)는 사물(OB)에 부착된 마커(MK)를 감지하고, 이를 기초로 사물 모션 데이터(MD_O)를 생성할 수 있다. 모션 캡쳐 장치(30)에서 생성된 사용자 모션 데이터(MD_U) 및 사물 모션 데이터(MD_O)는 캐릭터 구현 모듈(200)에 제공될 수 있다. For example, the motion capture device 30 may detect a marker (MK) attached to the user's clothes and generate user motion data (MD_U) based on this. Additionally, the motion capture device 30 may detect a marker (MK) attached to an object (OB) and generate object motion data (MD_O) based on this. User motion data (MD_U) and object motion data (MD_O) generated by the motion capture device 30 may be provided to the character implementation module 200.

캐릭터 구현 모듈(200)은 모션 캡쳐 장치(30)에서 수신한 사용자 모션 데이터(MD_U) 및 사물 모션 데이터(MD_O)를 이용하여 제2 영상(V_2)을 생성할 수 있다. 전술한 바와 같이, 제2 영상(V_2)은 사물(OB)에 의해 가려지는 사용자의 외형 부분과 대응되는 부분은 제거된 캐릭터 영상일 수 있다. 예를 들어, 도 11과 같이, 제2 영상(V_2)은 사물(OB)의 의해 가려졌던 사용자의 왼쪽 팔 일부분이 제거된 메타버스 캐릭터 영상이 포함될 수 있다.The character implementation module 200 may generate the second image V_2 using the user motion data (MD_U) and object motion data (MD_O) received from the motion capture device 30. As described above, the second image V_2 may be a character image in which the portion corresponding to the user's external appearance obscured by the object OB has been removed. For example, as shown in FIG. 11 , the second image V_2 may include a metaverse character image in which a portion of the user's left arm that was obscured by the object OB has been removed.

도 12는 본 발명의 몇몇 실시예에 따른 도 7의 과정을 통해 생성된 제3 영상을 설명하기 위한 예시적인 도면이다.FIG. 12 is an exemplary diagram for explaining a third image generated through the process of FIG. 7 according to some embodiments of the present invention.

몇몇 실시예에 따른 마커 제거 모듈(300)은 배경 데이터(BG_D) 및 사물 모션 데이터(MD_O)를 수신할 수 있다. 마커 제거 모듈(300)은 상기 배경 데이터(BG_D) 및 상기 사물 모션 데이터(MD_O)를 이용하여 마커 제거 객체(MR_0)가 포함된 제3 영상(V_3)을 생성할 수 있다.The marker removal module 300 according to some embodiments may receive background data (BG_D) and object motion data (MD_O). The marker removal module 300 may generate a third image (V_3) including the marker removal object (MR_0) using the background data (BG_D) and the object motion data (MD_O).

예를 들면, 마커 제거 모듈(300)은 사용자가 들고 있는 사물(OB)의 외관에 관한 정보를 포함하는 배경 데이터(BG_D) 및 사물(OB)의 이동 방향 및 이동 속도에 관한 정보를 포함하는 사물 모션 데이터(MD_O)를 수신할 수 있다. 마커 제거 객체 생성 모듈(300_1)은 배경 데이터(BG_D)를 토대로, 마커(MK)가 부착된 위치와 대응되는 사물(OB)의 표면 정보를 이용하여, 사물(OB)에 부착된 마커(MK)를 제거한 영상을 생성하기 위한 마커 제거 객체(MR_0)를 생성할 수 있다. 즉, 마커 제거 객체(MR_O)는 사물(OB)에 부착된 마커(MK)를 가리는 용도로 이용될 수 있다. 다시 말해서, 마커 제거 객체(MR_O)를 이와 대응되는 마커(MK) 상에 배치하는 경우, 사물(OB)에 부착된 마커(MK)는 가려질 수 있다. For example, the marker removal module 300 includes background data (BG_D) containing information about the appearance of the object (OB) held by the user and information about the moving direction and moving speed of the object (OB). Motion data (MD_O) can be received. The marker removal object creation module 300_1 uses the surface information of the object (OB) corresponding to the location where the marker (MK) is attached, based on the background data (BG_D), to create a marker (MK) attached to the object (OB). A marker removal object (MR_0) can be created to create an image with the removed image. That is, the marker removal object MR_O can be used to cover the marker MK attached to the object OB. In other words, when the marker removal object MR_O is placed on the corresponding marker MK, the marker MK attached to the object OB may be obscured.

마커 제거 객체 배치 모듈(300_2)은 사물 모션 데이터(MD_O)를 토대로, 각 마커 제거 객체(MR_0)를 그와 대응되는 마커(MK)의 위치 및 방향과 상응하도록 배치하여 제3 영상(V_3)을 생성할 수 있다. 제3 영상(V_3)은 시간의 흐름에 따라 이미지가 변화되는 동영상이므로, 제3 영상(V_3)에 포함된 마커 제거 객체(MR_O)는 사물 모션 데이터(MD_O)와 대응되는 움직임(이동 방향 및 속도 등)을 가질 수 있다. 다시 말해서, 제3 영상(V_3)은 마커 제거 객체(MR_0)의 배치가 시간에 따라 변화되는 영상일 수 있다. Based on the object motion data (MD_O), the marker removal object placement module 300_2 arranges each marker removal object (MR_0) to correspond to the position and direction of the corresponding marker (MK) to create the third image (V_3). can be created. Since the third image (V_3) is a video whose image changes over time, the marker removal object (MR_O) included in the third image (V_3) is the movement (direction and speed of movement) corresponding to the object motion data (MD_O). etc.). In other words, the third image V_3 may be an image in which the arrangement of the marker removal object MR_0 changes over time.

도 13 및 14는 본 발명의 몇몇 실시예에 따른 영상 합성 모듈을 통해 최종 영상을 생성하는 과정을 설명하기 위한 도면이다.13 and 14 are diagrams to explain the process of generating a final image through an image synthesis module according to some embodiments of the present invention.

몇몇 실시예에 따르면, 영상 합성 모듈(400)은 배경 생성 모듈(100)에서 생성된 제1 영상(V_1), 캐릭터 구현 모듈(200)에서 생성된 제2 영상(V_2), 마커 제거 모듈(300)에서 생성된 제3 영상(V_3) 중 적어도 일부를 이용하여, 최종 영상(V_F)을 생성할 수 있다. According to some embodiments, the image synthesis module 400 includes the first image (V_1) generated in the background generation module 100, the second image (V_2) generated in the character implementation module 200, and the marker removal module 300. ), the final image (V_F) can be generated using at least a portion of the third image (V_3) generated in .

예를 들면, 영상 합성 모듈(400)은 제1 영상(V_1), 제2 영상(V_2) 및 제3 영상(V_3)을 수신할 수 있다(S400). 영상 합성 모듈(400)은 사용자를 제거한 배경인 제1 영상(V_1)을 기초로 하여, 제2 영상(V_2) 및 제3 영상(V_3)을 합성함으로써 최종 영상(V_F)을 생성할 수 있다(S410, S420). 예를 들어, 영상 합성 모듈(400)은 제1 영상(V_1)을 최하단 레이어로 하고, 제1 영상(V_1) 상에 제2 영상(V_2) 및 제3 영상(V_3)을 순차적으로 배치할 수 있다. 다른 예를 들어, 영상 합성 모듈(400)은 제1 영상(V_1)을 최하단 레이어로 하고, 제1 영상(V_1) 상에 제3 영상(V_3) 및 제2 영상(V_2)을 순차적으로 배치할 수 있다. For example, the image synthesis module 400 may receive the first image (V_1), the second image (V_2), and the third image (V_3) (S400). The image synthesis module 400 may generate the final image (V_F) by combining the second image (V_2) and the third image (V_3) based on the first image (V_1), which is the background with the user removed ( S410, S420). For example, the image synthesis module 400 may set the first image (V_1) as the bottom layer and sequentially arrange the second image (V_2) and the third image (V_3) on the first image (V_1). there is. For another example, the image synthesis module 400 uses the first image (V_1) as the bottom layer and sequentially arranges the third image (V_3) and the second image (V_2) on the first image (V_1). You can.

몇몇 실시예에 따르면, 영상 합성 모듈(400)은 제1 영상(V_1)을 기초로, 제2 영상(V_2)을 합성함으로써 사용자 대신 메타버스 캐릭터가 포함된 영상을 생성할 수 있다. 전술한 바와 같이, 제2 영상(V_2)은 사물(OB)에 의해 가려진 부분이 제거된 메타버스 캐릭터 영상일 수 있다. 따라서, 제1 영상(V_1)을 기초로 제2 영상(V_2)이 합성되는 경우, 메타버스 캐릭터와 실제 사물(OB)이 서로 자연스럽게 상호작용하는 영상이 생성될 수 있다. 또한, 전술한 바와 같이, 제3 영상(V_3)은 사물(OB)에 부착된 마커(MK)와 대응되는 마커 제거 객체(MR_O)에 대한 영상일 수 있다. 따라서, 제1 영상(V_1)을 기초로, 제3 영상(V_3)이 합성되는 경우, 사물(OB)에 부착된 마커(MK)가 마커 제거 객체(MR_O)로 가려져, 마치 마커(MK)가 부착되지 않은 것과 같은 사물(OB)에 대한 영상이 생성될 수 잇다. 다시 말해서, 최종 영상(V_F)은 처음부터 사용자가 아닌, 메타버스 캐릭터와 일반 출연자가 상호작용하는 것과 같은 영상일 수 있으며, 캐릭터와 접촉하고 있는 사물(OB) 표면에 마커(MK)가 존재하지 않았던 것과 같은 영상일 수 있다. According to some embodiments, the image synthesis module 400 may generate an image including a metaverse character on behalf of the user by synthesizing the second image (V_2) based on the first image (V_1). As described above, the second image V_2 may be a metaverse character image with the portion obscured by the object OB removed. Therefore, when the second image (V_2) is synthesized based on the first image (V_1), an image in which the metaverse character and the real object (OB) naturally interact with each other can be created. Additionally, as described above, the third image V_3 may be an image of the marker removal object MR_O corresponding to the marker MK attached to the object OB. Therefore, when the third image (V_3) is synthesized based on the first image (V_1), the marker (MK) attached to the object (OB) is obscured by the marker removal object (MR_O), as if the marker (MK) Images of objects (OBs) such as those that are not attached can be generated. In other words, the final video (V_F) may be the same video where a metaverse character and a general actor interact, rather than a user from the beginning, and there is no marker (MK) on the surface of the object (OB) in contact with the character. It may be the same video as before.

따라서, 영상 합성 모듈(400)은 제1 영상(V_1)을 기초로 제2 영상(V_2) 및 제3 영상(V_3)을 합성하여 최종 영상(V_F)을 생성함으로써, 메타버스 캐릭터와 사물(OB)이 자연스럽게 상호작용하고, 사물(OB)에 부착된 마커(MK)를 가린 최종 영상(V_F)을 생성할 수 있으며, 이를 통해 보다 이질감이 적고 자연스러운 영상을 생성할 수 있다. Therefore, the image synthesis module 400 synthesizes the second image (V_2) and the third image (V_3) based on the first image (V_1) to generate the final image (V_F), thereby generating the metaverse characters and objects (OB). ) can interact naturally and create a final image (V_F) that covers the marker (MK) attached to the object (OB), thereby creating a more natural image with less heterogeneity.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예는 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present embodiment, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, this embodiment is not intended to limit the technical idea of this embodiment, but to explain it, and the scope of the technical idea of this embodiment is not limited by this example. The scope of protection of this embodiment should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this embodiment.

Claims (10)

사용자 및 상기 사용자와 상호작용하는 사물의 외형을 촬영하여 생성된 배경 데이터를 이용하여, 상기 사용자가 제거된 제1 영상을 생성하는 배경 생성 모듈;
상기 사용자의 움직임과 관련된 사용자 모션 데이터를 이용하여, 메타버스 캐릭터의 움직임이 포함된 제2 영상을 생성하는 캐릭터 구현 모듈;
상기 사물의 움직임과 관련된 사물 모션 데이터와, 상기 배경 데이터를 이용하여, 상기 사물의 표면에 부착된 제1 마커와 관련되고 상기 사물의 움직임에 기초하여 움직이는 제1 마커 제거 객체가 포함된 제3 영상을 생성하는 마커 제거 모듈; 및
상기 제1 영상을 기초로, 상기 제2 영상 및 상기 제3 영상을 합성하여, 최종 영상을 생성하는 영상 합성 모듈을 포함하고,
상기 최종 영상은 상기 메타버스 캐릭터에 대한 영상과, 상기 제1 마커가 상기 제1 마커 제거 객체에 의해 가려진 상기 사물에 대한 영상을 포함하는,
영상 생성 장치.
a background generation module that generates a first image with the user removed using background data generated by photographing the appearance of a user and an object interacting with the user;
a character implementation module that generates a second image including movement of the metaverse character using user motion data related to the user's movement;
A third image including object motion data related to the movement of the object and a first marker removal object that is related to a first marker attached to the surface of the object and moves based on the movement of the object using the background data. A marker removal module that generates; and
An image synthesis module that synthesizes the second image and the third image based on the first image to generate a final image,
The final image includes an image of the metaverse character and an image of the object in which the first marker is obscured by the first marker removal object.
Image generating device.
제1 항에 있어서,
상기 마커 제거 모듈은,
상기 배경 데이터에 포함된 상기 사물의 표면 정보에 기초하여 제1 마커 제거 객체를 생성하는 마커 제거 객체 생성 모듈; 및
상기 사물 모션 데이터를 이용하여, 상기 제1 마커의 위치와 대응되는 위치에 상기 제1 마커 제거 객체를 배치하는 마커 제거 객체 배치 모듈을 포함하고,
상기 제1 마커는 반사 마커, AR 마커 및 혼합 마커 중 적어도 하나인,
영상 생성 장치.
According to claim 1,
The marker removal module,
a marker removal object creation module that generates a first marker removal object based on surface information of the object included in the background data; and
A marker removal object placement module that places the first marker removal object at a position corresponding to the position of the first marker using the object motion data,
The first marker is at least one of a reflective marker, an AR marker, and a mixed marker,
Image generating device.
제2 항에 있어서,
상기 마커 제거 객체 생성 모듈은,
영상 촬영 장치로부터 수신한 배경 데이터에서 상기 사물의 외관 정보를 추출하고,
상기 사물의 외관 정보를 기초로, 상기 제1 마커가 부착된 위치에 대응되는 위치와 관련된 제1 마커 제거 객체를 생성하고,
상기 제1 마커 제거 객체는 패치 이미지 또는 모델링 이미지 중 적어도 하나인,
영상 생성 장치.
According to clause 2,
The marker removal object creation module,
Extracting appearance information of the object from background data received from the video capture device,
Based on the appearance information of the object, create a first marker removal object related to a location corresponding to the location where the first marker is attached,
The first marker removal object is at least one of a patch image or a modeling image,
Image generating device.
제3 항에 있어서,
상기 마커 제거 객체 배치 모듈은,
모션 캡쳐 장치로부터 상기 사물의 이동 방향 및 이동 속도에 관한 정보가 포함된 상기 사물 모션 데이터를 수신하고,
상기 사물 모션 데이터를 이용하여 상기 제1 마커 제거 객체를 3차원 공간에 배치하는,
영상 생성 장치.
According to clause 3,
The marker removal object placement module,
Receiving the object motion data containing information about the moving direction and moving speed of the object from a motion capture device,
Placing the first marker removal object in a three-dimensional space using the object motion data,
Image generating device.
제1 항에 있어서,
상기 배경 생성 모듈은,
상기 배경 데이터에 기초하여 상기 사용자를 트래킹하여 사용자 트래킹 데이터를 생성하는 사용자 트래킹 모듈; 및
상기 사용자 트래킹 데이터를 이용하여 상기 배경 데이터에서 상기 사용자를 제거하는 사용자 제거 모듈; 및
상기 사용자가 제거된 위치의 배경을 보정하는 배경 보정 모듈을 포함하는,
영상 생성 장치.
According to claim 1,
The background creation module is,
a user tracking module that tracks the user based on the background data and generates user tracking data; and
a user removal module that removes the user from the background data using the user tracking data; and
Comprising a background correction module that corrects the background of the location from which the user was removed,
Image generating device.
제1 항에 있어서,
상기 캐릭터 구현 모듈은,
상기 사용자 모션 데이터를 이용하여 골격 데이터를 생성하는 골격 생성 모듈;
상기 골격 데이터를 이용하여 리깅 데이터를 생성하는 리타겟 모듈; 및
상기 리깅 데이터를 기초로 렌더링 작업을 수행하여 캐릭터를 구현하는 렌더링 모듈을 포함하는,
영상 생성 장치.
According to claim 1,
The character implementation module is,
a skeleton generation module that generates skeleton data using the user motion data;
A retargeting module that generates rigging data using the skeleton data; and
Comprising a rendering module that implements a character by performing a rendering operation based on the rigging data,
Image generating device.
배경 생성 모듈, 캐릭터 구현 모듈, 마커 제거 모듈 및 영상 합성 모듈을 포함하는 영상 생성 장치의 영상 생성 방법으로서,
상기 배경 생성 모듈이 사용자 및 상기 사용자와 상호작용하는 사물을 촬영하여 생성된 배경 데이터를 이용하여 상기 사용자가 제거된 제1 영상을 생성하고,
상기 캐릭터 구현 모듈이 모션 캡쳐 장치로부터 수신된 사용자 모션 데이터를 이용하여 구현한 메타버스 캐릭터의 움직임이 포함된 제2 영상을 생성하고,
상기 마커 제거 모듈이 상기 배경 데이터와 사물 모션 데이터를 이용하여, 상기 사물의 표면에 부착된 제1 마커와 관련되고 상기 사물의 움직임에 기초하여 움직이는 제1 마커 제거 객체가 포함된 제3 영상을 생성하고,
상기 영상 합성 모듈이 상기 제1 내지 제3 영상을 합성하여 최종 영상을 생성하는 것을 포함하고,
상기 최종 영상은 상기 메타버스 캐릭터에 대한 영상과, 상기 제1 마커가 상기 제1 마커 제거 객체에 의해 가려진 상기 사물에 대한 영상을 포함하는,
영상 생성 방법.
An image generation method of an image generation device including a background generation module, a character implementation module, a marker removal module, and an image synthesis module,
The background generation module generates a first image from which the user is removed using background data generated by photographing a user and objects interacting with the user,
The character implementation module generates a second image containing the movement of the metaverse character implemented using user motion data received from a motion capture device,
The marker removal module uses the background data and object motion data to generate a third image including a first marker removal object that is related to a first marker attached to the surface of the object and moves based on the movement of the object. do,
wherein the image synthesis module synthesizes the first to third images to generate a final image,
The final image includes an image of the metaverse character and an image of the object in which the first marker is obscured by the first marker removal object.
How to create video.
제7 항에 있어서,
상기 마커 제거 모듈은 마커 제거 객체 생성 모듈 및 마커 제거 객체 배치 모듈을 포함하고,
상기 마커 제거 객체 생성 모듈은,
상기 배경 데이터에서 상기 사물의 외관 정보를 추출하고,
상기 사물의 외관 정보를 기초로, 상기 제1 마커가 부착된 위치에 대응되는 위치와 관련된 제1 마커 제거 객체를 생성하는,
영상 생성 방법.
According to clause 7,
The marker removal module includes a marker removal object creation module and a marker removal object placement module,
The marker removal object creation module,
Extracting appearance information of the object from the background data,
Based on the appearance information of the object, generating a first marker removal object related to a location corresponding to the location where the first marker is attached,
How to create video.
제8 항에 있어서,
상기 마커 제거 객체 배치 모듈은,
시간에 따라 변화하는 상기 사물의 움직임에 대응하여, 상기 마커 제거 객체가 움직이도록 배치하는,
영상 생성 방법.
According to clause 8,
The marker removal object placement module,
Arranging the marker removal object to move in response to the movement of the object that changes with time,
How to create video.
제7 항에 있어서,
상기 캐릭터 구현 모듈은,
상기 사용자의 신체와 대응되는 캐릭터를 구현하고,
상기 사용자의 움직임에 대응되는 캐릭터의 움직임을 구현하되,
상기 캐릭터는 상기 사물에 의해 가려지는 상기 사용자의 신체 영역은 제외하고 구현된,
영상 생성 방법.
According to clause 7,
The character implementation module is,
Implementing a character corresponding to the user's body,
Implement the movement of the character corresponding to the user's movement,
The character is implemented excluding areas of the user's body that are obscured by the object,
How to create video.
KR1020230138010A 2023-10-16 2023-10-16 Video generating device and method therfor KR102621814B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230138010A KR102621814B1 (en) 2023-10-16 2023-10-16 Video generating device and method therfor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230138010A KR102621814B1 (en) 2023-10-16 2023-10-16 Video generating device and method therfor

Publications (1)

Publication Number Publication Date
KR102621814B1 true KR102621814B1 (en) 2024-01-09

Family

ID=89538274

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230138010A KR102621814B1 (en) 2023-10-16 2023-10-16 Video generating device and method therfor

Country Status (1)

Country Link
KR (1) KR102621814B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110084748A (en) * 2010-01-18 2011-07-26 (주)엔시드코프 Augmented reality apparatus and method for supporting interactive mode
US20160343164A1 (en) * 2015-05-22 2016-11-24 Otoy, Inc. Augmenting ar/vr displays with image projections
KR20200142391A (en) 2019-06-12 2020-12-22 (주)코어센스 Method for Estimating 3D Marker Cordinetes of Optical Position Tracking System
KR20210116371A (en) * 2020-11-27 2021-09-27 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 Image processing method, device, electronic equipment, computer readable storage medium and computer program
KR102469274B1 (en) * 2022-06-30 2022-11-22 주식회사 에이펀인터렉티브 Metaverse character making system and method for using biometric information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110084748A (en) * 2010-01-18 2011-07-26 (주)엔시드코프 Augmented reality apparatus and method for supporting interactive mode
US20160343164A1 (en) * 2015-05-22 2016-11-24 Otoy, Inc. Augmenting ar/vr displays with image projections
KR20200142391A (en) 2019-06-12 2020-12-22 (주)코어센스 Method for Estimating 3D Marker Cordinetes of Optical Position Tracking System
KR20210116371A (en) * 2020-11-27 2021-09-27 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 Image processing method, device, electronic equipment, computer readable storage medium and computer program
KR102469274B1 (en) * 2022-06-30 2022-11-22 주식회사 에이펀인터렉티브 Metaverse character making system and method for using biometric information

Similar Documents

Publication Publication Date Title
KR102524422B1 (en) Object modeling and movement method and device, and device
US11880541B2 (en) Systems and methods of generating augmented reality (AR) objects
JP7209333B2 (en) Joint position acquisition method and device, movement acquisition method and device
KR101342257B1 (en) Capturing surface in motion picture
KR101455403B1 (en) Capturing and processing facial motion data
KR20180121494A (en) Method and system for real-time 3D capture and live feedback using monocular cameras
US11195318B2 (en) Rapid avatar capture and simulation using commodity depth sensors
KR101794731B1 (en) Method and device for deforming a template model to create animation of 3D character from a 2D character image
KR102469274B1 (en) Metaverse character making system and method for using biometric information
CN106997618A (en) A kind of method that virtual reality is merged with real scene
CN109829976A (en) One kind performing method and its system based on holographic technique in real time
KR101894955B1 (en) Live social media system for using virtual human awareness and real-time synthesis technology, server for augmented synthesis
CN108154551A (en) The method and system of real-time dynamic reconstruction three-dimensional (3 D) manikin
Tong et al. Research on skeleton animation motion data based on Kinect
KR20120006610A (en) System and method of face animation
CN114219878A (en) Animation generation method and device for virtual character, storage medium and terminal
CN115331265A (en) Training method of posture detection model and driving method and device of digital person
KR102621814B1 (en) Video generating device and method therfor
US11430168B2 (en) Method and apparatus for rigging 3D scanned human models
CN117256011A (en) Method and system for label-free facial motion capture
KR20200052812A (en) Activity character creating method in virtual environment
Yoon Metaverse in the Wild: Modeling, Adapting, and Rendering of 3D Human Avatars from a Single Camera
Qi et al. Design and Implementation of Virtual Character based on Facial Motion Capture
Xing et al. Markerless motion capture of human body using PSO with single depth camera
US20240020901A1 (en) Method and application for animating computer generated images

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant