KR102621814B1 - Video generating device and method therfor - Google Patents
Video generating device and method therfor Download PDFInfo
- Publication number
- KR102621814B1 KR102621814B1 KR1020230138010A KR20230138010A KR102621814B1 KR 102621814 B1 KR102621814 B1 KR 102621814B1 KR 1020230138010 A KR1020230138010 A KR 1020230138010A KR 20230138010 A KR20230138010 A KR 20230138010A KR 102621814 B1 KR102621814 B1 KR 102621814B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- module
- user
- marker
- data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 45
- 239000003550 marker Substances 0.000 claims abstract description 231
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 26
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 26
- 238000003705 background correction Methods 0.000 claims description 13
- 238000009877 rendering Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 21
- 238000005516 engineering process Methods 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 13
- 230000001815 facial effect Effects 0.000 description 12
- 230000014509 gene expression Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000001145 finger joint Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
영상 생성 장치가 제공된다. 상기 영상 생성 장치는 및 상기 사용자와 상호작용하는 사물의 외형을 촬영하여 생성된 배경 데이터를 이용하여, 상기 사용자가 제거된 제1 영상을 생성하는 배경 생성 모듈, 상기 사용자의 움직임과 관련된 사용자 모션 데이터를 이용하여, 메타버스 캐릭터의 움직임이 포함된 제2 영상을 생성하는 캐릭터 구현 모듈, 상기 사물의 움직임과 관련된 사물 모션 데이터와, 상기 배경 데이터를 이용하여, 상기 사물 표면에 부착된 제1 마커와 관련된 제1 마커 제거 객체가 포함된 제3 영상을 생성하는 마커 제거 모듈, 상기 제1 영상을 기초로, 상기 제2 영상 및 상기 제3 영상을 이용하여, 최종 영상을 생성하는 영상 합성 모듈을 포함한다.An image generating device is provided. The image generating device includes a background generating module that generates a first image with the user removed using background data generated by photographing the appearance of an object interacting with the user, and user motion data related to the user's movement. A character implementation module that generates a second image containing the movement of the metaverse character using a character implementation module, object motion data related to the movement of the object, and the background data, using a first marker attached to the surface of the object and It includes a marker removal module for generating a third image including a related first marker removal object, and an image synthesis module for generating a final image based on the first image and using the second image and the third image. do.
Description
본 발명은 영상 생성 장치 및 그 방법에 관한 것이다. 구체적으로, 본 발명은 사용자의 모션 및 사용자가 상호작용하는 사물의 모션을 추적하여, 사용자를 메타버스 캐릭터로 변환하고, 변환된 캐릭터와 상기 사물이 이질감 없이 상호작용하는 영상을 생성하는 장치 및 그 방법에 관한 것이다. The present invention relates to an image generating device and method. Specifically, the present invention is a device that tracks the user's motion and the motion of the objects with which the user interacts, converts the user into a metaverse character, and generates an image in which the converted character and the object interact without a sense of heterogeneity, and the same. It's about method.
메타버스 캐릭터 영상 제작은 매우 복잡한 절차를 통해서 이루어진다. 종래의 메타버스 캐릭터 제작의 경우 2D나 3D 컴퓨터 그래픽 영상은 제작자가 동작들을 일일이 수작업으로 만들기 때문에, 시간적/경제적으로 많은 비용이 소요되었으며, 또한 동작간 리얼리티가 부족하다는 단점이 있다.Metaverse character video production is accomplished through a very complex process. In the case of conventional metaverse character production, 2D or 3D computer graphics images require a lot of time and economic costs because the creator makes each movement manually, and also have the disadvantage of lacking realism between movements.
이러한 단점을 극복하고자, 최근 메타버스 캐릭터 영상 생성 장치는 캐릭터의 리얼리티를 살리기 위해 다양한 방식을 이용하고 있으며, 최근 실제 연기자의 움직임을 이용하여, 메타버스 캐릭터의 움직임을 구현하여 캐릭터 리얼리티를 극대화하는 시도가 있다. To overcome these shortcomings, recent metaverse character image creation devices are using various methods to preserve the reality of characters, and recent attempts have been made to maximize character reality by implementing the movements of metaverse characters using the movements of actual actors. There is.
본 발명의 과제는, 메타버스 캐릭터가 등장하는 영상의 리얼리티를 극대화하는 영상 생성 장치 및 그 방법을 제공하는 것이다.The object of the present invention is to provide an image generation device and method that maximizes the reality of images in which metaverse characters appear.
또한, 본 발명의 과제는 메타버스 캐릭터와 현실 사물이 상호작용하는 과정이 포함된 영상의 리얼리티를 극대화하는 영상 생성 장치 및 그 방법을 제공하는 것이다.Additionally, the object of the present invention is to provide an image generating device and method that maximizes the reality of an image including the process of interaction between metaverse characters and real objects.
또한, 본 발명의 과제는 연기를 수행하는 사용자의 모션이 캐릭터로 변환되는 과정에서, 변환된 캐릭터와 현실 사물이 서로 겹쳐지는 부분이 이질감 없이 자연스러운 영상을 생성하는 영상 생성 장치 및 그 방법을 제공하는 것이다.In addition, the object of the present invention is to provide an image generating device and method that generates a natural image without any sense of heterogeneity in the overlap between the converted character and the real object in the process of converting the motion of the user performing the act into a character. will be.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the objects mentioned above, and other objects and advantages of the present invention that are not mentioned can be understood by the following description and will be more clearly understood by the examples of the present invention. Additionally, it will be readily apparent that the objects and advantages of the present invention can be realized by the means and combinations thereof indicated in the patent claims.
상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 영상 생성 장치는 사용자 및 상기 사용자와 상호작용하는 사물의 외형을 촬영하여 생성된 배경 데이터를 이용하여, 상기 사용자가 제거된 제1 영상을 생성하는 배경 생성 모듈, 상기 사용자의 움직임과 관련된 사용자 모션 데이터를 이용하여, 메타버스 캐릭터의 움직임이 포함된 제2 영상을 생성하는 캐릭터 구현 모듈, 상기 사물의 움직임과 관련된 사물 모션 데이터와, 상기 배경 데이터를 이용하여, 상기 사물의 표면에 부착된 제1 마커와 관련된 제1 마커 제거 객체가 포함된 제3 영상을 생성하는 마커 제거 모듈, 상기 제1 영상을 기초로, 상기 제2 영상 및 상기 제3 영상을 이용하여, 최종 영상을 생성하는 영상 합성 모듈을 포함한다. An image generating device according to some embodiments of the present invention to solve the above problem generates a first image with the user removed by using background data generated by photographing the appearance of a user and an object interacting with the user. a background generation module, a character implementation module that generates a second image containing the movement of a metaverse character using user motion data related to the user's movement, object motion data related to the movement of the object, and the background data A marker removal module that generates a third image including a first marker removal object related to the first marker attached to the surface of the object, based on the first image, the second image and the third image. It includes an image synthesis module that generates a final image using the image.
몇몇 실시예에 따르면, 상기 마커 제거 모듈은 상기 배경 데이터에 포함된 상기 사물의 표면 정보에 기초하여 제1 마커 제거 객체를 생성하는 마커 제거 객체 생성 모듈, 상기 사물 모션 데이터를 이용하여, 상기 제1 마커의 위치와 대응되는 위치에 상기 제1 마커 제거 객체를 배치하는 마커 제거 객체 배치 모듈을 포함하고, 상기 제1 마커는 반사 마커, AR 마커 및 혼합 마커 중 적어도 하나일 수 있다.According to some embodiments, the marker removal module is a marker removal object creation module that generates a first marker removal object based on surface information of the object included in the background data, and uses the object motion data to create the first marker removal object. and a marker removal object placement module that places the first marker removal object at a position corresponding to the position of the marker, and the first marker may be at least one of a reflective marker, an AR marker, and a mixed marker.
몇몇 실시예에 따르면, 상기 마커 제거 객체 생성 모듈은 영상 촬영 장치로부터 수신한 배경 데이터에서 상기 사물의 외관 정보를 추출하고, 상기 사물 외관 정보를 기초로, 상기 제1 마커가 부착된 위치에 대응되는 위치와 관련된 제1 마커 제거 객체를 생성하고, 상기 제1 마커 제거 객체는 패치 이미지 또는 모델링 이미지 중 적어도 하나일 수 있다.According to some embodiments, the marker removal object creation module extracts appearance information of the object from background data received from an image capture device, and based on the object appearance information, generates an object corresponding to the location where the first marker is attached. A first marker removal object related to the location is created, and the first marker removal object may be at least one of a patch image or a modeling image.
몇몇 실시예에 따르면, 상기 마커 제거 객체 배치 모듈은 모션 캡쳐 장치로부터 상기 사물의 이동 방향 및 이동 속도에 관한 정보가 포함된 상기 사물 모션 데이터를 수신하고, 상기 사물 모션 데이터를 이용하여 상기 제1 마커 제거 객체를 3차원 공간에 배치할 수 있다.According to some embodiments, the marker removal object placement module receives the object motion data including information about the moving direction and moving speed of the object from a motion capture device, and uses the object motion data to select the first marker. Removal objects can be placed in three-dimensional space.
몇몇 실시예에 따르면, 상기 배경 생성 모듈은 상기 배경 데이터에 기초하여 상기 사용자를 트래킹하여 사용자 트래킹 데이터를 생성하는 사용자 트래킹 모듈, 상기 사용자 트래킹 데이터를 이용하여 상기 배경 데이터에서 상기 사용자를 제거하는 사용자 제거 모듈, 상기 사용자가 제거된 위치의 배경을 보정하는 배경 보정 모듈을 포함할 수 있다.According to some embodiments, the background generation module includes a user tracking module that generates user tracking data by tracking the user based on the background data, and a user removal module that removes the user from the background data using the user tracking data. module, and may include a background correction module that corrects the background of the location from which the user was removed.
몇몇 실시예에 따르면, 상기 캐릭터 구현 모듈은 상기 사용자 모션 데이터를 이용하여 골격 데이터를 생성하는 골격 생성 모듈, 상기 골격 데이터를 이용하여 리깅 데이터를 생성하는 리타겟 모듈, 상기 리깅 데이터를 기초로 렌더링 작업을 수행하여 캐릭터를 구현하는 렌더링 모듈을 포함할 수 있다.According to some embodiments, the character implementation module includes a skeleton generation module for generating skeleton data using the user motion data, a retargeting module for generating rigging data using the skeleton data, and a rendering operation based on the rigging data. It can include a rendering module that implements the character by performing .
상기 과제를 해결하기 위한 본 방명의 몇몇 실시예에 따른 영상 생성 방법은 배경 생성 모듈, 캐릭터 구현 모듈, 마커 제거 모듈 및 영상 합성 모듈을 포함하는 영상 생성 장치의 영상 생성 방법으로서, 상기 배경 생성 모듈이 사용자 및 상기 사용자와 상호작용하는 사물을 촬영하여 생성된 배경 데이터를 이용하여 상기 사용자가 제거된 제1 영상을 생성하고, 상기 캐릭터 구현 모듈이 모션 캡쳐 장치로부터 수신된 사용자 모션 데이터를 이용하여 구현한 캐릭터의 움직임이 포함된 제2 영상을 생성하고, 상기 마커 제거 모듈이 상기 배경 데이터와 사물 모션 데이터를 이용하여, 상기 사물의 표면에 부착된 제1 마커와 관련된 제1 마커 제거 객체가 포함된 제3 영상을 생성하고, 상기 영상 합성 모듈이 상기 제1 내지 제3 영상을 이용하여 최종 영상을 생성하는 것을 포함한다.An image generation method according to some embodiments of the present invention for solving the above problem is an image generation method of an image generation device including a background generation module, a character implementation module, a marker removal module, and an image synthesis module, wherein the background generation module A first image with the user removed is generated using background data generated by photographing a user and an object interacting with the user, and the character implementation module is implemented using user motion data received from a motion capture device. A second image containing movement of a character is generated, and the marker removal module uses the background data and object motion data to create a second image containing a first marker removal object associated with a first marker attached to the surface of the object. It includes generating three images, and the image synthesis module generating a final image using the first to third images.
몇몇 실시예에 따르면, 상기 마커 제거 모듈은 마커 제거 객체 생성 모듈 및 마커 제거 객체 배치 모듈을 포함하고, 상기 마커 제거 객체 생성 모듈은 상기 배경 데이터에서 상기 사물의 외관 정보를 추출하고, 상기 사물 외관 정보를 기초로, 상기 제1 마커가 부착된 위치에 대응되는 위치와 관련된 제1 마커 제거 객체를 생성할 수 있다.According to some embodiments, the marker removal module includes a marker removal object creation module and a marker removal object placement module, and the marker removal object creation module extracts appearance information of the object from the background data, and extracts appearance information of the object from the background data. Based on , a first marker removal object related to a location corresponding to the location where the first marker is attached may be created.
몇몇 실시예에 따르면, 상기 마커 제거 객체 배치 모듈은 시간에 따라 변화하는 상기 사물의 움직임에 대응하여, 상기 마커 제거 객체가 움직이도록 배치할 수 있다.According to some embodiments, the marker removal object placement module may arrange the marker removal object to move in response to the movement of the object that changes over time.
몇몇 실시예에 따르면, 상기 캐릭터 구현 모듈은 상기 사용자의 신체와 대응되는 캐릭터를 구현하고, 상기 사용자의 움직임에 대응되는 캐릭터의 움직임을 구현하되, 상기 캐릭터는 상기 사물에 의해 가려지는 상기 사용자의 신체 영역은 제외하고 구현될 수 있다.According to some embodiments, the character implementation module implements a character corresponding to the user's body and implements movement of the character corresponding to the user's movement, wherein the character is the user's body obscured by the object. It can be implemented excluding areas.
본 발명의 영상 생성 장치는, 연기를 수행하는 사용자의 모션을 반영하여, 메타버스 캐릭터의 움직임과 연출 효과에 적용하므로 캐릭터의 리얼리티를 극대화할 수 있다. The image generating device of the present invention reflects the motion of the user performing the act and applies it to the movement and production effects of the metaverse character, thereby maximizing the reality of the character.
또한, 본 발명의 영상 생성 장치는 사용자가 캐릭터로 전환된 후에도 사용자가 접촉하고 있는 실제 사물을 캐릭터와 이질감 없이 표현할 수 있다.In addition, the image generating device of the present invention can express the actual object that the user is in contact with without any sense of heterogeneity with the character even after the user switches to the character.
또한, 본 발명의 영상 생성 장치는 이미지 증강을 통해 실제 사물에 부착된 마커가 영상에서 보이지 않도록 하여 퀄리티가 극대화된 영상을 제작할 수 있다.Additionally, the image generating device of the present invention can produce images with maximized quality by preventing markers attached to real objects from being visible in the image through image augmentation.
상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above-described content, specific effects of the present invention are described below while explaining specific details for carrying out the invention.
도 1은 본 발명의 몇몇 실시예에 따른 영상 생성 장치를 이용하여 최종 영상을 생성하는 과정을 개략적으로 설명하기 위한 도면이다.
도 2 및 도 3은 본 발명의 몇몇 실시예에 따른 배경 생성 모듈을 통해 제1 영상을 생성하는 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 몇몇 실시예에 따른 모션 캡쳐 장치가 사용자 모션 데이터 및 사물 모션 데이터를 영상 생성 장치의 각 모듈로 전송하는 과정을 설명하기 위한 도면이다.
도 5 및 도 6은 본 발명의 몇몇 실시예에 따른 캐릭터 구현 모듈을 통해 제2 영상을 생성하는 과정을 설명하기 위한 도면이다.
도 7 및 도 8은 본 발명의 몇몇 실시예에 따른 마커 제거 모듈을 통해 제3 영상을 생성하는 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 몇몇 실시예에 따른 영상 생성 장치에서 이용되는 마커 종류를 설명하기 위한 예시적인 도면이다.
도 10은 본 발명의 몇몇 실시예에 따른 도 2의 과정을 통해 생성된 제1 영상을 설명하기 위한 예시적인 도면이다.
도 11은 본 발명의 몇몇 실시예에 따른 도 4의 과정을 통해 생성된 제2 영상을 설명하기 위한 예시적인 도면이다.
도 12는 본 발명의 몇몇 실시예에 따른 도 5의 과정을 통해 생성된 제3 영상을 설명하기 위한 예시적인 도면이다.
도 13은 본 발명의 몇몇 실시예에 따른 영상 합성 모듈을 통해 최종 영상을 생성하는 과정을 설명하기 위한 도면이다.
도 14는 본 발명의 몇몇 실시예에 따른 최종 영상을 생성하는 순서를 설명하기 위한 도면이다.1 is a diagram schematically illustrating a process for generating a final image using an image generating device according to some embodiments of the present invention.
2 and 3 are diagrams for explaining a process of generating a first image through a background generation module according to some embodiments of the present invention.
FIG. 4 is a diagram illustrating a process in which a motion capture device transmits user motion data and object motion data to each module of an image generating device according to some embodiments of the present invention.
Figures 5 and 6 are diagrams for explaining the process of generating a second image through a character implementation module according to some embodiments of the present invention.
Figures 7 and 8 are diagrams for explaining the process of generating a third image through a marker removal module according to some embodiments of the present invention.
FIG. 9 is an exemplary diagram illustrating types of markers used in an image generating device according to some embodiments of the present invention.
FIG. 10 is an exemplary diagram for explaining a first image generated through the process of FIG. 2 according to some embodiments of the present invention.
FIG. 11 is an exemplary diagram for explaining a second image generated through the process of FIG. 4 according to some embodiments of the present invention.
FIG. 12 is an exemplary diagram illustrating a third image generated through the process of FIG. 5 according to some embodiments of the present invention.
Figure 13 is a diagram for explaining the process of generating a final image through an image synthesis module according to some embodiments of the present invention.
Figure 14 is a diagram for explaining the procedure for generating a final image according to some embodiments of the present invention.
본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and patent claims should not be construed as limited to their general or dictionary meaning. According to the principle that the inventor can define terms or word concepts in order to explain his or her invention in the best way, it should be interpreted with a meaning and concept consistent with the technical idea of the present invention. In addition, the embodiments described in this specification and the configurations shown in the drawings are only one embodiment of the present invention and do not completely represent the technical idea of the present invention, so they cannot be replaced at the time of filing the present application. It should be understood that there may be various equivalents, variations, and applicable examples.
본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B used in the present specification and claims may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term 'and/or' includes any of a plurality of related stated items or a combination of a plurality of related stated items.
본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the specification and claims are merely used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "include" or "have" should be understood as not precluding the existence or addition possibility of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. .
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless clearly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.
또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다.Additionally, each configuration, process, process, or method included in each embodiment of the present invention may be shared within the scope of not being technically contradictory to each other.
본 발명은 메타버스 캐릭터 영상 생성 장치에 관한 것으로, '메타버스 캐릭터 영상 생성'은 메타버스, 가상현실, 증강현실 혹은 확장현실에서 이용되는 메타버스 캐릭터의 움직임 및 연출 효과를 포함하는 영상의 제작을 의미할 수 있다. 다시 말해서, 본 명세서에서 '메타버스 캐릭터'는 2D 또는 3D로 구현된 가상의 디지털 아이돌 캐릭터, 게임 캐릭터 등을 포함할 수 있다. 또한, '메타버스 영상'라 함은 메타버스 캐릭터를 포함하는 영상으로서, 메타버스 캐릭터 뿐만 아니라, 메타버스 배경, 구조물 등을 모두 포함하는 영상을 의미할 수 있다. The present invention relates to a metaverse character image generation device, and 'metaverse character image generation' refers to the production of images including the movement and production effects of metaverse characters used in metaverse, virtual reality, augmented reality, or extended reality. It can mean. In other words, in this specification, 'metaverse character' may include a virtual digital idol character, game character, etc. implemented in 2D or 3D. In addition, 'metaverse video' refers to a video that includes metaverse characters, and may mean a video that includes not only metaverse characters, but also metaverse backgrounds and structures.
이하, 도 1 내지 도 14를 참조하여, 본 발명의 몇몇 실시예에 따른 영상 생성 장치 및 그 방법을 설명한다.Hereinafter, an image generating device and method according to some embodiments of the present invention will be described with reference to FIGS. 1 to 14.
도 1은 본 발명의 몇몇 실시예에 따른 영상 생성 장치를 이용하여 최종 영상을 생성하는 과정을 개략적으로 설명하기 위한 도면이다.1 is a diagram schematically illustrating a process for generating a final image using an image generating device according to some embodiments of the present invention.
도 1을 참조하면, 본 발명의 몇몇 실시예에 따른 영상 생성 장치(10)는 배경 생성 모듈(100), 캐릭터 구현 모듈(200), 마커 제거 모듈(300) 및 영상 합성 모듈(400)을 포함할 수 있다. Referring to FIG. 1, the
배경 생성 모듈(100)은 영상 촬영 장치(20)로부터 배경 데이터(BG_D)를 수신할 수 있다. 영상 촬영 장치(20)는 영상을 촬영하여 배경 데이터(BG_D)를 생성할 수 있다. 예를 들어, 영상 촬영 장치는 마커를 부착한 채 연기를 수행하는 사용자(이하, 사용자), 사용자와 상호작용하는 사물(OB)(이하, 사물) 및 사용자가 촬영되고 있는 장소를 포함한 배경 전체를 촬영하여 배경 데이터(BG_D)를 생성할 수 있다. 이때, 배경 데이터(BG_D)는 사용자와 사물(OB)이 직접 또는 간접적으로 접촉하는, 즉, 사용자와 사물(OB)이 서로 상호작용하는 영상을 포함할 수 있다. 다시 말해서, 배경 데이터(BG_D)는 사용자 및 사물(OB)이 촬영된 영상을 포함할 수 있다. 영상 촬영 장치(20)에서 생성된 배경 데이터(BG_D)는 배경 생성 모듈(100) 및/또는 마커 제거 모듈(300)에 제공될 수 있다. 배경 생성 모듈(100)은 배경 데이터(BG_D)를 이용하여 제1 영상(V_1)을 생성할 수 있다. 제1 영상(V_1)은 배경 데이터(BG_D)에서 사용자가 제거되고, 사용자가 제거된 영역이 보정된 영상일 수 있다. 제1 영상(V_1)에 대한 구체적인 설명은 후술한다. 배경 생성 모듈(100)은 생성된 제1 영상(V_1)을 영상 합성 모듈(400)에 제공할 수 있다.The
캐릭터 구현 모듈(200)은 모션 캡쳐 장치(30)로부터 사용자 모션 데이터(MD_U)를 수신할 수 있다. 모션 캡쳐 장치(30)는 사용자의 움직임을 센싱하여 사용자 모션 데이터(MD_U)를 생성할 수 있다. 사용자 모션 데이터(MD_U)는 사용자의 이동 방향 및 이동 속도에 관련된 데이터를 포함할 수 있다. 예를 들어, 모션 캡쳐 장치(30)는 사용자에게 부착된 마커를 센싱하여 사용자 모션 데이터(MD_U)를 생성할 수 있다. 사용자 모션 데이터(MD_U)는 바디 모션 데이터(BM_D), 페이셜 모션 데이터(FM_D) 및 핸드 모션 데이터(HM_D) 중 적어도 하나를 포함할 수 있다. 캐릭터 구현 모듈(200)은 사용자 모션 데이터(MD_U)를 이용하여 메타버스 캐릭터의 움직임이 포함된 메타버스 캐릭터 영상을 생성할 수 있다. 본 명세서에서는 영상 촬영 장치(20)와 모션 캡쳐 장치(30)가 서로 다른 구성요소인 것으로 표현하였으나, 실시예들이 이에 제한되는 것은 아니다. 모션 캡쳐 장치(30)가 광학식 마커(MK)를 이용하는 경우, 영상 촬영 장치(20)와 모션 캡쳐 장치(30)는 서로 동일한 구성요소일 수 있다. 다만, 본 명세서에서는 설명의 편의를 위해, 영상 촬영 장치(20)와 모션 캡쳐 장치(30)를 서로 구분되는 것으로 표현한다. The
또한, 캐릭터 구현 모듈(200)은 모션 캡쳐 장치(30)로부터 사물 모션 데이터(MD_O)를 수신할 수 있다. 모션 캡쳐 장치(30)는 사물(OB)의 움직임을 센싱하여 사물 모션 데이터(MD_O)를 생성할 수 있다. 예를 들어, 모션 캡쳐 장치(30)는 사물(OB)에 부착된 마커(MK)를 센싱하여 사물 모션 데이터(MD_O)를 생성할 수 있다. 사물 모션 데이터(MD_O)는 사물(OB)의 이동 방향 및 이동 속도에 관련된 데이터를 포함할 수 있다. 캐릭터 구현 모듈(200)은 사물 모션 데이터(MD_O)를 이용하여, 전술한 메타버스 캐릭터 영상에서 사물(OB)의 영역을 제거한 제2 영상(V_2)을 생성할 수 있다. 다시 말해서, 제2 영상(V_2)은 사물(OB)의 영역이 제거된 메타버스 캐릭터 영상일 수 있다. 제2 영상(V_2)에 대한 구체적인 설명은 후술한다. 캐릭터 구현 모듈(200)은 사용자 모션 데이터(MD_U) 및 사물 모션 데이터(MD_O)를 이용하여 생성된 제2 영상(V_2)을 영상 합성 모듈(400)로 전송할 수 있다.Additionally, the
마커 제거 모듈(300)은 모션 캡쳐 장치(30)로부터 사물 모션 데이터(MD_O)를 수신할 수 있다. 또한, 마커 제거 모듈(300)은 영상 촬영 장치(20)로부터 배경 데이터(BG_D)를 수신할 수 있다. 전술한 바와 같이, 배경 데이터(BG_D)는 사용자 및 사물(OB)이 촬영된 영상을 포함할 수 있다. 즉, 배경 데이터(BG_D)는 사물(OB)에 대한 외형 정보를 포함할 수 있다. 마커 제거 모듈(300)은 영상 촬영 장치(20)에서 수신한 배경 데이터(BG_D)를 이용하여 마커 제거 객체를 생성하고, 모션 캡쳐 장치(30)에서 수신한 사물 모션 데이터(MD_O)를 이용하여, 사물(OB)의 움직임과 마커 제거 객체의 움직임을 서로 매핑함으로써 제3 영상(V_3)을 생성할 수 있다. 다시 말해서, 제3 영상(V_3)은 마커 제거 객체가 사물(OB)의 마커(MK)와 대응되는 위치에 배치된 영상일 수 있다. 제3 영상(V_3)에 대한 구체적인 설명은 후술한다. 마커 제거 모듈(300)은 생성된 제3 영상(V_3)을 영상 합성 모듈(400)로 전송할 수 있다.The
영상 합성 모듈은 배경 생성 모듈(100)에서 수신한 제1 영상(V_1), 캐릭터 구현 모듈(200)에서 수신한 제2 영상(V_2) 및 마커 제거 모듈에서 수신한 제3 영상(V_3)을 이용하여 최종 영상(V_F)을 생성할 수 있다.The image synthesis module uses the first image (V_1) received from the
몇몇 실시예에 따르면, 영상 촬영 장치(20), 모션 캡쳐 장치(30) 및 영상 생성 장치(10)는 네트워크를 통해 서로 데이터를 교환할 수 있다. 네트워크를 통해서 데이터를 전송할 수 있다. 네트워크는 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.According to some embodiments, the
무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Wireless Internet technologies include, for example, Wireless LAN (WLAN), DLNA (Digital Living Network Alliance), Wibro (Wireless Broadband), Wimax (World Interoperability for Microwave Access: Wimax), and HSDPA (High Speed Downlink Packet). Access), HSUPA (High Speed Uplink Packet Access), IEEE 802.16, Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced), Wireless Mobile Broadband Service (WMBS) and 5G NR (New Radio) technology. However, this embodiment is not limited to this.
근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication. At least one of NFC), Ultrasound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include. However, this embodiment is not limited to this.
네트워크를 통해서 통신하는 영상 촬영 장치(20), 모션 캡쳐 장치(30) 및 영상 생성 장치(10)는 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The
도 2 및 도 3은 본 발명의 몇몇 실시예에 따른 배경 생성 모듈을 통해 제1 영상을 생성하는 과정을 설명하기 위한 도면이다.2 and 3 are diagrams for explaining a process of generating a first image through a background generation module according to some embodiments of the present invention.
도 2 및 도 3을 참조하면, 배경 생성 모듈(100)은 사용자 트래킹 모듈(100_1), 사용자 제거 모듈(100_2), 배경 보정 모듈(100_3)을 포함할 수 있다. 사용자 트래킹 모듈(100_1)은 영상 촬영 장치(20)로부터 배경 데이터(BG_D)를 수신할 수 있다. 사용자 트래킹 모듈(100_1)은 배경 데이터(BG_D)에서 사용자를 트래킹하여, 사용자 트래킹 데이터(UT_D)를 생성할 수 있다(S100). 사용자 트래킹 데이터(UT_D)는 사용자의 윤곽을 특정한 데이터일 수 있다. 다시 말해서, 사용자 트래킹 데이터(UT_D)는 움직이는 사용자의 윤곽 영역을 트래킹한 데이터일 수 있다. 몇몇 실시예에 따르면, 사용자 트래킹 모듈(100_1)은 딥러닝 기반 객체 감지 알고리즘을 이용하여 사용자 트래킹 데이터(UT_D)를 생성할 수 있다. 예를 들어, 딥러닝 기반의 객체 감지 알고리즘은 YOLO(You Only Look Once), CNN, SSD(Single Shot Multibox Detector) 중 적어도 하나가 사용될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다. 사용자 트래킹 모듈(100_1)은 사용자 트래킹 데이터(UT_D)를 사용자 제거 모듈(100_2)로 전송할 수 있다.Referring to FIGS. 2 and 3 , the
사용자 제거 모듈(100_2)은 사용자 트래킹 모듈(100_1)로부터 사용자 트래킹 데이터(UT_D)를 수신할 수 있다. 사용자 제거 모듈(100_2)은 사용자 트래킹 데이터(UT_D)를 이용하여 사용자 제거 영상(UR_V)을 생성할 수 있다(S110). 사용자 제거 영상(UR_V)은 배경 데이터(BG_D)에서 사용자가 제거된 영상일 수 있다. 다시 말해서, 사용자 제거 모듈(100_2)은 사용자 트래킹 데이터(UT_D)를 기반으로, 배경 데이터(BG_D)에서 사용자의 윤곽을 포함한 사용자 형상 전체를 제거함으로써 사용자 제거 영상(UR_V)을 생성할 수 있다. 사용자 제거 모듈(100_2)은 사용자 제거 영상(UR_V)을 배경 보정 모듈(100_3)로 전송할 수 있다.The user removal module 100_2 may receive user tracking data UT_D from the user tracking module 100_1. The user removal module 100_2 may generate a user removal image (UR_V) using the user tracking data (UT_D) (S110). The user removal image (UR_V) may be an image in which the user has been removed from the background data (BG_D). In other words, the user removal module 100_2 can generate the user removal image UR_V by removing the entire user shape, including the user's outline, from the background data BG_D, based on the user tracking data UT_D. The user removal module 100_2 may transmit the user removal image UR_V to the background correction module 100_3.
배경 보정 모듈(100_3)은 사용자 제거 모듈(100_2)로부터 사용자 제거 영상(UR_V)을 수신할 수 있다. 배경 보정 모듈(100_3)은 사용자 제거 영상(UR_V)에서 배경을 보정하여 제1 영상(V_1)을 생성할 수 있다(S120). 이때, 사용자 제거 영상(UR_V)은 배경 데이터(BG_D)에서 사용자의 영역(즉, 사용자의 윤곽 내부 영역)이 제거된 영상일 수 있으며, 사용자의 외형이 제거된 부분은 데이터가 없이 비어있거나, 단색으로 채워져 있을 수 있다. 배경 보정 모듈(100_3)은 사용자 제거 영상(UR_V)에서 사용자의 영역이 제거된 부분을 주변 배경 영역과 대응되도록 보정하여 제1 영상(V_1)을 생성할 수 있다. 다시 말해서, 제1 영상(V_1)은 처음부터 사용자가 존재하지 않았던 것과 같이, 사용자가 제거된 영역과 주변 영역이 서로 어우러지는 영상일 수 있다.The background correction module 100_3 may receive the user removal image UR_V from the user removal module 100_2. The background correction module 100_3 may generate the first image V_1 by correcting the background in the user-removed image UR_V (S120). At this time, the user removal image (UR_V) may be an image in which the user's area (i.e., the area inside the user's outline) has been removed from the background data (BG_D), and the area from which the user's outline has been removed is empty without data or in a single color. It may be filled with . The background correction module 100_3 may generate the first image V_1 by correcting the portion from which the user area has been removed in the user removal image UR_V to correspond to the surrounding background area. In other words, the first image V_1 may be an image in which the area from which the user was removed and the surrounding area blend together, as if the user had not existed from the beginning.
몇몇 실시예에 따르면, 배경 보정 모듈(100_3)은 이미지 합성 또는 딥러닝 기술을 이용하여, 사용자 제거 영상(UR_V)을 제1 영상(V_1)으로 생성할 수 있다. 예를 들어, 배경 보정 모듈(100_3)은 GANs(Generative Adversarial Networks) 또는 CNNs(Convolutional Neural Networks)를 이용하여, 사용자 제거 영상(UR_V)을 보정함으로써 제1 영상(V_1)을 생성할 수 있다. 이때, 딥러닝 기술은 제거된 사용자의 영역의 주변 배경 정보를 이용하여 학습될 수 있다. According to some embodiments, the background correction module 100_3 may generate the user-removed image UR_V as the first image V_1 using image synthesis or deep learning technology. For example, the background correction module 100_3 may generate the first image (V_1) by correcting the user removal image (UR_V) using Generative Adversarial Networks (GANs) or Convolutional Neural Networks (CNNs). At this time, deep learning technology can be learned using surrounding background information of the removed user's area.
또 다른 예로, 배경 보정 모듈(100_3)은 배경 데이터(BG_D)가 생성되기 전에, 사용자가 존재하지 않은 환경에서 영상 데이터를 생성하고, 이 영상 데이터를 이용하여 제1 영상(V_1)을 생성할 수 있다. 즉, 배경 보정 모듈(100_3)은 사용자 제거 영상(UR_V)에서, 제거된 사용자의 영역을 미리 촬영한 영상 데이터와 합성하여 제1 영상(V_1)을 생성할 수 있다. 단, 배경 보정 모듈(100_3)이 딥러닝 기술 또는 영상 합성 기술을 이용하는 것은 단순히 예시적인 것이며, 본 발명이 이에 제한되는 것은 아니다. 배경 생성 모듈(100)은 배경 데이터(BG_D)를 이용하여 생성된 제1 영상(V_1)을 영상 합성 모듈(400)로 전송할 수 있다.As another example, the background correction module 100_3 may generate image data in an environment where the user does not exist before the background data (BG_D) is generated, and use this image data to generate the first image (V_1). there is. That is, the background correction module 100_3 may generate the first image V_1 by combining the removed user area with pre-photographed image data in the user removal image UR_V. However, the fact that the background correction module 100_3 uses deep learning technology or image synthesis technology is merely illustrative, and the present invention is not limited thereto. The
도 4는 모션 캡쳐 장치가 사용자 모션 데이터 및 사물 모션 데이터를 영상 생성 장치의 각 모듈로 전송하는 과정을 설명하기 위한 도면이다. FIG. 4 is a diagram illustrating a process in which a motion capture device transmits user motion data and object motion data to each module of an image generating device.
몇몇 실시예에 따르면, 모션 캡쳐 장치(30)는 바디 캡쳐 모듈(30_1), 페이셜 캡쳐 모듈(30_2), 핸드 캡쳐 모듈(30_3) 및 사물 캡쳐 모듈(30_4)을 포함할 수 있다. 모션 캡쳐 장치(30)는 사용자의 신체에 부착된 센서 및/또는 마커를 통해, 사용자의 움직임을 데이터로 기록할 수 있다. 다시 말해서, 모션 캡쳐 장치(30)는 사용자의 움직임을 센싱하여, 사용자 모션 데이터(MD_U)를 생성할 수 있다. 사용자 모션 데이터(MD_U)는 사용자의 골격의 움직임 및 근육의 움직임을 표현하는 데이터일 수 있다. 또한, 모션 캡쳐 장치(30)는 사용자와 사물(OB)에 부착된 센서 및/또는 마커를 통해, 사물(OB)의 움직임을 데이터로 기록할 수 있다. 다시 말해, 모션 캡쳐 장치(30)는 사물(OB)의 움직임을 센싱하여, 사물(OB)의 이동 방향 및 이동 속도를 포함하는 사물 모션 데이터(MD_O)를 생성할 수 있다.According to some embodiments, the
예를 들어, 모션 캡쳐 장치(30)는 광학식, 자기식 및/또는 관성식 모션 캡쳐 장치로 구현될 수 있다. 광학식 모션 캡쳐 장치는, 마커 및 카메라를 포함할 수 있다. 광학식 모션 캡쳐 장치는 마커를 부착한 사용자의 움직임을 하나 이상의 카메라로 촬상하고, 삼각측량법을 통해 사용자에게 부착된 마커의 삼차원적 좌표를 역산하여 모션 데이터를 생성하는 장치일 수 있다. 자기식 모션 캡쳐 장치는 사용자의 관절 등에 자기장을 계측할 수 있는 센서를 부착한 뒤 자기장 발생 장치 근처에서 각 센서의 자기장 변화량을 계산하여 움직임을 측정함으로써 모션 데이터를 생성하는 장치일 수 있다. 관성식 모션 캡쳐 장치는 가속도 센서, 자이로 센서 및 지자기센서를 포함하는 관성 센서를 사용자의 관절 등에 부착하여, 사용자의 움직임, 회전 및/또는 방향을 읽어내어 모션 데이터를 생성하는 장치일 수 있다. 다만, 상술한 광학식, 자기식 및 관성식 모션 캡쳐 장치는, 본 발명의 몇몇 실시예에 따른 모션 캡쳐 장치(30)가 구현될 수 있는 일례를 설명한 것일 뿐, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 모션 캡쳐 장치(30)는 인공지능을 이용한 영상 처리 기술을 이용하거나, 이를 광학식, 자기식 및/또는 관성식 모션 캡쳐 장치(30)와 병행하여 모션 데이터를 생성할 수도 있을 것이다. 이하에서는, 설명의 편의를 위해, 모션 캡쳐 장치(30)는 마커 및 카메라를 포함하는 광학식 모션 캡쳐 장치인 것을 가정하여 설명한다.For example,
몇몇 실시예에 따르면, 바디 캡쳐 모듈(30_1)은 바디 모션 데이터(BM_D)를 생성할 수 있다. 바디 모션 데이터(BM_D)는 사용자의 바디의 움직임, 즉 사용자의 활동 모션에 대한 데이터일 수 있다. 다시 말해서, 바디 캡쳐 모듈(30_1)은 머리, 목, 팔, 몸, 다리 등 사용자의 신체의 움직임을 센싱하여 바디 모션 데이터(BM_D)를 생성할 수 있다. 예를 들어, 바디 캡쳐 모듈(30_1)은 사용자가 특정 행동(걷기, 뛰기, 기기, 앉기, 서기, 눕기, 춤추기, 싸우기, 발길질하기, 팔 휘두르기 등)을 할 때의 머리, 목, 팔, 몸, 다리 등의 움직임을 센싱하여 바디 모션 데이터(BM_D)를 생성할 수 있다. 바디 캡쳐 모듈(30_1)은 사용자의 신체에 마커를 부착하고, 이를 센싱하여 바디 모션 데이터(BM_D)를 생성할 수 있으나, 본 실시예가 이에 제한되는 것은 아니다. According to some embodiments, the body capture module 30_1 may generate body motion data BM_D. Body motion data (BM_D) may be data about the movement of the user's body, that is, the user's activity motion. In other words, the body capture module 30_1 can generate body motion data BM_D by sensing movements of the user's body, such as the head, neck, arms, body, and legs. For example, the body capture module 30_1 captures the head, neck, arms, etc. when the user performs a specific action (walking, running, crawling, sitting, standing, lying down, dancing, fighting, kicking, swinging arms, etc.) Body motion data (BM_D) can be generated by sensing the movement of the body, legs, etc. The body capture module 30_1 may attach a marker to the user's body and sense the marker to generate body motion data BM_D, but the present embodiment is not limited thereto.
몇몇 실시예에 따르면, 페이셜 캡쳐 모듈(30_2)은 페이셜 모션 데이터(FM_D)를 생성할 수 있다. 페이셜 모션 데이터(FM_D)는 사용자의 얼굴의 움직임을 센싱한 데이터, 즉 사용자의 표정에 대한 데이터일 수 있다. 다시 말해서, 페이셜 캡쳐 모듈(30_2)은 사용자의 얼굴의 움직임을 센싱하여 페이셜 모션 데이터(FM_D)를 생성할 수 있다. 예를 들어, 페이셜 캡쳐 모듈(30_2)은 사용자의 특정 표정(우는 표정, 웃는 표정, 놀란 표정, 화난 표정, 경멸하는 표정, 아쉬운 표정, 사랑스러운 표정, 혐오하는 표정 등)에서의 얼굴의 움직임을 센싱하여 페이셜 모션 데이터(FM_D)를 생성할 수 있다. 페이셜 캡쳐 모듈(30_2)은 사용자의 얼굴에 마커를 부착하고 이를 센싱한 데이터와, 사용자의 얼굴 표정에 대한 영상 처리 기술을 추가적으로 이용하여 페이셜 모션 데이터(FM_D)를 생성할 수 있으나, 본 실시예가 이에 제한되는 것은 아니다.According to some embodiments, the facial capture module 30_2 may generate facial motion data (FM_D). Facial motion data (FM_D) may be data that senses the movement of the user's face, that is, data about the user's facial expression. In other words, the facial capture module 30_2 can generate facial motion data (FM_D) by sensing the movement of the user's face. For example, the facial capture module 30_2 captures the movement of the user's face in a specific expression (a crying expression, a smiling expression, a surprised expression, an angry expression, a disdainful expression, a regretful expression, a loving expression, a disgusting expression, etc.). Facial motion data (FM_D) can be generated by sensing. The facial capture module 30_2 may attach a marker to the user's face and generate facial motion data (FM_D) by additionally using data sensed and image processing technology for the user's facial expression, but this embodiment does not do this. It is not limited.
몇몇 실시예에 따르면, 핸드 캡쳐 모듈(30_3)은 사용자의 손 움직임을 센싱하여 핸드 모션 데이터(HM_D)를 생성할 수 있다. 핸드 모션 데이터(HM_D)는 사용자의 손 움직임을 센싱한 데이터, 즉 사용자의 손 동작에 대한 데이터일 수 있다. 다시 말해서, 핸드 캡쳐 모듈(30_3)은 사용자의 손 움직임을 센싱하여 핸드 모션 데이터(HM_D)를 생성할 수 있다. 예를 들어, 핸드 캡쳐 모듈(30_3)은 사용자의 손 동작(손가락 오므리기, 손가락 펴기 등)에서의 손가락 마디의 움직임을 센싱하여 핸드 모션 데이터를 생성할 수 있다. 핸드 캡쳐 모듈(30_3)은 손가락 관절의 움직임을 센싱할 수 있는 특수 장갑 또는 웨어러블 장치로 구현될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다. According to some embodiments, the hand capture module 30_3 may generate hand motion data (HM_D) by sensing the user's hand movements. Hand motion data (HM_D) may be data that senses the user's hand movement, that is, data about the user's hand movement. In other words, the hand capture module 30_3 can generate hand motion data (HM_D) by sensing the user's hand movements. For example, the hand capture module 30_3 may generate hand motion data by sensing the movement of finger joints in the user's hand movements (closed fingers, extended fingers, etc.). The hand capture module 30_3 may be implemented as a special glove or wearable device capable of sensing movement of finger joints, but the present embodiment is not limited thereto.
즉, 모션 캡쳐 장치(30)는 바디 모션 데이터(BM_D), 페이셜 모션 데이터(FM_D) 및 핸드 모션 데이터(HM_D) 중 적어도 하나를 이용하여 사용자의 몸짓, 표정 및 손 동작 중 적어도 하나에 관련된 사용자 모션 데이터(MD_U)를 생성할 수 있다.That is, the
사물 캡쳐 모듈(30_4)은 사물 모션 데이터(MD_O)를 생성할 수 있다. 사물 모션 데이터(MD_O)는 사물(OB)에 부착된 마커(MK)의 이동 방향 및 이동 속도를 포함할 수 있다. 또한, 사물 모션 데이터(MD_O)는 사물(OB)에 부착된 마커(MK)의 절대적 위치와 복수의 마커들간 상대적 위치 관계에 대한 정보를 포함할 수 있다. 사물 캡쳐 모듈(30_4)은 반사 마커(MK_1) 또는 AR 마커(MK_2)로 구현될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다. 모션 캡쳐 장치(30)는 사물 모션 데이터(MD_O)를 마커 제거 모듈(300)로 전송할 수 있다. The object capture module 30_4 may generate object motion data (MD_O). Object motion data MD_O may include the movement direction and movement speed of the marker MK attached to the object OB. Additionally, the object motion data MD_O may include information about the absolute position of the marker MK attached to the object OB and the relative positional relationship between the plurality of markers. The object capture module 30_4 may be implemented with a reflective marker (MK_1) or an AR marker (MK_2), but the present embodiment is not limited thereto. The
도 5 및 도 6은 본 발명의 몇몇 실시예에 따른 캐릭터 구현 모듈을 통해 제2 영상을 생성하는 과정을 설명하기 위한 도면이다.Figures 5 and 6 are diagrams for explaining the process of generating a second image through a character implementation module according to some embodiments of the present invention.
몇몇 실시예에 따르면, 캐릭터 구현 모듈(200)은 골격 생성 모듈(200_1), 리타겟 모듈(200_2) 및 렌더링 모듈(200_3)을 포함할 수 있다. 골격 생성 모듈(200_1)은 모션 캡쳐 장치(30)로부터 사용자 모션 데이터(MD_U)를 수신할 수 있다(S200). 골격 생성 모듈(200_1)은 사용자의 관절 등에 부착된 마커(MK)에서 얻은 사용자 모션 데이터(MD_U)를 이용하여 제1 골격 데이터를 생성할 수 있다(S210). 이때, 제1 골격 데이터는 사용자의 골격 크기, 골격 위치 및 골격 방향 등에 관한 데이터를 포함할 수 있다. 또한, 골격 생성 모듈(200_1)은 모션 캡쳐 장치(30)로부터 사물 모션 데이터(MD_O)를 수신할 수 있다. 골격 생성 모듈(200_1)은 제1 골격 데이터와 사물 모션 데이터(MD_O)를 기초로 제2 골격 데이터(SK_D)를 생성할 수 있다(S220). 즉, 제2 골격 데이터(SK_D)는 제1 골격 데이터를 수정하여 생성된 것일 수 있다. 구체적으로, 골격 생성 모듈(200_1)은 사물 모션 데이터(MD_O)를 이용하여, 제1 골격 데이터에서 사용자의 골격이 사물(OB)에 의해 가려지는 부분을 추출할 수 있다. 이후, 제1 골격 데이터에서 추출한 부분을 삭제하여 제2 골격 데이터(SK_D)를 생성할 수 있다. 골격 생성 모듈(200_1)은 사용자 모션 데이터(MD_U) 및 사물 모션 데이터(MD_O)를 이용하여 생성된 제2 골격 데이터(SK_D)를 리타겟 모듈(200_2)로 전송할 수 있다. 결과적으로, 골격 생성 모듈(200_1)에서 리타겟 모듈(200_2)로 전송되는 제2 골격 데이터(SK_D)는 사용자의 골격이 사물(OB)에 의해 가려지는 부분에 대한 데이터가 삭제된 데이터일 수 있다.According to some embodiments, the
리타겟 모듈(200_2)은 골격 생성 모듈(200_1)로부터 제2 골격 데이터(SK_D)를 수신할 수 있다. 리타겟 모듈(200_2)은 제2 골격 데이터(SK_D)를 리깅(Rigging)하는 과정을 거쳐 리깅 데이터(RG_D)를 생성할 수 있다(S230). 이때, 리깅 과정은 3D 캐릭터를 구현할 때, 조인트(joint)라 불리는 구조를 적용하여 캐릭터에 움직임을 적용하는 과정을 뜻할 수 있다. 구체적으로는, 제2 골격 데이터(SK_D)를 이용하여, 골격들을 연결하고, 각 골격마다 움직일 수 있는 방향과 각도 등에 가중치를 부여하여 캐릭터가 인간과 같이 자연스럽게 움직일 수 있게 만드는 과정을 뜻할 수 있다. 리타겟 모듈(200_2)은 제2 골격 데이터(SK_D)를 이용하여 생성된 리깅 데이터(RG_D)를 렌더링 모듈(200_3)로 전송할 수 있다.The retarget module 200_2 may receive second skeleton data SK_D from the skeleton generation module 200_1. The retarget module 200_2 may generate rigging data RG_D through a process of rigging the second skeleton data SK_D (S230). At this time, the rigging process may refer to the process of applying movement to the character by applying a structure called a joint when implementing a 3D character. Specifically, it may refer to the process of connecting the bones using the second skeleton data (SK_D) and assigning weights to the direction and angle of movement for each skeleton so that the character can move naturally like a human. The retarget module 200_2 may transmit rigging data RG_D generated using the second skeleton data SK_D to the rendering module 200_3.
렌더링 모듈(200_3)은 리깅 데이터(RG_D)를 토대로 캐릭터 외형에 대한 렌더링 작업을 수행하여 캐릭터를 구현할 수 있다(S240). 구체적으로 렌더링 과정은 캐릭터의 피부, 옷, 머리카락 등 캐릭터의 외형과 질감을 결정하는 단계, 캐릭터를 둘러싼 조명을 설정하여 명암을 주는 단계, 그림자 등 다양한 시각적 요소를 계산하여 재현하는 단계 등을 포함할 수 있다. 렌더링 모듈(200_3)은 캐릭터의 움직임이 포함된 제2 영상(V_2)을 생성할 수 있다(S250). 즉, 제2 영상(V_2)은 사용자 모션 데이터(MD_U)를 기초로 생성된 메타버스 캐릭터 영상에 관한 것이되, 메타버스 캐릭터 영상에서 사용자의 골격이 사물(OB)에 의해 가려지는 부분이 제거된 영상을 의미할 수 있다. 캐릭터 구현 모듈(200)은 제2 영상(V_2)을 영상 합성 모듈(400)로 전송할 수 있다.The rendering module 200_3 may implement a character by performing a rendering operation on the character's appearance based on the rigging data (RG_D) (S240). Specifically, the rendering process includes steps to determine the character's appearance and texture such as the character's skin, clothes, and hair, steps to provide contrast by setting the lighting surrounding the character, and steps to calculate and reproduce various visual elements such as shadows. You can. The rendering module 200_3 may generate a second image (V_2) including the character's movement (S250). That is, the second image (V_2) relates to a metaverse character image generated based on user motion data (MD_U), and the part where the user's skeleton is obscured by an object (OB) in the metaverse character image has been removed. It may mean a video. The
본 명세서에서는 사용자의 골격이 사물(OB)에 의해 가려지는 부분을 캐릭터로 구현하지 않기 위해, 골격 생성 모듈(200_1)에서 제1 골격 데이터를 수정하여 제2 골격 데이터(SK_D)를 생성하는 것으로 설명하였으나, 본 실시예가 이에 제한되는 것은 아니다. 본 발명의 기술 분야에서 통상의 지식을 가진 자는 다양한 방법을 통해 메타버스 캐릭터 영상에서 사물 영역을 제거함으로써 제2 영상(V_2)을 생성할 수 있을 것이다.In this specification, in order to not implement the part of the user's skeleton that is obscured by the object (OB) as a character, it is explained that the first skeleton data is modified in the skeleton creation module 200_1 to generate the second skeleton data (SK_D). However, this embodiment is not limited to this. A person skilled in the art of the present invention will be able to generate the second image (V_2) by removing the object area from the metaverse character image through various methods.
도 7 및 도 8은 본 발명의 몇몇 실시예에 따른 마커 제거 모듈을 통해 제3 영상을 생성하는 과정을 설명하기 위한 도면이다.Figures 7 and 8 are diagrams for explaining the process of generating a third image through a marker removal module according to some embodiments of the present invention.
몇몇 실시예에 따르면, 마커 제거 모듈(300)은 마커 제거 객체 생성 모듈(300_1) 및 마커 제거 객체 배치 모듈(300_2)을 포함할 수 있다. 마커 제거 객체 생성 모듈(300_1)은 영상 촬영 장치(20)로부터 배경 데이터(BG_D)를 수신하여, 배경 데이터에 포함된 사물(OB)의 외관을 분석할 수 있다. 이때, 사물(OB)의 외관은 사물(OB)의 형상, 모양, 색채, 재질, 명암, 패턴 및 크기 등의 정보를 포함할 수 있다. 마커 제거 객체 생성 모듈(300_1)은 사물(OB)의 외관에 대한 정보를 토대로, 사물(OB)의 표면에 부착된 마커(MK)를 가릴 수 있는 마커 제거 객체(MR_0)를 생성할 수 있다(S300). 이때, 마커 제거 객체(MR_0)는 사물(OB)의 외관에 대한 정보 중 마커(MK)가 부착된 위치와 대응하는 위치의 사물(OB) 표면 정보를 이용하여 생성될 수 있다. 이때, 마커 제거 객체 생성 모듈(300_1)은 인공지능을 이용하여 마커(MK)가 부착된 위치와 대응하는 위치의 사물(OB) 표면 정보를 학습할 수 있으며, 상기 학습된 정보를 토대로 마커 제거 객체(MR_0)를 생성할 수 있다. 또한, 마커 제거 객체 생성 모듈(300_1)은 마커(MK)를 부착하기 전, 사물(OB) 외관에 대한 정보를 이용하여 마커 제거 객체(MR_0)를 생성할 수도 있다. 즉, 마커(MK)가 부착되지 않은 사물(OB)의 표면 정보를 저장하고, 저장한 정보를 이용하여 마커 제거 객체(MR_O)를 생성할 수 있다. 따라서, 마커 제거 객체(MR_0)는 마커(MK)가 부착된 위치의 사물(OB) 표면과 대응되는 형상, 모양 및 색채를 가지는 객체일 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다. 마커 제거 객체 생성 모듈(300_1)은 마커 제거 객체(MR_0)를 마커 제거 객체 배치 모듈(300_2)로 전송할 수 있다.According to some embodiments, the
마커 제거 객체 배치 모듈(300_2)은 마커 제거 객체 생성 모듈(300_1)로부터 마커 제거 객체(MR_0)를 수신할 수 있다. 마커 제거 객체 배치 모듈(300_2)은 모션 캡쳐 장치(30)로부터 사물 모션 데이터(MD_O)를 수신할 수 있다. 상기 사물 모션 데이터(MD_O)는 사물(OB)의 이동 방향 및 이동 속도 등을 포함할 수 있다. 마커 제거 객체 배치 모듈(300_2)은 사물 모션 데이터(MD_O)에 기초하여, 마커 제거 객체(MR_0)가 사물(OB)에 부착된 마커(MK)의 움직임과 대응되도록 배치하여 제3 영상(V_3)을 생성할 수 있다(S310, S320). 다시 말해서, 제3 영상(V_3)은 마커 제거 객체(MR_O)가 사물(OB)에 부착된 마커(MK)의 움직임과 대응되도록 배치된 영상일 수 있다. 즉, 마커 제거 객체 배치 모듈(300_2)은 시간에 따라 움직이는 사물(OB)에 부착된 마커(MK)의 움직임에 대응하여, 마커 제거 객체(MR_0)의 배치를 변경할 수 있다. 마커 제거 객체 배치 모듈(300_2)은 생성된 제3 영상(V_3)을 영상 합성 모듈(400)로 전송할 수 있다.The marker removal object placement module 300_2 may receive the marker removal object MR_0 from the marker removal object creation module 300_1. The marker removal object placement module 300_2 may receive object motion data (MD_O) from the
도 9는 본 발명의 몇몇 실시예에 따른 영상 생성 장치에서 이용되는 마커 종류를 설명하기 위한 예시적인 도면이다.FIG. 9 is an exemplary diagram illustrating types of markers used in an image generating device according to some embodiments of the present invention.
사용자 또는 사물(OB)에 부착되는 마커(MK)에는 반사 마커(MK_1), AR 마커(MK_2) 및 혼합 마커(MK_3)가 포함될 수 있다. 이때, 혼합 마커(MK_3)는 반사 마커(MK_1)와 AR 마커(MK_2)가 결합된 마커를 뜻할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The marker (MK) attached to the user or object (OB) may include a reflective marker (MK_1), an AR marker (MK_2), and a mixed marker (MK_3). At this time, the mixed marker (MK_3) may refer to a marker that combines a reflective marker (MK_1) and an AR marker (MK_2). However, this embodiment is not limited to this.
몇몇 실시예에 따른 반사 마커(MK_1)는 빛을 특정 방식으로 반사하는 마커일 수 있다. 반사 마커(MK_1)는 특정 빛을 인식하여 트래킹하는 방식인 광학식 트래킹을 통해 탐지될 수 있다. 반사 마커(MK_1)가 부착된 사물(OB)의 위치 및 움직임이 광학식 트래킹을 통해 추적될 수 있다. 구체적으로, 광학 센싱 장치는 반사 마커(MK_1)에서 반사된 빛을 감지하여 반사 마커(MK_1)의 위치를 계산하고, 이러한 위치 정보를 기반으로 반사 마커(MK_1)의 움직임을 트래킹하고, 사물(OB)에 부착된 반사 마커(MK_1)의 상대적인 위치와 방향을 측정할 수 있다.The reflective marker MK_1 according to some embodiments may be a marker that reflects light in a specific way. The reflective marker (MK_1) can be detected through optical tracking, which is a method of recognizing and tracking specific light. The position and movement of the object (OB) to which the reflective marker (MK_1) is attached can be tracked through optical tracking. Specifically, the optical sensing device detects the light reflected from the reflective marker (MK_1), calculates the position of the reflective marker (MK_1), tracks the movement of the reflective marker (MK_1) based on this position information, and detects the object (OB). ) can measure the relative position and direction of the reflective marker (MK_1) attached.
몇몇 실시예에 따른 AR 마커(MK_2)는 고유의 패턴을 가지는 마커일 수 있다. AR 마커(MK_2)는 흑백 패턴으로 구성된, 사각형 또는 원형의 1차원 평면 패턴으로 구성될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니며, AR 마커(MK_2)에 컬러 패턴이 포함될 수 있으며, 입체적 형상으로 구성될 수도 있다. AR 마커(MK_2)는 각각 고유의 패턴을 가지며, 상기 패턴은 고유의 식별자로 인식된다. 식별자 센싱 장치는 상기 식별자를 감지하고, 이를 트래킹할 수 있다. 상기 식별자 센싱 장치는 카메라 또는 광학 스캐너를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.The AR marker (MK_2) according to some embodiments may be a marker with a unique pattern. The AR marker (MK_2) may be composed of a square or circular one-dimensional flat pattern composed of a black and white pattern. However, this embodiment is not limited to this, and the AR marker (MK_2) may include a color pattern and may be configured in a three-dimensional shape. Each AR marker (MK_2) has a unique pattern, and the pattern is recognized as a unique identifier. The identifier sensing device can detect the identifier and track it. The identifier sensing device may include a camera or optical scanner. However, this embodiment is not limited to this.
몇몇 실시예에 따른 혼합 마커(MK_3)는 AR 마커(MK_2)위에 반사 마커가 결합된 형태의 마커일 수 있다. 혼합 마커(MK_3)는 광학 센싱 장치 및/또는 식별자 센싱 장치에 의해 감지될 수 있다. 또한, 혼합 마커 고유의 센싱 장치에 의해 감지될 수도 있다. 혼합 마커(MK_3)는 반사 마커(MK_1) 또는 AR 마커(MK_2)가 단독으로 인식되기 어려운 상황에서 광학식 트래킹 또는 식별자 트래킹 중 적어도 하나를 수행하여 감지될 수 있다. 예를 들어, 날씨가 흐리거나 장소가 어두워서 빛의 반사가 어려운 상황에서는 반사 마커(MK_1)가 감지되기 어려울 수 있다. 또한, AR 마커(MK_2)가 부착된 물체가 빠르게 움직이는 상황에서는 식별자 센싱이 매끄럽게 연결되지 않을 수 있다. 이때, 혼합 마커(MK_3)는 두 가지 마커 중 적어도 어느 하나를 인식하고, 그 중 하나의 마커가 인식되기 어려울 때, 다른 마커를 인식하고 트래킹할 수 있다. 이 경우, 상황에 따라 두 가지 마커를 선택적으로 번갈아가며 인식함으로써, 사물(OB)의 움직임을 더 정확하게 트래킹할 수 있다. The mixed marker (MK_3) according to some embodiments may be a marker in which a reflective marker is combined on the AR marker (MK_2). The mixing marker (MK_3) may be detected by an optical sensing device and/or an identifier sensing device. Additionally, the mixed marker may be detected by a unique sensing device. The mixed marker (MK_3) can be detected by performing at least one of optical tracking or identifier tracking in a situation where it is difficult to recognize the reflective marker (MK_1) or the AR marker (MK_2) alone. For example, in situations where light reflection is difficult due to cloudy weather or a dark location, it may be difficult to detect the reflective marker (MK_1). Additionally, in situations where the object to which the AR marker (MK_2) is attached moves quickly, identifier sensing may not be connected smoothly. At this time, the mixed marker (MK_3) recognizes at least one of the two markers, and when one of the markers is difficult to recognize, it can recognize and track the other marker. In this case, by selectively recognizing two markers alternately depending on the situation, the movement of the object (OB) can be tracked more accurately.
도 10은 본 발명의 몇몇 실시예에 따른 도 2의 과정을 통해 생성된 제1 영상을 설명하기 위한 예시적인 도면이다.FIG. 10 is an exemplary diagram for explaining a first image generated through the process of FIG. 2 according to some embodiments of the present invention.
몇몇 실시예에 따른 영상 촬영 장치(20)는 사용자, 사용자와 상호작용하는 사물(OB)의 움직임이 포함된 영상을 촬영할 수 있다. 영상 촬영 장치(20)는 촬영된 영상을 기초로, 배경 데이터(BG_D)를 생성할 수 있다. 배경 생성 모듈(100)은 배경 데이터(BG_D)를 기초로 사용자를 트래킹하여, 사용자를 제거한 후 배경을 보정한 제1 영상(V_1)을 생성할 수 있다.The
예를 들면, 촬영 배경지인 스튜디오에는 사용자가 마커(MK)를 부착한 채로, 마커(MK)가 부착된 사물(OB)을 들고 의자에 앉아있을 수 있다. 상기 스튜디오에는 사용자 외에도 마커(MK)를 부착하지 않은 일반 출연자도 존재할 수 있으나, 실시예들이 이에 제한되는 것은 아니다. 영상 촬영 장치(20)는 사용자 및 일반 출연자가 연기를 수행하는 것을 촬영할 수 있다. 영상 촬영 장치(20)는 상기 촬영한 배경 데이터(BG_D)를 배경 생성 모듈(100)로 전송할 수 있다. 배경 생성 모듈(100)은 사용자의 윤곽을 트래킹하여 사용자 트래킹 데이터(UT_D)를 생성하고, 상기 사용자 트래킹 데이터(UT_D)를 이용하여 상기 배경 데이터에서 사용자를 제거할 수 있다. 이때, 배경 데이터(BG_D)에서 사용자의 윤곽을 포함한 사용자 형상 전체를 제거하면서 사용자 형상 뒤 배경 부분도 같이 제거될 수 있다. 배경 보정 모듈(100_3)은 제거된 배경 부분을 해당 부분과 근접한 주변 배경 영역과 대응되도록 보정하여 제1 영상(V_1)을 생성할 수 있다. 이에 따라, 제1 영상(V_1)에는 사용자만 제거되고, 사용자가 들고 있던 사물(OB) 및 일반 출연자는 동일하게 남아있을 수 있다. 즉, 배경 생성 모듈(100)은 사용자가 처음부터 존재하지 않았던 것과 같은 제1 영상(V_1)을 생성할 수 있다.For example, in a studio, which is the background for filming, a user can sit on a chair with a marker (MK) attached and holding an object (OB) to which the marker (MK) is attached. In addition to users, there may also be general performers without markers (MK) in the studio, but embodiments are not limited thereto. The
도 11은 본 발명의 몇몇 실시예에 따른 도 5의 과정을 통해 생성된 제2 영상을 설명하기 위한 예시적인 도면이다.FIG. 11 is an exemplary diagram for explaining a second image generated through the process of FIG. 5 according to some embodiments of the present invention.
몇몇 실시예에 따른 모션 캡쳐 장치(30)는 사용자에게 부착된 마커(MK)들을 이용하여, 사용자의 움직임 정보가 포함된 사용자 모션 데이터(MD_U)를 생성할 수 있다. 또한, 모션 캡쳐 장치(30)는 사물(OB)에 부착된 마커(MK)들을 이용하여, 사물(OB)의 움직임 정보가 포함된 사물 모션 데이터(MD_O)를 생성할 수 있다. 캐릭터 구현 모듈(200)은 사용자 모션 데이터(MD_U)를 토대로, 사용자의 움직임과 대응되도록 움직이는 메타버스 캐릭터를 구현할 수 있다. 이때, 사물 모션 데이터(MD_O)를 이용하여, 사용자가 사물(OB)에 의해 가려진 부분은 캐릭터로 구현하지 않을 수 있다. 캐릭터 구현 모듈(200)은 캐릭터의 움직임을 포함하는 제2 영상(V_2)을 생성할 수 있다. 제2 영상(V_2)에는 배경 및 사물(OB)은 포함되지 않을 수 있다.The
예를 들면, 모션 캡쳐 장치(30)는 사용자의 옷에 부착된 마커(MK)를 감지하고, 이를 기초로 사용자 모션 데이터(MD_U)를 생성할 수 있다. 또한, 모션 캡쳐 장치(30)는 사물(OB)에 부착된 마커(MK)를 감지하고, 이를 기초로 사물 모션 데이터(MD_O)를 생성할 수 있다. 모션 캡쳐 장치(30)에서 생성된 사용자 모션 데이터(MD_U) 및 사물 모션 데이터(MD_O)는 캐릭터 구현 모듈(200)에 제공될 수 있다. For example, the
캐릭터 구현 모듈(200)은 모션 캡쳐 장치(30)에서 수신한 사용자 모션 데이터(MD_U) 및 사물 모션 데이터(MD_O)를 이용하여 제2 영상(V_2)을 생성할 수 있다. 전술한 바와 같이, 제2 영상(V_2)은 사물(OB)에 의해 가려지는 사용자의 외형 부분과 대응되는 부분은 제거된 캐릭터 영상일 수 있다. 예를 들어, 도 11과 같이, 제2 영상(V_2)은 사물(OB)의 의해 가려졌던 사용자의 왼쪽 팔 일부분이 제거된 메타버스 캐릭터 영상이 포함될 수 있다.The
도 12는 본 발명의 몇몇 실시예에 따른 도 7의 과정을 통해 생성된 제3 영상을 설명하기 위한 예시적인 도면이다.FIG. 12 is an exemplary diagram for explaining a third image generated through the process of FIG. 7 according to some embodiments of the present invention.
몇몇 실시예에 따른 마커 제거 모듈(300)은 배경 데이터(BG_D) 및 사물 모션 데이터(MD_O)를 수신할 수 있다. 마커 제거 모듈(300)은 상기 배경 데이터(BG_D) 및 상기 사물 모션 데이터(MD_O)를 이용하여 마커 제거 객체(MR_0)가 포함된 제3 영상(V_3)을 생성할 수 있다.The
예를 들면, 마커 제거 모듈(300)은 사용자가 들고 있는 사물(OB)의 외관에 관한 정보를 포함하는 배경 데이터(BG_D) 및 사물(OB)의 이동 방향 및 이동 속도에 관한 정보를 포함하는 사물 모션 데이터(MD_O)를 수신할 수 있다. 마커 제거 객체 생성 모듈(300_1)은 배경 데이터(BG_D)를 토대로, 마커(MK)가 부착된 위치와 대응되는 사물(OB)의 표면 정보를 이용하여, 사물(OB)에 부착된 마커(MK)를 제거한 영상을 생성하기 위한 마커 제거 객체(MR_0)를 생성할 수 있다. 즉, 마커 제거 객체(MR_O)는 사물(OB)에 부착된 마커(MK)를 가리는 용도로 이용될 수 있다. 다시 말해서, 마커 제거 객체(MR_O)를 이와 대응되는 마커(MK) 상에 배치하는 경우, 사물(OB)에 부착된 마커(MK)는 가려질 수 있다. For example, the
마커 제거 객체 배치 모듈(300_2)은 사물 모션 데이터(MD_O)를 토대로, 각 마커 제거 객체(MR_0)를 그와 대응되는 마커(MK)의 위치 및 방향과 상응하도록 배치하여 제3 영상(V_3)을 생성할 수 있다. 제3 영상(V_3)은 시간의 흐름에 따라 이미지가 변화되는 동영상이므로, 제3 영상(V_3)에 포함된 마커 제거 객체(MR_O)는 사물 모션 데이터(MD_O)와 대응되는 움직임(이동 방향 및 속도 등)을 가질 수 있다. 다시 말해서, 제3 영상(V_3)은 마커 제거 객체(MR_0)의 배치가 시간에 따라 변화되는 영상일 수 있다. Based on the object motion data (MD_O), the marker removal object placement module 300_2 arranges each marker removal object (MR_0) to correspond to the position and direction of the corresponding marker (MK) to create the third image (V_3). can be created. Since the third image (V_3) is a video whose image changes over time, the marker removal object (MR_O) included in the third image (V_3) is the movement (direction and speed of movement) corresponding to the object motion data (MD_O). etc.). In other words, the third image V_3 may be an image in which the arrangement of the marker removal object MR_0 changes over time.
도 13 및 14는 본 발명의 몇몇 실시예에 따른 영상 합성 모듈을 통해 최종 영상을 생성하는 과정을 설명하기 위한 도면이다.13 and 14 are diagrams to explain the process of generating a final image through an image synthesis module according to some embodiments of the present invention.
몇몇 실시예에 따르면, 영상 합성 모듈(400)은 배경 생성 모듈(100)에서 생성된 제1 영상(V_1), 캐릭터 구현 모듈(200)에서 생성된 제2 영상(V_2), 마커 제거 모듈(300)에서 생성된 제3 영상(V_3) 중 적어도 일부를 이용하여, 최종 영상(V_F)을 생성할 수 있다. According to some embodiments, the
예를 들면, 영상 합성 모듈(400)은 제1 영상(V_1), 제2 영상(V_2) 및 제3 영상(V_3)을 수신할 수 있다(S400). 영상 합성 모듈(400)은 사용자를 제거한 배경인 제1 영상(V_1)을 기초로 하여, 제2 영상(V_2) 및 제3 영상(V_3)을 합성함으로써 최종 영상(V_F)을 생성할 수 있다(S410, S420). 예를 들어, 영상 합성 모듈(400)은 제1 영상(V_1)을 최하단 레이어로 하고, 제1 영상(V_1) 상에 제2 영상(V_2) 및 제3 영상(V_3)을 순차적으로 배치할 수 있다. 다른 예를 들어, 영상 합성 모듈(400)은 제1 영상(V_1)을 최하단 레이어로 하고, 제1 영상(V_1) 상에 제3 영상(V_3) 및 제2 영상(V_2)을 순차적으로 배치할 수 있다. For example, the
몇몇 실시예에 따르면, 영상 합성 모듈(400)은 제1 영상(V_1)을 기초로, 제2 영상(V_2)을 합성함으로써 사용자 대신 메타버스 캐릭터가 포함된 영상을 생성할 수 있다. 전술한 바와 같이, 제2 영상(V_2)은 사물(OB)에 의해 가려진 부분이 제거된 메타버스 캐릭터 영상일 수 있다. 따라서, 제1 영상(V_1)을 기초로 제2 영상(V_2)이 합성되는 경우, 메타버스 캐릭터와 실제 사물(OB)이 서로 자연스럽게 상호작용하는 영상이 생성될 수 있다. 또한, 전술한 바와 같이, 제3 영상(V_3)은 사물(OB)에 부착된 마커(MK)와 대응되는 마커 제거 객체(MR_O)에 대한 영상일 수 있다. 따라서, 제1 영상(V_1)을 기초로, 제3 영상(V_3)이 합성되는 경우, 사물(OB)에 부착된 마커(MK)가 마커 제거 객체(MR_O)로 가려져, 마치 마커(MK)가 부착되지 않은 것과 같은 사물(OB)에 대한 영상이 생성될 수 잇다. 다시 말해서, 최종 영상(V_F)은 처음부터 사용자가 아닌, 메타버스 캐릭터와 일반 출연자가 상호작용하는 것과 같은 영상일 수 있으며, 캐릭터와 접촉하고 있는 사물(OB) 표면에 마커(MK)가 존재하지 않았던 것과 같은 영상일 수 있다. According to some embodiments, the
따라서, 영상 합성 모듈(400)은 제1 영상(V_1)을 기초로 제2 영상(V_2) 및 제3 영상(V_3)을 합성하여 최종 영상(V_F)을 생성함으로써, 메타버스 캐릭터와 사물(OB)이 자연스럽게 상호작용하고, 사물(OB)에 부착된 마커(MK)를 가린 최종 영상(V_F)을 생성할 수 있으며, 이를 통해 보다 이질감이 적고 자연스러운 영상을 생성할 수 있다. Therefore, the
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예는 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present embodiment, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, this embodiment is not intended to limit the technical idea of this embodiment, but to explain it, and the scope of the technical idea of this embodiment is not limited by this example. The scope of protection of this embodiment should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this embodiment.
Claims (10)
상기 사용자의 움직임과 관련된 사용자 모션 데이터를 이용하여, 메타버스 캐릭터의 움직임이 포함된 제2 영상을 생성하는 캐릭터 구현 모듈;
상기 사물의 움직임과 관련된 사물 모션 데이터와, 상기 배경 데이터를 이용하여, 상기 사물의 표면에 부착된 제1 마커와 관련되고 상기 사물의 움직임에 기초하여 움직이는 제1 마커 제거 객체가 포함된 제3 영상을 생성하는 마커 제거 모듈; 및
상기 제1 영상을 기초로, 상기 제2 영상 및 상기 제3 영상을 합성하여, 최종 영상을 생성하는 영상 합성 모듈을 포함하고,
상기 최종 영상은 상기 메타버스 캐릭터에 대한 영상과, 상기 제1 마커가 상기 제1 마커 제거 객체에 의해 가려진 상기 사물에 대한 영상을 포함하는,
영상 생성 장치.
a background generation module that generates a first image with the user removed using background data generated by photographing the appearance of a user and an object interacting with the user;
a character implementation module that generates a second image including movement of the metaverse character using user motion data related to the user's movement;
A third image including object motion data related to the movement of the object and a first marker removal object that is related to a first marker attached to the surface of the object and moves based on the movement of the object using the background data. A marker removal module that generates; and
An image synthesis module that synthesizes the second image and the third image based on the first image to generate a final image,
The final image includes an image of the metaverse character and an image of the object in which the first marker is obscured by the first marker removal object.
Image generating device.
상기 마커 제거 모듈은,
상기 배경 데이터에 포함된 상기 사물의 표면 정보에 기초하여 제1 마커 제거 객체를 생성하는 마커 제거 객체 생성 모듈; 및
상기 사물 모션 데이터를 이용하여, 상기 제1 마커의 위치와 대응되는 위치에 상기 제1 마커 제거 객체를 배치하는 마커 제거 객체 배치 모듈을 포함하고,
상기 제1 마커는 반사 마커, AR 마커 및 혼합 마커 중 적어도 하나인,
영상 생성 장치.
According to claim 1,
The marker removal module,
a marker removal object creation module that generates a first marker removal object based on surface information of the object included in the background data; and
A marker removal object placement module that places the first marker removal object at a position corresponding to the position of the first marker using the object motion data,
The first marker is at least one of a reflective marker, an AR marker, and a mixed marker,
Image generating device.
상기 마커 제거 객체 생성 모듈은,
영상 촬영 장치로부터 수신한 배경 데이터에서 상기 사물의 외관 정보를 추출하고,
상기 사물의 외관 정보를 기초로, 상기 제1 마커가 부착된 위치에 대응되는 위치와 관련된 제1 마커 제거 객체를 생성하고,
상기 제1 마커 제거 객체는 패치 이미지 또는 모델링 이미지 중 적어도 하나인,
영상 생성 장치.
According to clause 2,
The marker removal object creation module,
Extracting appearance information of the object from background data received from the video capture device,
Based on the appearance information of the object, create a first marker removal object related to a location corresponding to the location where the first marker is attached,
The first marker removal object is at least one of a patch image or a modeling image,
Image generating device.
상기 마커 제거 객체 배치 모듈은,
모션 캡쳐 장치로부터 상기 사물의 이동 방향 및 이동 속도에 관한 정보가 포함된 상기 사물 모션 데이터를 수신하고,
상기 사물 모션 데이터를 이용하여 상기 제1 마커 제거 객체를 3차원 공간에 배치하는,
영상 생성 장치.
According to clause 3,
The marker removal object placement module,
Receiving the object motion data containing information about the moving direction and moving speed of the object from a motion capture device,
Placing the first marker removal object in a three-dimensional space using the object motion data,
Image generating device.
상기 배경 생성 모듈은,
상기 배경 데이터에 기초하여 상기 사용자를 트래킹하여 사용자 트래킹 데이터를 생성하는 사용자 트래킹 모듈; 및
상기 사용자 트래킹 데이터를 이용하여 상기 배경 데이터에서 상기 사용자를 제거하는 사용자 제거 모듈; 및
상기 사용자가 제거된 위치의 배경을 보정하는 배경 보정 모듈을 포함하는,
영상 생성 장치.
According to claim 1,
The background creation module is,
a user tracking module that tracks the user based on the background data and generates user tracking data; and
a user removal module that removes the user from the background data using the user tracking data; and
Comprising a background correction module that corrects the background of the location from which the user was removed,
Image generating device.
상기 캐릭터 구현 모듈은,
상기 사용자 모션 데이터를 이용하여 골격 데이터를 생성하는 골격 생성 모듈;
상기 골격 데이터를 이용하여 리깅 데이터를 생성하는 리타겟 모듈; 및
상기 리깅 데이터를 기초로 렌더링 작업을 수행하여 캐릭터를 구현하는 렌더링 모듈을 포함하는,
영상 생성 장치.
According to claim 1,
The character implementation module is,
a skeleton generation module that generates skeleton data using the user motion data;
A retargeting module that generates rigging data using the skeleton data; and
Comprising a rendering module that implements a character by performing a rendering operation based on the rigging data,
Image generating device.
상기 배경 생성 모듈이 사용자 및 상기 사용자와 상호작용하는 사물을 촬영하여 생성된 배경 데이터를 이용하여 상기 사용자가 제거된 제1 영상을 생성하고,
상기 캐릭터 구현 모듈이 모션 캡쳐 장치로부터 수신된 사용자 모션 데이터를 이용하여 구현한 메타버스 캐릭터의 움직임이 포함된 제2 영상을 생성하고,
상기 마커 제거 모듈이 상기 배경 데이터와 사물 모션 데이터를 이용하여, 상기 사물의 표면에 부착된 제1 마커와 관련되고 상기 사물의 움직임에 기초하여 움직이는 제1 마커 제거 객체가 포함된 제3 영상을 생성하고,
상기 영상 합성 모듈이 상기 제1 내지 제3 영상을 합성하여 최종 영상을 생성하는 것을 포함하고,
상기 최종 영상은 상기 메타버스 캐릭터에 대한 영상과, 상기 제1 마커가 상기 제1 마커 제거 객체에 의해 가려진 상기 사물에 대한 영상을 포함하는,
영상 생성 방법.
An image generation method of an image generation device including a background generation module, a character implementation module, a marker removal module, and an image synthesis module,
The background generation module generates a first image from which the user is removed using background data generated by photographing a user and objects interacting with the user,
The character implementation module generates a second image containing the movement of the metaverse character implemented using user motion data received from a motion capture device,
The marker removal module uses the background data and object motion data to generate a third image including a first marker removal object that is related to a first marker attached to the surface of the object and moves based on the movement of the object. do,
wherein the image synthesis module synthesizes the first to third images to generate a final image,
The final image includes an image of the metaverse character and an image of the object in which the first marker is obscured by the first marker removal object.
How to create video.
상기 마커 제거 모듈은 마커 제거 객체 생성 모듈 및 마커 제거 객체 배치 모듈을 포함하고,
상기 마커 제거 객체 생성 모듈은,
상기 배경 데이터에서 상기 사물의 외관 정보를 추출하고,
상기 사물의 외관 정보를 기초로, 상기 제1 마커가 부착된 위치에 대응되는 위치와 관련된 제1 마커 제거 객체를 생성하는,
영상 생성 방법.
According to clause 7,
The marker removal module includes a marker removal object creation module and a marker removal object placement module,
The marker removal object creation module,
Extracting appearance information of the object from the background data,
Based on the appearance information of the object, generating a first marker removal object related to a location corresponding to the location where the first marker is attached,
How to create video.
상기 마커 제거 객체 배치 모듈은,
시간에 따라 변화하는 상기 사물의 움직임에 대응하여, 상기 마커 제거 객체가 움직이도록 배치하는,
영상 생성 방법.
According to clause 8,
The marker removal object placement module,
Arranging the marker removal object to move in response to the movement of the object that changes with time,
How to create video.
상기 캐릭터 구현 모듈은,
상기 사용자의 신체와 대응되는 캐릭터를 구현하고,
상기 사용자의 움직임에 대응되는 캐릭터의 움직임을 구현하되,
상기 캐릭터는 상기 사물에 의해 가려지는 상기 사용자의 신체 영역은 제외하고 구현된,
영상 생성 방법.
According to clause 7,
The character implementation module is,
Implementing a character corresponding to the user's body,
Implement the movement of the character corresponding to the user's movement,
The character is implemented excluding areas of the user's body that are obscured by the object,
How to create video.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230138010A KR102621814B1 (en) | 2023-10-16 | 2023-10-16 | Video generating device and method therfor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230138010A KR102621814B1 (en) | 2023-10-16 | 2023-10-16 | Video generating device and method therfor |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102621814B1 true KR102621814B1 (en) | 2024-01-09 |
Family
ID=89538274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230138010A KR102621814B1 (en) | 2023-10-16 | 2023-10-16 | Video generating device and method therfor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102621814B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110084748A (en) * | 2010-01-18 | 2011-07-26 | (주)엔시드코프 | Augmented reality apparatus and method for supporting interactive mode |
US20160343164A1 (en) * | 2015-05-22 | 2016-11-24 | Otoy, Inc. | Augmenting ar/vr displays with image projections |
KR20200142391A (en) | 2019-06-12 | 2020-12-22 | (주)코어센스 | Method for Estimating 3D Marker Cordinetes of Optical Position Tracking System |
KR20210116371A (en) * | 2020-11-27 | 2021-09-27 | 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 | Image processing method, device, electronic equipment, computer readable storage medium and computer program |
KR102469274B1 (en) * | 2022-06-30 | 2022-11-22 | 주식회사 에이펀인터렉티브 | Metaverse character making system and method for using biometric information |
-
2023
- 2023-10-16 KR KR1020230138010A patent/KR102621814B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110084748A (en) * | 2010-01-18 | 2011-07-26 | (주)엔시드코프 | Augmented reality apparatus and method for supporting interactive mode |
US20160343164A1 (en) * | 2015-05-22 | 2016-11-24 | Otoy, Inc. | Augmenting ar/vr displays with image projections |
KR20200142391A (en) | 2019-06-12 | 2020-12-22 | (주)코어센스 | Method for Estimating 3D Marker Cordinetes of Optical Position Tracking System |
KR20210116371A (en) * | 2020-11-27 | 2021-09-27 | 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 | Image processing method, device, electronic equipment, computer readable storage medium and computer program |
KR102469274B1 (en) * | 2022-06-30 | 2022-11-22 | 주식회사 에이펀인터렉티브 | Metaverse character making system and method for using biometric information |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102524422B1 (en) | Object modeling and movement method and device, and device | |
US11880541B2 (en) | Systems and methods of generating augmented reality (AR) objects | |
JP7209333B2 (en) | Joint position acquisition method and device, movement acquisition method and device | |
KR101342257B1 (en) | Capturing surface in motion picture | |
KR101455403B1 (en) | Capturing and processing facial motion data | |
KR20180121494A (en) | Method and system for real-time 3D capture and live feedback using monocular cameras | |
US11195318B2 (en) | Rapid avatar capture and simulation using commodity depth sensors | |
KR101794731B1 (en) | Method and device for deforming a template model to create animation of 3D character from a 2D character image | |
KR102469274B1 (en) | Metaverse character making system and method for using biometric information | |
CN106997618A (en) | A kind of method that virtual reality is merged with real scene | |
CN109829976A (en) | One kind performing method and its system based on holographic technique in real time | |
KR101894955B1 (en) | Live social media system for using virtual human awareness and real-time synthesis technology, server for augmented synthesis | |
CN108154551A (en) | The method and system of real-time dynamic reconstruction three-dimensional (3 D) manikin | |
Tong et al. | Research on skeleton animation motion data based on Kinect | |
KR20120006610A (en) | System and method of face animation | |
CN114219878A (en) | Animation generation method and device for virtual character, storage medium and terminal | |
CN115331265A (en) | Training method of posture detection model and driving method and device of digital person | |
KR102621814B1 (en) | Video generating device and method therfor | |
US11430168B2 (en) | Method and apparatus for rigging 3D scanned human models | |
CN117256011A (en) | Method and system for label-free facial motion capture | |
KR20200052812A (en) | Activity character creating method in virtual environment | |
Yoon | Metaverse in the Wild: Modeling, Adapting, and Rendering of 3D Human Avatars from a Single Camera | |
Qi et al. | Design and Implementation of Virtual Character based on Facial Motion Capture | |
Xing et al. | Markerless motion capture of human body using PSO with single depth camera | |
US20240020901A1 (en) | Method and application for animating computer generated images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |