KR20230075364A - A System and Method for Replacing 3D Character - Google Patents

A System and Method for Replacing 3D Character Download PDF

Info

Publication number
KR20230075364A
KR20230075364A KR1020220154988A KR20220154988A KR20230075364A KR 20230075364 A KR20230075364 A KR 20230075364A KR 1020220154988 A KR1020220154988 A KR 1020220154988A KR 20220154988 A KR20220154988 A KR 20220154988A KR 20230075364 A KR20230075364 A KR 20230075364A
Authority
KR
South Korea
Prior art keywords
character
image
content
modeling data
content image
Prior art date
Application number
KR1020220154988A
Other languages
Korean (ko)
Inventor
진세형
Original Assignee
주식회사 컬러버스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 컬러버스 filed Critical 주식회사 컬러버스
Priority to PCT/KR2022/018376 priority Critical patent/WO2023090960A1/en
Publication of KR20230075364A publication Critical patent/KR20230075364A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • G06T3/0031
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 3차원 캐릭터 치환 시스템 및 방법에 관한 것으로, 3차원 캐릭터의 모델링 데이터를 저장하는 모델링 데이터 저장부, 3차원 컨텐츠가 2차원으로 렌더링된 컨텐츠 영상을 수신하고, 상기 수신한 컨텐츠 영상 내의 캐릭터의 위치 정보를 포함하는 캐릭터 정보를 인식하는 캐릭터 정보 추출부, 상기 컨텐츠 영상 내에서 캐릭터 영역을 인식하여 제거하는 캐릭터 영역 제거부, 상기 캐릭터 정보를 기초로 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 렌더링하여 상기 제거된 캐릭터 영역에 대한 2차원 영상을 생성하는 캐릭터 영상 생성부 및 상기 생성된 2차원 영상을 상기 컨텐츠 영상과 합성하여 출력하는 영상 출력부를 포함하는 3차원 캐릭터 치환 시스템과 그 동작 방법이 제공된다.The present invention relates to a 3D character substitution system and method, which includes a modeling data storage unit for storing modeling data of a 3D character, a content image in which 3D content is rendered in 2D, and a character in the received content image. A character information extraction unit recognizing character information including location information of, a character area removal unit recognizing and removing a character area within the content image, controlling modeling data of the 3D character based on the character information, A 3D character replacement system including a character image generation unit that renders and generates a 2D image for the removed character region and an image output unit that synthesizes the generated 2D image with the content image and outputs the same, and an operating method thereof Provided.

Description

3차원 캐릭터 치환 시스템 및 방법 {A System and Method for Replacing 3D Character}3D Character Replacement System and Method {A System and Method for Replacing 3D Character}

본 발명은 3차원 캐릭터 치환 시스템 및 방법에 관한 것으로, 보다 상세하게는 사용자가 게임 등의 컨텐츠에서 자신만의 3D 캐릭터를 이용하여 컨텐츠를 즐길 수 있도록 하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for replacing a 3D character, and more particularly, to a system and method for enabling a user to enjoy content using his or her own 3D character in content such as a game.

메타버스 기술이 발달하면서, 사용자가 가상공간 내에서 3차원 캐릭터를 이용하여 자신을 표현하고 커뮤니케이션하는 경우가 늘어나고 있다. 이에 따라 가상공간 내의 3차원 캐릭터를 지속적으로 관리하고 이에 정체성을 부여하는 사용자가 늘어나고 있다.As metaverse technology develops, more and more users express themselves and communicate using 3D characters in virtual space. Accordingly, an increasing number of users continuously manage 3D characters in virtual space and assign identities to them.

이와 같이 가상공간 내에서의 캐릭터에 대한 관심이 많아지면서, 게임 등의 컨텐츠를 즐기면서 자신의 캐릭터를 컨텐츠 내에 등장시키고자 하는 요구가 늘어나고 있다.As interest in characters in virtual space increases, there is an increasing demand for characters to appear in content while enjoying content such as games.

종래기술인 한국공개특허 제10-2000-0037574호, "가상 캐릭터를 이용한 게임 제작 방법"에서와 같이, 별도로 제작한 가상의 캐릭터를 게임상에 등장시킬 수 있도록 하는 기술은 종래에도 개발되었다. 하지만, 이와 같은 기술은 위 선행특허의 경우와 같이 게임 프로그램의 제작 단계에서 해당 캐릭터의 이미지를 등록하여 게임을 제작하는 방식이기 때문에, 일반 사용자들이 자신의 캐릭터를 컨텐츠에 등장시키기에는 어려움이 있고, 컨텐츠 제작이 완료된 후에는 캐릭터를 변경할 수 없고, 캐릭터를 새롭게 꾸미거나 하더라도 이 내용이 반영될 수 없다는 문제점이 있다.As in Korean Patent Laid-open Publication No. 10-2000-0037574, "Method for Making Games Using Virtual Characters", a technique for allowing a separately produced virtual character to appear in a game has been developed in the past. However, since this technology is a method of producing a game by registering the image of the character in the production stage of the game program, as in the case of the above prior patent, it is difficult for general users to make their characters appear in the content, There is a problem in that the character cannot be changed after content production is completed, and even if the character is newly decorated, this content cannot be reflected.

따라서, 가상공간에서 관리하는 3차원 캐릭터를 컨텐츠에 등장시키고, 캐릭터가 변화되면 그 내용이 각 컨텐츠에 반영될 수 있도록 하는 기술이 요구된다.Therefore, there is a need for a technology that allows a 3D character managed in a virtual space to appear in content, and when the character changes, the content can be reflected in each content.

한국공개특허 제10-2000-0037574호Korean Patent Publication No. 10-2000-0037574

본 발명은 게임 등의 컨텐츠에 사용자 개인의 3차원 캐릭터를 등장시킬 수 있도록 하는 것을 목적으로 한다.An object of the present invention is to enable a user's individual 3D character to appear in content such as a game.

본 발명은 사용자가 메타버스 등에서 생성한 하나의 캐릭터가 다양한 컨텐츠에 등장할 수 있도록 하는 것을 목적으로 한다.An object of the present invention is to enable a single character created by a user in a metaverse to appear in various contents.

본 발명은 사용자가 자신의 캐릭터를 수정하는 경우, 다양한 컨텐츠 내에서 수정 내용이 실시간으로 반영될 수 있도록 하는 것을 목적으로 한다.An object of the present invention is to allow a user to modify his/her character, so that the modified content can be reflected in real time within various contents.

이러한 목적을 달성하기 위하여 본 발명의 일실시예에 따른 3차원 캐릭터 치환 시스템은 3차원 캐릭터의 모델링 데이터를 저장하는 모델링 데이터 저장부, 3차원 컨텐츠가 2차원으로 렌더링된 컨텐츠 영상을 수신하고, 상기 수신한 컨텐츠 영상 내의 캐릭터의 위치 정보를 포함하는 캐릭터 정보를 인식하는 캐릭터 정보 추출부, 상기 컨텐츠 영상 내에서 캐릭터 영역을 인식하여 제거하는 캐릭터 영역 제거부, 상기 캐릭터 정보를 기초로 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 렌더링하여 상기 제거된 캐릭터 영역에 대한 2차원 영상을 생성하는 캐릭터 영상 생성부 및 상기 생성된 2차원 영상을 상기 컨텐츠 영상과 합성하여 출력하는 영상 출력부를 포함하여 구성될 수 있다.In order to achieve this object, the 3D character replacement system according to an embodiment of the present invention receives a modeling data storage unit for storing modeling data of a 3D character, a content image in which 3D content is rendered in 2D, and the A character information extractor for recognizing character information including location information of characters in the received content image, a character region removal unit for recognizing and removing character regions within the content image, It may include a character image generation unit that controls and renders modeling data to generate a 2D image for the removed character region, and an image output unit that synthesizes the generated 2D image with the content image and outputs the result. .

이 때, 상기 캐릭터 정보 추출부는 상기 컨텐츠 영상의 각 픽셀들 중 캐릭터를 표현하는 픽셀을 식별하고, 상기 캐릭터 영상 생성부는 상기 캐릭터를 표현하는 픽셀에 상기 3차원 캐릭터의 렌더링된 영상을 매칭시키고, 그 밖의 픽셀은 투명한 픽셀로 처리할 수 있다.At this time, the character information extractor identifies a pixel representing a character among pixels of the content image, and the character image generator matches the rendered image of the 3D character to the pixel representing the character. Outside pixels can be treated as transparent pixels.

또한, 상기 캐릭터 정보 추출부는 상기 수신한 컨텐츠 영상 내의 캐릭터의 동작을 포함하여 캐릭터 정보를 인식하고, 상기 캐릭터 영상 생성부는 상기 컨텐츠 영상 내의 캐릭터의 동작과 일치하도록 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 제어된 모델링 데이터를 렌더링하여 2차원 영상을 생성할 수 있다.In addition, the character information extraction unit recognizes character information including motions of characters in the received content image, and the character image generation unit controls modeling data of the 3D character to match the motions of characters in the content image. , it is possible to generate a 2D image by rendering the controlled modeling data.

또한, 상기 캐릭터 정보 추출부는 상기 수신한 컨텐츠 영상 내의 캐릭터의 각도를 포함하여 캐릭터 정보를 인식하고, 상기 캐릭터 영상 생성부는 상기 컨텐츠 영상 내의 캐릭터의 각도와 일치하도록 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 제어된 모델링 데이터를 렌더링하여 2차원 영상을 생성할 수 있다.In addition, the character information extractor recognizes character information including the angle of the character in the received content image, and the character image generator controls the modeling data of the 3D character to match the angle of the character in the content image. , it is possible to generate a 2D image by rendering the controlled modeling data.

본 발명은 게임 등의 컨텐츠에 사용자 개인의 3차원 캐릭터를 등장시킬 수 있도록 한다.The present invention enables a user's individual 3D character to appear in content such as a game.

본 발명은 사용자가 메타버스 등에서 생성한 하나의 캐릭터가 다양한 컨텐츠에 등장할 수 있도록 한다.The present invention allows a single character created by a user in a metaverse to appear in various contents.

본 발명은 사용자가 자신의 캐릭터를 수정하는 경우, 다양한 컨텐츠 내에서 수정 내용이 실시간으로 반영될 수 있도록 한다.According to the present invention, when a user modifies his/her character, the modified content can be reflected in real time within various contents.

도 1은 본 발명의 일실시예에 따른 3차원 캐릭터 치환 시스템의 내부 구성을 도시한 구성도이다.
도 2는 본 발명의 일실시예에 따른 3차원 캐릭터 치환 시스템에서 3차원 캐릭터를 치환하는 화면의 일례를 나타낸 도면이다.
도 3은 본 발명의 일실시예에 따른 3차원 캐릭터 치환 방법의 흐름을 도시한 흐름도이다.
1 is a configuration diagram showing the internal configuration of a three-dimensional character replacement system according to an embodiment of the present invention.
2 is a diagram showing an example of a screen for replacing a 3D character in a 3D character replacement system according to an embodiment of the present invention.
Figure 3 is a flow chart showing the flow of a three-dimensional character substitution method according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략하기로 한다. 또한 본 발명의 실시예들을 설명함에 있어 구체적인 수치는 실시예에 불과하며 이에 의하여 발명의 범위가 제한되지 아니한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted. In addition, in describing the embodiments of the present invention, specific numerical values are only examples, and the scope of the invention is not limited thereby.

본 발명에 따른 3차원 캐릭터 치환 시스템은 중앙처리장치(CPU) 및 메모리(Memory, 기억장치)를 구비하고 인터넷 등의 통신망을 통하여 다른 단말기와 연결 가능한 서버의 형태로 구성될 수 있다. 그러나 본 발명이 중앙처리장치 및 메모리 등의 구성에 의해 한정되지는 아니한다. 또한, 본 발명에 따른 3차원 캐릭터 치환 시스템은 물리적으로 하나의 장치로 구성될 수도 있으며, 복수의 장치에 분산된 형태로 구현될 수도 있다.The 3D character replacement system according to the present invention may be configured in the form of a server having a central processing unit (CPU) and a memory (Memory) and connectable to other terminals through a communication network such as the Internet. However, the present invention is not limited by the configuration of the central processing unit and memory. In addition, the 3D character replacement system according to the present invention may be physically configured as one device or implemented in a distributed form in a plurality of devices.

도 1은 본 발명의 일실시예에 따른 3차원 캐릭터 치환 시스템의 내부 구성을 도시한 구성도이다.1 is a configuration diagram showing the internal configuration of a three-dimensional character replacement system according to an embodiment of the present invention.

본 발명에 따른 3차원 캐릭터 치환 시스템(101)은 모델링 데이터 저장부(110), 캐릭터 정보 추출부(120), 캐릭터 영역 제거부(130), 캐릭터 영상 생성부(140) 및 영상 출력부(150)를 포함하여 구성될 수 있다. 각각의 구성요소들은 물리적으로 동일한 컴퓨터 시스템 내에서 동작하는 소프트웨어 모듈일 수 있으며, 물리적으로 2개 이상으로 분리된 컴퓨터 시스템이 서로 연동하여 동작할 수 있도록 구성된 형태일 수 있는데, 동일한 기능을 포함하는 다양한 실시형태가 본 발명의 권리범위에 속한다.The 3D character replacement system 101 according to the present invention includes a modeling data storage unit 110, a character information extraction unit 120, a character area removal unit 130, a character image generation unit 140, and an image output unit 150. ). Each component may be a software module that operates in the same computer system physically, or may be configured so that two or more physically separated computer systems can operate in conjunction with each other. Embodiments belong to the scope of the present invention.

모델링 데이터 저장부(110)는 3차원 캐릭터의 모델링 데이터를 저장한다. 일반적으로 3차원 오브젝트는 모델링 데이터의 형태로 존재하다가 화면에 표시할 때에 렌더링 과정을 거쳐 2차원 영상으로 변환되어 화면에 출력되게 된다. 따라서, 모델링 데이터는 3차원 캐릭터가 3차원 가상공간에 표시되기 위하여 필요한 3차원 캐릭터의 형태, 크기, 자세, 표정 등의 다양한 정보를 나타낼 수 있다.The modeling data storage unit 110 stores modeling data of a 3D character. In general, a 3D object exists in the form of modeling data, and when displayed on a screen, it is converted into a 2D image through a rendering process and then output to the screen. Accordingly, the modeling data may indicate various information such as shape, size, posture, and expression of the 3D character necessary for the 3D character to be displayed in the 3D virtual space.

모델링 데이터 저장부(110)에 저장되어 있는 모델링 데이터는 사용자의 제어 명령 등에 따라 제어될 수 있으며, 이를 통해 3차원 캐릭터의 자세, 각도, 움직임, 표정 등이 다양하게 제어되는 것이 가능하다. 이처럼 모델링 데이터가 제어되면 이를 렌더링한 화면에서도 그 결과가 나타나게 된다.The modeling data stored in the modeling data storage unit 110 may be controlled according to a user's control command, etc., and through this, it is possible to control the posture, angle, movement, facial expression, etc. of a 3D character in various ways. When the modeling data is controlled in this way, the result appears on the screen where it is rendered.

캐릭터 정보 추출부(120)는 3차원 컨텐츠가 2차원으로 렌더링된 컨텐츠 영상을 수신하고, 상기 수신한 컨텐츠 영상 내의 캐릭터의 위치 정보를 포함하는 캐릭터 정보를 인식한다. 컨텐츠 영상은 3차원 가상공간을 화면에 표현하기 위한 영상으로 상기 컨텐츠는 게임, 메타버스 등 3차원 그래픽으로 표현되는 다양한 것들을 포함할 수 있다.The character information extractor 120 receives a content image in which 3D content is rendered in 2D, and recognizes character information including location information of a character in the received content image. The content image is an image for expressing a 3D virtual space on the screen, and the content may include various things represented by 3D graphics such as games and metaverses.

캐릭터 정보 추출부(120)는 화면에 출력하기 위하여 수신되는 영상을 분석하고, 영상 내에서 치환하고자 하는 캐릭터를 식별한 뒤, 이 캐릭터에 관한 정보를 수신할 수 있다. 화면에 출력하기 위하여 수신되는 영상은 실시간으로 생성되거나 스트리밍되는 데이터일 수도 있고, 미리 생성되어 저장장치에 저장되어 있는 동영상 데이터일 수도 있다. 캐릭터를 식별하는 것은 영상 처리를 위한 다양한 인공지능 기법이 적용될 수 있으며, 복수의 캐릭터가 등장하는 경우, 이 중 치환대상이 되는 캐릭터를 선택하기 위하여 사용자로부터 선택 입력을 받는 과정을 거칠 수 있다.The character information extractor 120 may analyze a received image to be displayed on a screen, identify a character to be replaced in the image, and then receive information about the character. An image received to be displayed on a screen may be data generated or streamed in real time, or may be video data generated in advance and stored in a storage device. To identify a character, various artificial intelligence techniques for image processing may be applied, and when a plurality of characters appear, a process of receiving a selection input from a user may be performed to select a character to be replaced among them.

캐릭터 정보 추출부(120)는 캐릭터 정보를 추출해야 하는 캐릭터를 보다 정확하게 식별하기 위하여, 상기 3차원 컨텐츠에 관한 정보를 활용할 수 있다. 예를 들어 어떤 어플리케이션은 사용자의 캐릭터가 항상 화면의 중앙 하단에 위치한다고 하면, 상기 수신된 컨텐츠 영상을 생성한 어플리케이션이 해당 어플리케이션임을 확인하여 항상 캐릭터가 위치하는 영역에서 캐릭터를 식별하도록 함으로써, 캐릭터를 보다 정확하게 식별하게 된다.The character information extraction unit 120 may utilize information about the 3D content in order to more accurately identify a character from which character information should be extracted. For example, if an application assumes that the user's character is always located at the bottom center of the screen, the application that generated the received content image is identified as the corresponding application, and the character is always identified in the area where the character is located. more accurately identified.

캐릭터 정보 추출부(120)에서 인식하는 캐릭터 정보는 캐릭터의 위치에 관한 정보가 가장 중심이 되는데, 캐릭터의 위치와 캐릭터가 영상 내에서 차지하는 영역에 대한 정보를 추출하여 이를 치환하도록 할 수 있다. 이처럼 캐릭터의 영역을 인식하기 위해서는 다양한 인공지능 방법이 적용될 수 있으며, 이와 같은 방법에 의하여 본 발명이 제한되는 것은 아니다.The character information recognized by the character information extractor 120 is the information on the location of the character, and information on the location of the character and the area occupied by the character in the image can be extracted and replaced. In this way, various artificial intelligence methods can be applied to recognize the character's area, and the present invention is not limited by this method.

캐릭터 정보 추출부(120)는 상기 컨텐츠 영상의 각 픽셀들 중 캐릭터를 표현하는 픽셀을 식별할 수 있다. 캐릭터가 영상 내에서 차지하는 영역을 식별하게 되면 영상을 구성하는 각각의 픽셀 중에서 어떤 픽셀은 캐릭터를 나타내는 픽셀이고 어떤 픽셀은 다른 오브젝트를 나타내는 픽셀인지 구분할 수 있다. 이를 통해 캐릭터를 표현하기 위한 픽셀의 위치를 확인하고 이 위치에 치환할 캐릭터를 표현함으로써, 캐릭터 치환이 가능하도록 할 수 있다.The character information extractor 120 may identify a pixel representing a character among pixels of the content image. When the area occupied by the character in the image is identified, among the pixels constituting the image, which pixel represents the character and which pixel represents another object can be distinguished. Through this, character replacement can be made possible by confirming the position of a pixel for expressing a character and expressing a character to be replaced at this position.

캐릭터 정보 추출부(120)는 상기 수신한 컨텐츠 영상 내의 캐릭터의 동작을 포함하여 캐릭터 정보를 인식할 수 있다. 3차원 컨텐츠에서는 이미지와 같이 캐릭터가 고정되어 있는 것이 아니라, 컨텐츠의 진행 또는 사용자의 조작에 따라서 캐릭터가 동작을 하게 된다. 따라서, 캐릭터를 치환하더라도 단순히 캐릭터의 모양을 치환하는 것이 아니라, 치환된 캐릭터가 실제 캐릭터인 것처럼 원래 캐릭터의 동작을 동일하게 수행해야 하며, 이를 위해서는 원래 캐릭터의 동작을 인식할 필요가 있다.The character information extractor 120 may recognize character information including motions of characters in the received content image. In 3D content, the character is not fixed like an image, but moves according to the progress of the content or the user's manipulation. Therefore, even if the character is replaced, the original character's motion must be performed the same as if the substituted character is a real character, rather than simply replacing the character's shape. To this end, it is necessary to recognize the original character's motion.

캐릭터 정보 추출부(120)에서 캐릭터의 동작을 인식하는 방법은 여러 가지가 존재할 수 있는데, 최근 인공지능 기술을 이용하여 각 관절의 동작을 인식하고 이를 아바타 등으로 표현하는 기술들이 다수 등장하고 있으며, 이와 같은 기술들의 구체적인 인식 방법에 의해 본 발명이 제한되는 것은 아니다.There may be several methods for recognizing the motion of a character in the character information extractor 120. Recently, a number of technologies for recognizing the motion of each joint using artificial intelligence technology and expressing it as an avatar have emerged, The present invention is not limited by specific recognition methods of such technologies.

캐릭터 정보 추출부(120)는 캐릭터의 동작을 정확하게 인식할 수 있도록 하기 위하여 3차원 컨텐츠를 이용하는 동안 사용자의 입력을 분석하고, 사용자의 입력이 컨텐츠의 기존 캐릭터의 동작과 어떻게 연결되는지 확인하여, 이를 바탕으로 캐릭터의 동작을 인식하도록 구현될 수 있다.The character information extractor 120 analyzes the user's input while using the 3D content in order to accurately recognize the motion of the character, and checks how the user's input is connected to the motion of the existing character in the content, Based on this, it can be implemented to recognize the motion of the character.

캐릭터 정보 추출부(120)는 상기 수신한 컨텐츠 영상 내의 캐릭터의 각도를 포함하여 캐릭터 정보를 인식한다. 3차원 캐릭터는 3차원 좌표공간 상에서 어떤 각도로 위치하는지에 따라 다르게 표현되는데, 원래 컨텐츠에 있는 캐릭터의 정면이 바라보는 각도와 동일한 각도로 치환할 3차원 캐릭터가 정면을 바라보도록 해야 위화감이 없는 자연스러운 치환이 가능하게 된다.The character information extractor 120 recognizes character information including angles of characters in the received content image. A 3D character is expressed differently depending on the angle at which it is located in the 3D coordinate space. The 3D character to be replaced should look at the front at the same angle as the angle at which the front of the character in the original content is viewed so that it is natural without a sense of incongruity. substitution is possible.

이를 위하여, 캐릭터 정보 추출부(120)에서는 캐릭터의 얼굴과 같이 방향과 각도를 인식하기 위해 기준이 되는 특징을 인식하고, 인식된 특징의 위치를 기반으로 캐릭터이 각도를 결정한 뒤, 이를 바탕으로 새로운 캐릭터가 치환되도록 함으로써, 치환된 캐릭터가 기존의 캐릭터와 동일하게 동작하는 것과 같은 효과를 제공할 수 있다.To this end, the character information extractor 120 recognizes a standard feature to recognize the direction and angle, such as a character's face, determines the angle of the character based on the position of the recognized feature, and then creates a new character based on this. By replacing , it is possible to provide the same effect that the replaced character operates identically to the existing character.

캐릭터 영역 제거부(130)는 상기 컨텐츠 영상 내에서 캐릭터 영역을 인식하여 제거한다. 상술한 바와 같이, 컨텐츠 영상 내에서 캐릭터 영역이 인식되면, 캐릭터의 영역에 대한 정보를 확인할 수 있고, 화면을 구성하는 픽셀 중에서 캐릭터를 나타내는 픽셀과 그렇지 않은 픽셀을 구분할 수 있다.The character area removal unit 130 recognizes and removes the character area within the content image. As described above, when a character area is recognized in a content image, information on the character area can be checked, and pixels representing a character and pixels that do not constitute a screen can be distinguished from pixels constituting a screen.

따라서 캐릭터 영역 제거부(130)는 영상 내에서 캐릭터를 나타내는 픽셀 부분의 색상을 제거함으로써, 컨텐츠 영상 내에서 기존의 캐릭터가 나타나지 않도록 할 수 있다.Accordingly, the character area removal unit 130 may prevent the existing character from appearing in the content image by removing the color of the pixel portion representing the character in the image.

캐릭터 영역 제거부(130)는 영상 내에서 캐릭터 영역을 제거한 뒤, 캐릭터 영역의 주변 영역을 참조하여 배경과 최대한 유사한 영상으로 캐릭터 영역을 채울 수 있다. 이를 통해 캐릭터가 해당 컨텐츠 상에서 존재하지 않았던 것과 같이 배경만 존재하는 영상을 생성할 수 있다. 이 과정은 다양한 인공지능 기법을 적용할 수 있으며, 본 발명이 영역을 채우는 구체적인 방법에 의해 제한되는 것은 아니다.The character area remover 130 may remove the character area from the image and then fill the character area with an image most similar to the background by referring to an area around the character area. Through this, it is possible to create an image in which only the background exists, as if the character did not exist in the corresponding content. This process can apply various artificial intelligence techniques, and the present invention is not limited by a specific method of filling the area.

캐릭터 영상 생성부(140)는 상기 캐릭터 정보를 기초로 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 렌더링하여 상기 제거된 캐릭터 영역에 대한 2차원 영상을 생성한다. 상술한 바와 같이 원래의 3차원 컨텐츠에 포함되어 있는 캐릭터에 관한 다양한 정보를 획득하게 되면, 이 정보를 바탕으로 치환할 캐릭터를 준비하고 이를 합성함으로써, 컨텐츠 내의 캐릭터가 사용자의 고유 캐릭터로 변경된 것과 같은 효과를 제공할 수 있다.The character image generation unit 140 controls and renders modeling data of the 3D character based on the character information to generate a 2D image of the removed character area. As described above, when various information about the character included in the original 3D content is obtained, a character to be replaced is prepared based on this information and synthesized, so that the character in the content is changed to the user's unique character. effect can be provided.

이를 위해서 캐릭터 영상 생성부(140)는 저장되어 있는 사용자의 고유 캐릭터에 대한 모델링 데이터를 제어함으로써, 실제 3차원 컨텐츠의 기존 캐릭터와 동일한 위치에 동일한 각도, 동일한 동작을 수행하도록 구성할 수 있고, 이를 렌더링하여 2차원 영상을 생성함으로써, 사용자가 자신의 고유 캐릭터로 다른 3차원 컨텐츠를 이용하도록 하는 것이 가능하다.To this end, the character image generation unit 140 can be configured to perform the same motion at the same position, the same angle, and the same motion as the existing character of the actual 3D content by controlling the stored modeling data of the user's unique character. By rendering and generating a 2D image, it is possible for the user to use other 3D content as his own character.

캐릭터 영상 생성부(140)는 상기 캐릭터를 표현하는 픽셀에 상기 3차원 캐릭터의 렌더링된 영상을 매칭시키고, 그 밖의 픽셀은 투명한 픽셀로 처리한다. 기존의 컨텐츠 영상에서 캐릭터를 표현하는 픽셀의 정보가 제거되기 때문에, 이 부분을 새로운 3차원 캐릭터의 렌더링된 영상으로 채워야 하는데, 이를 위하여 캐릭터를 나타내는 픽셀과 그렇지 않은 픽셀을 구분하여, 캐릭터를 나타내는 픽셀을 새로운 3차원 캐릭터의 렌더링 영상으로 채우고, 나머지는 투명한 픽셀로 남겨두게 된다. 이를 캐릭터 영역이 제거된 컨텐츠 영상과 합성하게 되면, 투명 부분을 통해 나머지 부분들이 그대로 재현되고, 캐릭터 영역만 변환된 최종 영상이 생성되게 된다.The character image generation unit 140 matches the rendered image of the 3D character to pixels representing the character, and processes other pixels as transparent pixels. Since information on pixels representing characters is removed from the existing content video, this part must be filled with a rendered image of a new 3D character. is filled with the rendered image of the new 3D character, leaving the rest as transparent pixels. When this is combined with the content image from which the character region has been removed, the remaining parts are reproduced as they are through the transparent part, and a final image in which only the character region is converted is created.

캐릭터 영상 생성부(140)는 상기 컨텐츠 영상 내의 캐릭터의 동작과 일치하도록 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 제어된 모델링 데이터를 렌더링하여 2차원 영상을 생성한다. 상술한 바와 같이, 원래의 컨텐츠 영상 내의 캐릭터의 동작을 인식하게 되면, 해당 동작을 사용자의 3차원 캐릭터의 모델링 데이터에 적용할 수 있으며, 이를 렌더링할 경우, 컨텐츠 영상 내의 캐릭터와 동일한 동작을 하는 3차원 캐릭터의 렌더링 영상을 합성할 수 있게 된다. 이를 통해 실제 사용자의 고유 캐릭터가 컨텐츠 영상 내에서 활동하는 것과 같은 효과를 얻을 수 있다.The character image generating unit 140 controls modeling data of the 3D character to match the motion of the character in the content image, and renders the controlled modeling data to generate a 2D image. As described above, when the motion of the character in the original content video is recognized, the corresponding motion can be applied to the modeling data of the user's 3D character. Rendered images of dimensional characters can be synthesized. Through this, it is possible to obtain the same effect as if the actual user's unique character is active within the content image.

캐릭터 영상 생성부(140)는 상기 컨텐츠 영상 내의 캐릭터의 각도와 일치하도록 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 제어된 모델링 데이터를 렌더링하여 2차원 영상을 생성한다. 캐릭터를 치환하기 위해서는 컨텐츠 영상에 존재하는 기존의 캐릭터와 동일한 각도로 치환할 3차원 캐릭터가 존재해야 하는데, 이를 위해 인식된 기존 캐릭터의 각도 정보를 바탕으로 3차원 캐릭터의 모델링 데이터를 제어하고, 이를 렌더링함으로써, 위화감 없는 캐릭터 치환이 가능하도록 할 수 있다.The character image generation unit 140 controls modeling data of the 3D character to match the angle of the character in the content image, and renders the controlled modeling data to generate a 2D image. In order to replace a character, there must be a 3D character to be replaced at the same angle as the existing character in the content video. For this purpose, the modeling data of the 3D character is controlled based on the angle information of the recognized existing character By rendering, it is possible to replace characters without discomfort.

영상 출력부(150)는 상기 생성된 2차원 영상을 상기 컨텐츠 영상과 합성하여 출력한다. 상술한 바와 같이, 캐릭터 영상 생성부(140)에서 생성한 영상은 캐릭터 영역을 새로운 3차원 캐릭터의 렌더링 영상으로 채우고 나머지 영역은 투명 픽셀로 남겨둔 것이므로, 이를 원래의 컨텐츠 영상과 오버랩하는 것으로 복잡한 연산 없이 최종 영상을 생성할 수 있다.The image output unit 150 synthesizes the generated 2D image with the content image and outputs the synthesized image. As described above, since the image generated by the character image generator 140 fills the character area with a rendered image of a new 3D character and leaves the remaining area as transparent pixels, it is overlapped with the original content image without complicated calculations. Final video can be created.

도 2는 본 발명의 일실시예에 따른 3차원 캐릭터 치환 시스템에서 3차원 캐릭터를 치환하는 화면의 일례를 나타낸 도면이다.2 is a diagram showing an example of a screen for replacing a 3D character in a 3D character replacement system according to an embodiment of the present invention.

도면에 도시한 바와 같이, 3차원 컨텐츠를 제공하는 어플리케이션이 존재할 때, 해당 어플리케이션은 단말기에서 렌더링을 수행하여 3차원 컨텐츠에 대한 영상을 제공하거나, 서버에서 렌더링을 수행한 뒤 이를 스트리밍 하는 등의 방식으로 3차원 컨텐츠에 대한 영상을 제공할 수 있다.As shown in the figure, when there is an application that provides 3D content, the application performs rendering on the terminal to provide an image of the 3D content, or performs rendering on the server and then streams it. It is possible to provide images for 3D content.

본 발명에 따른 3차원 캐릭터 치환 시스템(201)은 이와 같이 화면에 출력될 영상을 입력으로 하여 영상 내에서 캐릭터를 인식하고 이를 치환하기 때문에, 어플리케이션에서 별도로 지원하거나 모듈을 삽입하는 등의 작업을 하지 않더라도 어플리케이션의 캐릭터를 사용자의 고유 캐릭터로 변환하여 자신의 캐릭터를 해당 어플리케이션 내에서 이용하는 것과 같은 효과를 얻을 수 있다.Since the 3D character replacement system 201 according to the present invention recognizes and replaces characters in the image by taking the image to be output on the screen as an input, the application does not separately support or insert a module. Even if it is not necessary, it is possible to convert the character of the application into the user's unique character and obtain the same effect as using the user's character in the application.

도면부호 201과 같은 어플리케이션의 컨텐츠 영상에서 캐릭터 영역을 인식하고, 캐릭터 영역을 제거하면 도면부호 202와 같은 영상을 획득할 수 있다. 이 때, 사용자의 고유한 캐릭터를 제거된 캐릭터 영역에 맞도록 준비하고, 이를 도면부호 202의 영상과 합성하게 되면 도면부호 203과 같이 사용자의 고유 3차원 캐릭터를 해당 3차원 컨텐츠 내에서 이용하는 것처럼 느끼도록 할 수 있다.When a character area is recognized in the content image of an application as indicated by reference numeral 201 and the character area is removed, an image indicated by reference numeral 202 may be obtained. At this time, if the user's unique character is prepared to fit the removed character area and synthesized with the image of reference 202, the user's unique 3D character, as shown by reference 203, can be used in the corresponding 3D content. can be made

도 3은 본 발명의 일실시예에 따른 3차원 캐릭터 치환 방법의 흐름을 도시한 흐름도이다.Figure 3 is a flow chart showing the flow of a three-dimensional character substitution method according to an embodiment of the present invention.

본 발명의 일실시예에 따른 3차원 캐릭터 치환 방법은 중앙처리장치(CPU) 및 메모리(Memory)를 구비하는 3차원 캐릭터 치환 시스템(101)에서 동작하는 방법으로, 상술한 3차원 캐릭터 치환 시스템(101)에 대한 설명이 그대로 적용될 수 있다. 따라서 아래에 별도의 설명이 없더라도, 3차원 캐릭터 치환 시스템을 설명하기 위해 기재한 모든 내용은 3차원 캐릭터 치환 방법을 구현하는데 그대로 적용할 수 있음은 자명하다.The 3D character substitution method according to an embodiment of the present invention is a method operating in a 3D character substitution system 101 having a central processing unit (CPU) and a memory, and the above-described 3D character substitution system ( 101) can be applied as it is. Therefore, even if there is no separate description below, it is obvious that all the contents described to describe the 3D character replacement system can be applied as they are to implement the 3D character replacement method.

모델링 데이터 저장 단게(S301)는 3차원 캐릭터의 모델링 데이터를 저장한다. 일반적으로 3차원 오브젝트는 모델링 데이터의 형태로 존재하다가 화면에 표시할 때에 렌더링 과정을 거쳐 2차원 영상으로 변환되어 화면에 출력되게 된다. 따라서, 모델링 데이터는 3차원 캐릭터가 3차원 가상공간에 표시되기 위하여 필요한 3차원 캐릭터의 형태, 크기, 자세, 표정 등의 다양한 정보를 나타낼 수 있다.The modeling data storage step (S301) stores modeling data of a 3D character. In general, a 3D object exists in the form of modeling data, and when displayed on a screen, it is converted into a 2D image through a rendering process and then output to the screen. Accordingly, the modeling data may indicate various information such as shape, size, posture, expression, and the like of the 3D character necessary for the 3D character to be displayed in the 3D virtual space.

모델링 데이터 저장 단계(S301)에 저장되어 있는 모델링 데이터는 사용자의 제어 명령 등에 따라 제어될 수 있으며, 이를 통해 3차원 캐릭터의 자세, 각도, 움직임, 표정 등이 다양하게 제어되는 것이 가능하다. 이처럼 모델링 데이터가 제어되면 이를 렌더링한 화면에서도 그 결과가 나타나게 된다.The modeling data stored in the modeling data storage step (S301) can be controlled according to a user's control command, etc., and through this, it is possible to control the posture, angle, movement, facial expression, etc. of the 3D character in various ways. When the modeling data is controlled in this way, the result appears on the screen where it is rendered.

캐릭터 정보 추출 단계(S302)는 3차원 컨텐츠가 2차원으로 렌더링된 컨텐츠 영상을 수신하고, 상기 수신한 컨텐츠 영상 내의 캐릭터의 위치 정보를 포함하는 캐릭터 정보를 인식한다. 컨텐츠 영상은 3차원 가상공간을 화면에 표현하기 위한 영상으로 상기 컨텐츠는 게임, 메타버스 등 3차원 그래픽으로 표현되는 다양한 것들을 포함할 수 있다.In the character information extraction step (S302), a content image in which 3D content is rendered in 2D is received, and character information including location information of a character in the received content image is recognized. The content image is an image for expressing a 3D virtual space on the screen, and the content may include various things represented by 3D graphics such as games and metaverses.

캐릭터 정보 추출 단계(S302)는 화면에 출력하기 위하여 수신되는 영상을 분석하고, 영상 내에서 치환하고자 하는 캐릭터를 식별한 뒤, 이 캐릭터에 관한 정보를 수신할 수 있다. 화면에 출력하기 위하여 수신되는 영상은 실시간으로 생성되거나 스트리밍되는 데이터일 수도 있고, 미리 생성되어 저장장치에 저장되어 있는 동영상 데이터일 수도 있다. 캐릭터를 식별하는 것은 영상 처리를 위한 다양한 인공지능 기법이 적용될 수 있으며, 복수의 캐릭터가 등장하는 경우, 이 중 치환대상이 되는 캐릭터를 선택하기 위하여 사용자로부터 선택 입력을 받는 과정을 거칠 수 있다.In the character information extraction step (S302), a received image may be analyzed to be displayed on a screen, a character to be replaced in the image may be identified, and then information about the character may be received. An image received to be displayed on a screen may be data generated or streamed in real time, or may be video data generated in advance and stored in a storage device. To identify a character, various artificial intelligence techniques for image processing may be applied, and when a plurality of characters appear, a process of receiving a selection input from a user may be performed to select a character to be replaced among them.

캐릭터 정보 추출 단계(S302)는 캐릭터 정보를 추출해야 하는 캐릭터를 보다 정확하게 식별하기 위하여, 상기 3차원 컨텐츠에 관한 정보를 활용할 수 있다. 예를 들어 어떤 어플리케이션은 사용자의 캐릭터가 항상 화면의 중앙 하단에 위치한다고 하면, 상기 수신된 컨텐츠 영상을 생성한 어플리케이션이 해당 어플리케이션임을 확인하여 항상 캐릭터가 위치하는 영역에서 캐릭터를 식별하도록 함으로써, 캐릭터를 보다 정확하게 식별하게 된다.In the character information extraction step (S302), information about the 3D content may be utilized in order to more accurately identify a character from which character information should be extracted. For example, if an application assumes that the user's character is always located at the bottom center of the screen, the application that generated the received content image is identified as the corresponding application, and the character is always identified in the area where the character is located. more accurately identified.

캐릭터 정보 추출 단계(S302)에서 인식하는 캐릭터 정보는 캐릭터의 위치에 관한 정보가 가장 중심이 되는데, 캐릭터의 위치와 캐릭터가 영상 내에서 차지하는 영역에 대한 정보를 추출하여 이를 치환하도록 할 수 있다. 이처럼 캐릭터의 영역을 인식하기 위해서는 다양한 인공지능 방법이 적용될 수 있으며, 이와 같은 방법에 의하여 본 발명이 제한되는 것은 아니다.The character information recognized in the character information extraction step (S302) is the information on the character's position, and information on the position of the character and the area occupied by the character in the image can be extracted and replaced. In this way, various artificial intelligence methods can be applied to recognize the character's area, and the present invention is not limited by this method.

캐릭터 정보 추출 단계(S302)는 상기 컨텐츠 영상의 각 픽셀들 중 캐릭터를 표현하는 픽셀을 식별할 수 있다. 캐릭터가 영상 내에서 차지하는 영역을 식별하게 되면 영상을 구성하는 각각의 픽셀 중에서 어떤 픽셀은 캐릭터를 나타내는 픽셀이고 어떤 픽셀은 다른 오브젝트를 나타내는 픽셀인지 구분할 수 있다. 이를 통해 캐릭터를 표현하기 위한 픽셀의 위치를 확인하고 이 위치에 치환할 캐릭터를 표현함으로써, 캐릭터 치환이 가능하도록 할 수 있다.In the character information extraction step (S302), a pixel representing a character among pixels of the content image may be identified. When the area occupied by the character in the image is identified, among the pixels constituting the image, which pixel represents the character and which pixel represents another object can be distinguished. Through this, character replacement can be made possible by confirming the position of a pixel for expressing a character and expressing a character to be replaced at this position.

캐릭터 정보 추출 단계(S302)는 상기 수신한 컨텐츠 영상 내의 캐릭터의 동작을 포함하여 캐릭터 정보를 인식할 수 있다. 3차원 컨텐츠에서는 이미지와 같이 캐릭터가 고정되어 있는 것이 아니라, 컨텐츠의 진행 또는 사용자의 조작에 따라서 캐릭터가 동작을 하게 된다. 따라서, 캐릭터를 치환하더라도 단순히 캐릭터의 모양을 치환하는 것이 아니라, 치환된 캐릭터가 실제 캐릭터인 것처럼 원래 캐릭터의 동작을 동일하게 수행해야 하며, 이를 위해서는 원래 캐릭터의 동작을 인식할 필요가 있다.In the character information extraction step (S302), character information including motions of characters in the received content image may be recognized. In 3D content, the character is not fixed like an image, but moves according to the progress of the content or the user's manipulation. Therefore, even if the character is replaced, the original character's motion must be performed the same as if the substituted character is a real character, rather than simply replacing the character's shape. To this end, it is necessary to recognize the original character's motion.

캐릭터 정보 추출 단계(S302)에서 캐릭터의 동작을 인식하는 방법은 여러 가지가 존재할 수 있는데, 최근 인공지능 기술을 이용하여 각 관절의 동작을 인식하고 이를 아바타 등으로 표현하는 기술들이 다수 등장하고 있으며, 이와 같은 기술들의 구체적인 인식 방법에 의해 본 발명이 제한되는 것은 아니다.In the character information extraction step (S302), there may be several methods for recognizing the motion of the character. Recently, many technologies have emerged that recognize the motion of each joint using artificial intelligence technology and express it as an avatar. The present invention is not limited by specific recognition methods of such technologies.

캐릭터 정보 추출 단계(S302)는 캐릭터의 동작을 정확하게 인식할 수 있도록 하기 위하여 3차원 컨텐츠를 이용하는 동안 사용자의 입력을 분석하고, 사용자의 입력이 컨텐츠의 기존 캐릭터의 동작과 어떻게 연결되는지 확인하여, 이를 바탕으로 캐릭터의 동작을 인식하도록 구현될 수 있다.The character information extraction step (S302) analyzes the user's input while using the 3D content in order to accurately recognize the motion of the character, and checks how the user's input is connected to the motion of the existing character in the content, Based on this, it can be implemented to recognize the motion of the character.

캐릭터 정보 추출 단계(S302)는 상기 수신한 컨텐츠 영상 내의 캐릭터의 각도를 포함하여 캐릭터 정보를 인식한다. 3차원 캐릭터는 3차원 좌표공간 상에서 어떤 각도로 위치하는지에 따라 다르게 표현되는데, 원래 컨텐츠에 있는 캐릭터의 정면이 바라보는 각도와 동일한 각도로 치환할 3차원 캐릭터가 정면을 바라보도록 해야 위화감이 없는 자연스러운 치환이 가능하게 된다.In the character information extraction step (S302), character information including angles of characters in the received content image is recognized. A 3D character is expressed differently depending on the angle at which it is located in the 3D coordinate space. The 3D character to be replaced should look at the front at the same angle as the angle at which the front of the character in the original content is viewed so that it is natural without a sense of incongruity. substitution is possible.

이를 위하여, 캐릭터 정보 추출 단계(S302)에서는 캐릭터의 얼굴과 같이 방향과 각도를 인식하기 위해 기준이 되는 특징을 인식하고, 인식된 특징의 위치를 기반으로 캐릭터이 각도를 결정한 뒤, 이를 바탕으로 새로운 캐릭터가 치환되도록 함으로써, 치환된 캐릭터가 기존의 캐릭터와 동일하게 동작하는 것과 같은 효과를 제공할 수 있다.To this end, in the character information extraction step (S302), a standard feature for recognizing a direction and an angle, such as a character's face, is recognized, and a character's angle is determined based on the position of the recognized feature, and a new character based on this is determined. By replacing , it is possible to provide the same effect that the replaced character operates identically to the existing character.

캐릭터 영역 제거 단계(S303)는 상기 컨텐츠 영상 내에서 캐릭터 영역을 인식하여 제거한다. 상술한 바와 같이, 컨텐츠 영상 내에서 캐릭터 영역이 인식되면, 캐릭터의 영역에 대한 정보를 확인할 수 있고, 화면을 구성하는 픽셀 중에서 캐릭터를 나타내는 픽셀과 그렇지 않은 픽셀을 구분할 수 있다.In the character area removing step (S303), the character area is recognized and removed from the content image. As described above, when a character area is recognized in a content image, information on the character area can be checked, and pixels representing a character and pixels that do not constitute a screen can be distinguished from pixels constituting a screen.

따라서 캐릭터 영역 제거 단계(S303)는 영상 내에서 캐릭터를 나타내는 픽셀 부분의 색상을 제거함으로써, 컨텐츠 영상 내에서 기존의 캐릭터가 나타나지 않도록 할 수 있다.Therefore, in the character area removing step (S303), the existing character may not appear in the content image by removing the color of the pixel portion representing the character in the image.

캐릭터 영역 제거 단계(S303)는 영상 내에서 캐릭터 영역을 제거한 뒤, 캐릭터 영역의 주변 영역을 참조하여 배경과 최대한 유사한 영상으로 캐릭터 영역을 채울 수 있다. 이를 통해 캐릭터가 해당 컨텐츠 상에서 존재하지 않았던 것과 같이 배경만 존재하는 영상을 생성할 수 있다. 이 과정은 다양한 인공지능 기법을 적용할 수 있으며, 본 발명이 영역을 채우는 구체적인 방법에 의해 제한되는 것은 아니다.In the character area removing step (S303), after removing the character area from the image, the character area may be filled with an image that is as similar as possible to the background by referring to an area around the character area. Through this, it is possible to create an image in which only the background exists, as if the character did not exist in the corresponding content. This process can apply various artificial intelligence techniques, and the present invention is not limited by a specific method of filling the area.

캐릭터 영상 생성 단계(S304)는 상기 캐릭터 정보를 기초로 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 렌더링하여 상기 제거된 캐릭터 영역에 대한 2차원 영상을 생성한다. 상술한 바와 같이 원래의 3차원 컨텐츠에 포함되어 있는 캐릭터에 관한 다양한 정보를 획득하게 되면, 이 정보를 바탕으로 치환할 캐릭터를 준비하고 이를 합성함으로써, 컨텐츠 내의 캐릭터가 사용자의 고유 캐릭터로 변경된 것과 같은 효과를 제공할 수 있다.In the character image generation step (S304), modeling data of the 3D character is controlled and rendered based on the character information to generate a 2D image of the removed character area. As described above, when various information about the character included in the original 3D content is obtained, a character to be replaced is prepared based on this information and synthesized, so that the character in the content is changed to the user's unique character. effect can be provided.

이를 위해서 캐릭터 영상 생성 단계(S304)는 저장되어 있는 사용자의 고유 캐릭터에 대한 모델링 데이터를 제어함으로써, 실제 3차원 컨텐츠의 기존 캐릭터와 동일한 위치에 동일한 각도, 동일한 동작을 수행하도록 구성할 수 있고, 이를 렌더링하여 2차원 영상을 생성함으로써, 사용자가 자신의 고유 캐릭터로 다른 3차원 컨텐츠를 이용하도록 하는 것이 가능하다.To this end, the character image generation step (S304) can be configured to perform the same motion at the same angle and the same position as the existing character of the actual 3D content by controlling the stored modeling data for the user's unique character. By rendering and generating a 2D image, it is possible for the user to use other 3D content as his own character.

캐릭터 영상 생성 단계(S304)는 상기 캐릭터를 표현하는 픽셀에 상기 3차원 캐릭터의 렌더링된 영상을 매칭시키고, 그 밖의 픽셀은 투명한 픽셀로 처리한다. 기존의 컨텐츠 영상에서 캐릭터를 표현하는 픽셀의 정보가 제거되기 때문에, 이 부분을 새로운 3차원 캐릭터의 렌더링된 영상으로 채워야 하는데, 이를 위하여 캐릭터를 나타내는 픽셀과 그렇지 않은 픽셀을 구분하여, 캐릭터를 나타내는 픽셀을 새로운 3차원 캐릭터의 렌더링 영상으로 채우고, 나머지는 투명한 픽셀로 남겨두게 된다. 이를 캐릭터 영역이 제거된 컨텐츠 영상과 합성하게 되면, 투명 부분을 통해 나머지 부분들이 그대로 재현되고, 캐릭터 영역만 변환된 최종 영상이 생성되게 된다.In the character image generation step (S304), the rendered image of the 3D character is matched to pixels representing the character, and other pixels are treated as transparent pixels. Since information on pixels representing characters is removed from the existing content video, this part must be filled with a rendered image of a new 3D character. is filled with the rendered image of the new 3D character, leaving the rest as transparent pixels. When this is combined with the content image from which the character region has been removed, the remaining parts are reproduced as they are through the transparent part, and a final image in which only the character region is converted is created.

캐릭터 영상 생성 단계(S304)는 상기 컨텐츠 영상 내의 캐릭터의 동작과 일치하도록 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 제어된 모델링 데이터를 렌더링하여 2차원 영상을 생성한다. 상술한 바와 같이, 원래의 컨텐츠 영상 내의 캐릭터의 동작을 인식하게 되면, 해당 동작을 사용자의 3차원 캐릭터의 모델링 데이터에 적용할 수 있으며, 이를 렌더링할 경우, 컨텐츠 영상 내의 캐릭터와 동일한 동작을 하는 3차원 캐릭터의 렌더링 영상을 합성할 수 있게 된다. 이를 통해 실제 사용자의 고유 캐릭터가 컨텐츠 영상 내에서 활동하는 것과 같은 효과를 얻을 수 있다.In the character image generation step (S304), modeling data of the 3D character is controlled to match the motion of the character in the content image, and a 2D image is generated by rendering the controlled modeling data. As described above, when the motion of the character in the original content video is recognized, the corresponding motion can be applied to the modeling data of the user's 3D character. Rendered images of dimensional characters can be synthesized. Through this, it is possible to obtain the same effect as if the actual user's unique character is active within the content image.

캐릭터 영상 생성 단계(S304)는 상기 컨텐츠 영상 내의 캐릭터의 각도와 일치하도록 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 제어된 모델링 데이터를 렌더링하여 2차원 영상을 생성한다. 캐릭터를 치환하기 위해서는 컨텐츠 영상에 존재하는 기존의 캐릭터와 동일한 각도로 치환할 3차원 캐릭터가 존재해야 하는데, 이를 위해 인식된 기존 캐릭터의 각도 정보를 바탕으로 3차원 캐릭터의 모델링 데이터를 제어하고, 이를 렌더링함으로써, 위화감 없는 캐릭터 치환이 가능하도록 할 수 있다.In the character image generation step (S304), modeling data of the 3D character is controlled to match the angle of the character in the content image, and a 2D image is generated by rendering the controlled modeling data. In order to replace a character, there must be a 3D character to be replaced at the same angle as the existing character in the content video. For this purpose, the modeling data of the 3D character is controlled based on the angle information of the recognized existing character By rendering, it is possible to replace characters without discomfort.

영상 출력 단계(S305)는 상기 생성된 2차원 영상을 상기 컨텐츠 영상과 합성하여 출력한다. 상술한 바와 같이, 캐릭터 영상 생성 단계(S304)에서 생성한 영상은 캐릭터 영역을 새로운 3차원 캐릭터의 렌더링 영상으로 채우고 나머지 영역은 투명 픽셀로 남겨둔 것이므로, 이를 원래의 컨텐츠 영상과 오버랩하는 것으로 복잡한 연산 없이 최종 영상을 생성할 수 있다.In the video output step (S305), the generated 2D video is synthesized with the content video and output. As described above, since the image generated in the character image generation step (S304) fills the character area with a new 3D character rendering image and leaves the remaining area as transparent pixels, it is overlapped with the original content image without complicated calculations. Final video can be created.

본 발명에 따른 3차원 캐릭터 치환 방법은 컴퓨터가 실행하도록 기능시키기 위한 프로그램으로 제작되어 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The 3D character substitution method according to the present invention can be produced as a program for a computer to execute and recorded on a computer-readable recording medium.

컴퓨터로 읽을 수 있는 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CDROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CDROMs and DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes such as those produced by a compiler. The hardware device may be configured to act as one or more software modules to perform processing according to the present invention and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있다.Although the above has been described with reference to the embodiments, those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention described in the claims below.

101: 3차원 캐릭터 치환 시스템
110: 모델링 데이터 저장부 120: 캐릭터 정보 추출부
130: 캐릭터 영역 제거부 140: 캐릭터 영상 생성부
150: 영상 출력부
101: 3D character replacement system
110: modeling data storage unit 120: character information extraction unit
130: character area removal unit 140: character image generation unit
150: video output unit

Claims (9)

3차원 캐릭터의 모델링 데이터를 저장하는 모델링 데이터 저장부;
3차원 컨텐츠가 2차원으로 렌더링된 컨텐츠 영상을 수신하고, 상기 수신한 컨텐츠 영상 내의 캐릭터의 위치 정보를 포함하는 캐릭터 정보를 인식하는 캐릭터 정보 추출부;
상기 컨텐츠 영상 내에서 캐릭터 영역을 인식하여 제거하는 캐릭터 영역 제거부;
상기 캐릭터 정보를 기초로 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 렌더링하여 상기 제거된 캐릭터 영역에 대한 2차원 영상을 생성하는 캐릭터 영상 생성부; 및
상기 생성된 2차원 영상을 상기 컨텐츠 영상과 합성하여 출력하는 영상 출력부
를 포함하는 3차원 캐릭터 치환 시스템.
a modeling data storage unit that stores modeling data of a 3D character;
a character information extractor for receiving a content image in which 3D content is rendered in 2D and recognizing character information including location information of a character in the received content image;
a character area removing unit recognizing and removing a character area within the content image;
a character image generation unit that controls and renders modeling data of the 3D character based on the character information to generate a 2D image of the removed character area; and
An image output unit for synthesizing the generated 2D image with the content image and outputting the synthesized image.
A three-dimensional character replacement system comprising a.
제1항에 있어서,
상기 캐릭터 정보 추출부는
상기 컨텐츠 영상의 각 픽셀들 중 캐릭터를 표현하는 픽셀을 식별하고,
상기 캐릭터 영상 생성부는
상기 캐릭터를 표현하는 픽셀에 상기 3차원 캐릭터의 렌더링된 영상을 매칭시키고, 그 밖의 픽셀은 투명한 픽셀로 처리하는 것
을 특징으로 하는 3차원 캐릭터 치환 시스템.
According to claim 1,
The character information extraction unit
Identifying a pixel representing a character among pixels of the content image;
The character image generator
Matching the rendered image of the 3D character to a pixel representing the character, and processing other pixels as transparent pixels
Characterized by a three-dimensional character replacement system.
제2항에 있어서,
상기 캐릭터 정보 추출부는
상기 수신한 컨텐츠 영상 내의 캐릭터의 동작을 포함하여 캐릭터 정보를 인식하고,
상기 캐릭터 영상 생성부는
상기 컨텐츠 영상 내의 캐릭터의 동작과 일치하도록 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 제어된 모델링 데이터를 렌더링하여 2차원 영상을 생성하는 것
을 특징으로 하는 3차원 캐릭터 치환 시스템.
According to claim 2,
The character information extraction unit
recognizing character information including motions of characters in the received content image;
The character image generator
Controlling the modeling data of the 3D character to match the motion of the character in the content image, and rendering the controlled modeling data to generate a 2D image.
Characterized by a three-dimensional character replacement system.
제3항에 있어서,
상기 캐릭터 정보 추출부는
상기 수신한 컨텐츠 영상 내의 캐릭터의 각도를 포함하여 캐릭터 정보를 인식하고,
상기 캐릭터 영상 생성부는
상기 컨텐츠 영상 내의 캐릭터의 각도와 일치하도록 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 제어된 모델링 데이터를 렌더링하여 2차원 영상을 생성하는 것
을 특징으로 하는 3차원 캐릭터 치환 시스템.
According to claim 3,
The character information extraction unit
recognizing character information including an angle of a character in the received content image;
The character image generator
Controlling the modeling data of the 3D character to match the angle of the character in the content image, and rendering the controlled modeling data to generate a 2D image.
Characterized by a three-dimensional character replacement system.
중앙처리장치 및 메모리를 구비하는 3차원 캐릭터 치환 시스템에서 동작하는 3차원 캐릭터 치환 방법에 있어서,
3차원 캐릭터의 모델링 데이터를 저장하는 모델링 데이터 저장 단계;
3차원 컨텐츠가 2차원으로 렌더링된 컨텐츠 영상을 수신하고, 상기 수신한 컨텐츠 영상 내의 캐릭터의 위치 정보를 포함하는 캐릭터 정보를 인식하는 캐릭터 정보 추출 단계;
상기 컨텐츠 영상 내에서 캐릭터 영역을 인식하여 제거하는 캐릭터 영역 제거 단계;
상기 캐릭터 정보를 기초로 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 렌더링하여 상기 제거된 캐릭터 영역에 대한 2차원 영상을 생성하는 캐릭터 영상 생성 단계; 및
상기 생성된 2차원 영상을 상기 컨텐츠 영상과 합성하여 출력하는 영상 출력 단계
를 포함하는 3차원 캐릭터 치환 방법.
In the 3D character substitution method operating in a 3D character substitution system having a central processing unit and memory,
A modeling data storage step of storing modeling data of a 3D character;
A character information extraction step of receiving a content image in which 3D content is rendered in 2D and recognizing character information including location information of a character in the received content image;
a character area removal step of recognizing and removing a character area within the content image;
a character image generation step of controlling and rendering modeling data of the 3D character based on the character information to generate a 2D image of the removed character area; and
An image output step of synthesizing the generated 2D image with the content image and outputting the synthesized image.
3-dimensional character replacement method comprising a.
제5항에 있어서,
상기 캐릭터 정보 추출 단계는
상기 컨텐츠 영상의 각 픽셀들 중 캐릭터를 표현하는 픽셀을 식별하고,
상기 캐릭터 영상 생성 단계는
상기 캐릭터를 표현하는 픽셀에 상기 3차원 캐릭터의 렌더링된 영상을 매칭시키고, 그 밖의 픽셀은 투명한 픽셀로 처리하는 것
을 특징으로 하는 3차원 캐릭터 치환 방법.
According to claim 5,
The character information extraction step is
identifying a pixel representing a character among pixels of the content image;
The character image creation step is
Matching the rendered image of the 3D character to a pixel representing the character, and processing other pixels as transparent pixels
Characterized by a three-dimensional character substitution method.
제6항에 있어서,
상기 캐릭터 정보 추출 단계는
상기 수신한 컨텐츠 영상 내의 캐릭터의 동작을 포함하여 캐릭터 정보를 인식하고,
상기 캐릭터 영상 생성 단계는
상기 컨텐츠 영상 내의 캐릭터의 동작과 일치하도록 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 제어된 모델링 데이터를 렌더링하여 2차원 영상을 생성하는 것
을 특징으로 하는 3차원 캐릭터 치환 방법.
According to claim 6,
The character information extraction step is
recognizing character information including motions of characters in the received content image;
The character image creation step is
Controlling the modeling data of the 3D character to match the motion of the character in the content image, and rendering the controlled modeling data to generate a 2D image.
Characterized by a three-dimensional character substitution method.
제7항에 있어서,
상기 캐릭터 정보 추출 단계는
상기 수신한 컨텐츠 영상 내의 캐릭터의 각도를 포함하여 캐릭터 정보를 인식하고,
상기 캐릭터 영상 생성 단계는
상기 컨텐츠 영상 내의 캐릭터의 각도와 일치하도록 상기 3차원 캐릭터의 모델링 데이터를 제어하고, 제어된 모델링 데이터를 렌더링하여 2차원 영상을 생성하는 것
을 특징으로 하는 3차원 캐릭터 치환 방법.
According to claim 7,
The character information extraction step is
recognizing character information including an angle of a character in the received content image;
The character image creation step is
Controlling the modeling data of the 3D character to match the angle of the character in the content image, and rendering the controlled modeling data to generate a 2D image.
Characterized by a three-dimensional character substitution method.
제5항 내지 제8항 중 어느 한 항의 방법을 컴퓨터가 실행하도록 기능시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.
A computer-readable recording medium on which a program for causing a computer to function to execute the method of any one of claims 5 to 8 is recorded.
KR1020220154988A 2021-11-22 2022-11-18 A System and Method for Replacing 3D Character KR20230075364A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/018376 WO2023090960A1 (en) 2021-11-22 2022-11-21 Three-dimensional character substitution system and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210161560 2021-11-22
KR20210161560 2021-11-22

Publications (1)

Publication Number Publication Date
KR20230075364A true KR20230075364A (en) 2023-05-31

Family

ID=86543475

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220154988A KR20230075364A (en) 2021-11-22 2022-11-18 A System and Method for Replacing 3D Character

Country Status (1)

Country Link
KR (1) KR20230075364A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000037574A (en) 1998-12-01 2000-07-05 김영돈 Game production method using virtual character

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000037574A (en) 1998-12-01 2000-07-05 김영돈 Game production method using virtual character

Similar Documents

Publication Publication Date Title
US9626788B2 (en) Systems and methods for creating animations using human faces
EP3760287B1 (en) Method and device for generating video frames
US9373185B2 (en) Interactive design, synthesis and delivery of 3D motion data through the web
CN107682688B (en) Video real-time recording method and recording equipment based on augmented reality
US11003898B2 (en) Creating videos with facial expressions
AU2009330607A2 (en) System and methods for dynamically injecting expression information into an animated facial mesh
US20220398797A1 (en) Enhanced system for generation of facial models and animation
JP2008102972A (en) Automatic 3d modeling system and method
US20220398795A1 (en) Enhanced system for generation of facial models and animation
KR101977893B1 (en) Digital actor managing method for image contents
CN114863533A (en) Digital human generation method and device and storage medium
CN110189404B (en) Virtual face modeling method based on real face image
CN113411537B (en) Video call method, device, terminal and storage medium
US11887232B2 (en) Enhanced system for generation of facial models and animation
KR20230075364A (en) A System and Method for Replacing 3D Character
KR20230017907A (en) Visual asset development using generative adversarial networks (GANs)
CN116524087A (en) Audio-driven speaker video synthesis method and system for fusing nerve radiation field
US20220172431A1 (en) Simulated face generation for rendering 3-d models of people that do not exist
WO2023090960A1 (en) Three-dimensional character substitution system and method
KR20230096591A (en) Generation method for a steerable realistic image contents and motion simulation system thereof
US20230052104A1 (en) Virtual content experience system and control method for same
KR20230075363A (en) A System and Method for Replacing 3D Character
KR20060040118A (en) Method and appartus for producing customized three dimensional animation and system for distributing thereof
WO2018018076A1 (en) Creating videos with facial expressions
CN116958353B (en) Holographic projection method based on dynamic capture and related device