KR20120092960A - System and method for controlling virtual character - Google Patents

System and method for controlling virtual character Download PDF

Info

Publication number
KR20120092960A
KR20120092960A KR1020110012917A KR20110012917A KR20120092960A KR 20120092960 A KR20120092960 A KR 20120092960A KR 1020110012917 A KR1020110012917 A KR 1020110012917A KR 20110012917 A KR20110012917 A KR 20110012917A KR 20120092960 A KR20120092960 A KR 20120092960A
Authority
KR
South Korea
Prior art keywords
image
virtual character
character
region
movement
Prior art date
Application number
KR1020110012917A
Other languages
Korean (ko)
Inventor
박창범
Original Assignee
박창범
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박창범 filed Critical 박창범
Priority to KR1020110012917A priority Critical patent/KR20120092960A/en
Publication of KR20120092960A publication Critical patent/KR20120092960A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Abstract

PURPOSE: A virtual character control system and a method thereof are provided to control movement of a character on a virtual space through human body movement degree of a user inputted through a camera without additional controllers. CONSTITUTION: An input management module(100) includes a camera unit(110) and a feature extraction unit(120). The camera unit photographs a human body of a user. The feature extraction unit extracts human body information including a human body feature through the photographed input image. A virtual character management module(200) generates a virtual character. The virtual character management module moves the virtual character according to the movement of the human body by matching the processed human body information with the virtual character. A rendering module(300) stores the movement of the virtual character in an image form.

Description

가상 캐릭터 제어 시스템 및 방법{SYSTEM AND METHOD FOR CONTROLLING VIRTUAL CHARACTER}SYSTEM AND METHOD FOR CONTROLLING VIRTUAL CHARACTER}

본 발명은 가상 캐릭터 제어 시스템 및 방법에 관한 것으로, 여가공간 및 교육공간과 같은 다양한 외부 공간에서, 카메라를 통해 들어오는 사용자의 신체 부위 이동 정보를 이용하여 가상 공간 상의 캐릭터 움직임을 제어하고, 캐릭터 움직임 영상을 타인과 공유할 수 있는 가상 캐릭터 제어 시스템 및 방법에 관한 것이다.
The present invention relates to a virtual character control system and method, in various external spaces such as leisure space and education space, to control the movement of the character in the virtual space using the movement information of the user's body parts coming through the camera, the character movement image The present invention relates to a virtual character control system and method that can share with others.

종래 엔터테인먼트 장치는 기존에 저장된 내용, 음악, 화상이 사용자의 제어에 의해 화면에 표시되고, 이 표시되는 내용, 음악, 화상을 시각, 청각 등으로 인지한다. 그리고, 사용자가 표시되는 정보에 적합한 동작을 따라함으로써 이를 숙지하였다. 즉, 가상 공간에서 제공된 캐릭터의 제어가 아닌, 가상 공간에서 제공된 캐릭터의 행동을 따라 자신의 행동이 제어된다. Conventionally, the entertainment apparatus displays contents, music, and images previously stored on the screen under the control of a user, and recognizes the displayed contents, music, and images by visual or audio. The user has been acquainted with this by following an operation suitable for the displayed information. That is, their behavior is controlled according to the behavior of the character provided in the virtual space, not the control of the character provided in the virtual space.

또는, 사람의 동작을 그대로 캡쳐, 수치화된 동작 정보를 시스템에 입력하여 입력된 동작 정보를 이용하여 캐릭터를 움직이게 한다. 물론 이를 모션 캡쳐 기술이라고 한다. 물론 이러한 모션 캡쳐 기술은 영화, 게임, 방송용 에니메이션 등에 많이 활용된다. 기존의 모션 캡쳐 기술은 기존에 저장되어 있는 정보가 단방향적인 성격을 가지고 있는 단점이 있다.
Alternatively, the motion of the person is captured as it is, and the digitized motion information is input to the system to move the character using the input motion information. Of course, this is called motion capture technology. Of course, such motion capture technology is widely used for movies, games, and broadcast animations. Conventional motion capture technology has a disadvantage that the information stored in the existing one-way has a one-way nature.

기존 엔터테인먼트에 사용되는 미디어의 표현 방식은 앞서 언급한 것과 같이 다양하지 못하고 이로인한 재미가 반감되는 문제가 있다. 더욱이 가상 공간에서, 사용자의 움직임을 따라 하는 캐릭터의 제어 기술을 통해, 실제 사용자의 움직임과 동일한 움직임을 하는 가상 공간의 캐릭터를 통해 재미와 몰입을 향상시킴과, 한정된 공간이 아닌 실생활(즉, 일상의 여유 공간과 교육 공간)에서 활용할 수 있는 엔터테인먼트 장치가 절실히 요구되고 있는 실정이다. As mentioned above, the expression method of the media used for the existing entertainment is not diverse and there is a problem that the fun is halved. Furthermore, in the virtual space, the character's control technology that follows the user's movement improves the fun and immersion through the character of the virtual space that has the same movement as the actual user's movement, and the real life (ie daily life, not limited space). There is an urgent need for entertainment devices that can be utilized in free space and education space.

따라서, 본 발명은 상기의 문제점을 해결하기 위하여 별도의 컨트롤러 없이 카메라를 통해 들어오는 사용자의 신체 부위 이동 정도를 통해 가상공간 상의 캐릭터의 움직임을 제어할 수 있고, 사용자에 따라 움직이는 가상공간 상의 캐릭터의 움직임을 에니메이션 형태로 저장하고, 이를 웹을 통해 배포 또는 전송할 수 있는 가상 캐릭터 제어 시스템 및 방법을 제공한다.
Therefore, the present invention can control the movement of the character in the virtual space through the degree of movement of the body part of the user coming through the camera without a separate controller to solve the above problems, the movement of the character in the virtual space moving according to the user It provides a virtual character control system and method that can be stored in the form of animation, and can be distributed or transmitted through the web.

본 발명에 따른 사용자의 신체를 촬영하는 카메라부와, 촬영된 입력 영상을 통해 신체 특징을 포함하는 신체 정보를 추출하는 특징부 추출부를 구비하는 입력 관리 모듈과, 가상 캐릭터를 생성하고, 처리된 신체 정보와 가상 캐릭터를 매칭시켜 신체의 이동과 동일하게 캐릭터를 이동시키는 가상 캐릭터 관리 모듈 및 상기 가상 캐릭터의 움직임을 영상으로 저장하는 랜더링 모듈을 포함하는 가상 캐릭터 제어 시스템을 제공한다. An input management module including a camera unit for photographing a user's body, a feature extractor for extracting body information including body features from the photographed input image, and a virtual character to be generated and processed. It provides a virtual character control system including a virtual character management module for matching the information and the virtual character to move the character in the same manner as the movement of the body and a rendering module for storing the movement of the virtual character as an image.

상기 특징부 추출부는 입력 영상을 전처리하는 전처리 모듈과, 전처리된 영상으로부터 얼굴부위를 검출하는 얼굴 검출 모듈과, 전처리된 영상으로부터 팔, 다리 몸통과 같은 신체 부위의 위치를 추출하는 신체 부위 추출 모듈을 포함하는 것을 특징으로 한다. The feature extractor may include a preprocessing module for preprocessing an input image, a face detection module for detecting a face portion from the preprocessed image, and a body region extraction module for extracting positions of body parts such as arms and legs from the preprocessed image. It is characterized by including.

상기 전처리 모듈은 입력 영상의 스케일을 변경하는 영상 스케일 변경부와, 영상의 컬러를 변경하는 컬러 변경부와, 히스토그램을 균등화하는 히스토그램 균등부를 포함하는 것을 특징으로 한다. The preprocessing module may include an image scale changing unit for changing the scale of the input image, a color changing unit for changing the color of the image, and a histogram equalizing unit for equalizing the histogram.

상기 얼굴 검출 모듈은 전처리된 영상에 CBCH 알고리즘을 적용시켜 얼굴을 영역을 검출하는 얼굴 영역 검출부와, 검출된 얼굴 영역 중 참여자의 얼굴을 검출하는 얼굴 선별부를 포함하는 것을 특징으로 한다. The face detection module may include a face area detection unit detecting a face area by applying a CBCH algorithm to a preprocessed image, and a face selection unit detecting a participant's face among the detected face areas.

상기 신체 부위 추출 모듈은 전처리된 영상에 CBCH 알고리즘을 통해 팔, 다리 및 몸통과 같은 신체 주요 부위를 검출하고, 신체 영역의 HSV(Hue-Saturation-Value) 칼라(Color) 히스토그램(Histogram)을 추출하고, 색상 확률 분포를 구하여 각 부위 영역을 추적하고, 검출된 신체 부위 영역으로 캠쉬프트(CAMshift)를 수행하는 것을 특징으로 한다. The body part extraction module detects main body parts such as arms, legs, and torso through the CBCH algorithm on the preprocessed image, extracts a hues-saturation-value color histogram of the body area, and To obtain a color probability distribution, each area region is tracked, and a camshift is performed to the detected body part region.

상기 가상 캐릭터 관리 모듈은 가상 공간과 가상 캐릭터를 생성하는 캐릭터 생성 모듈과, 추출된 얼굴 및 신체 부위 영역 위치 정보를 생성된 가상 캐릭터에 정합시키는 가상 캐릭터 설정 모듈과, 얼굴 및 신체 영역 이동 정보에 따라 가상 캐릭터의 움직임을 제어하는 캐릭터 제어 모듈과, 상기 가상 캐릭터와 가상 공간의 배경을 합성하여 표시하는 디스플레이 모듈을 포함하는 것을 특징으로 한다. The virtual character management module may include a character generation module for generating a virtual space and a virtual character, a virtual character setting module for matching the extracted face and body part region location information with the generated virtual character, and the face and body region movement information. Character control module for controlling the movement of the virtual character, and a display module for synthesizing and displaying the background of the virtual character and the virtual space.

또한, 본 발명에 따른 사람 형상의 3D 캐릭터를 생성하는 단계와, 카메라를 통해 사용자의 영상을 제공받는 단계와, 제공받은 상기 사용자 영상의 전처리를 통해 영상을 1차 편집하는 단계와, 전처리된 영상에서 사용자의 얼굴, 팔, 다리 및 몸통 등과 같은 신체부위 영역 정보를 추출하는 단계와, 상기 신체 부위 영역 정보를 상기 3D 캐릭터의 신체부위에 정합하는 단계와, 전처리된 영상으로부터 신체 부위의 이동 정보를 추출하는 단계 및 추출된 이동 정보를 이용하여 3D 캐릭터의 움직임을 제어하는 단계를 포함하는 것을 특징으로 하는 가상 캐릭터 제어 방법을 제공한다. In addition, the step of generating a human-shaped 3D character according to the present invention, receiving a user's image through a camera, primary editing of the image through pre-processing of the provided user image, pre-processed image Extracting body region information such as a user's face, arms, legs and torso, matching the body region region information to the body region of the 3D character, and moving the body region information from a preprocessed image. It provides a virtual character control method comprising the step of extracting and controlling the movement of the 3D character using the extracted movement information.

상기 영상의 전처리 단계는 영상을 다운 스케일 하여 그 용량을 줄이고, 컬러영상을 명암도 영상으로 변경하고, 히스토그램의 균등화를 수행하는 것을 포함하는 것을 특징으로 한다. The preprocessing of the image may include downsizing the image to reduce its capacity, changing the color image to a contrast image, and performing equalization of the histogram.

상기 신체부위 영역 정보는 전처리된 영역에서 CBCH 알고리즘을 이용하여 검출하고, 신체 부위 이동 정보는 CBCH 알고리즘을 통해 얻어진 신체 영역에서 HSV 칼라 히스토그램을 추출하고, 캠쉬프트(CAMshift)를 통해 각 부위 영역의 위치와 이의 이동 정보를 추적하여 추출하는 것을 특징으로 한다. The body region information is detected using the CBCH algorithm in the preprocessed region, the body region movement information is extracted from the HSV color histogram in the body region obtained through the CBCH algorithm, and the position of each region region through CAMshift. And extracting and tracking the movement information thereof.

상기 3D 캐릭터의 움직임을 제어하는 단계 이후에, 3D 캐릭터의 움직임을 영상으로 저장하는 것을 특징으로 한다. After controlling the movement of the 3D character, characterized in that for storing the movement of the 3D character as an image.

또한, 본 발명에 따른 제1항 내지 제6항 중 어느 한 항의 가상 캐릭터 제어 시스템의 3D 가상 캐릭터 제어 기능을 갖는 컴퓨터와, 상기 3D 가상 캐릭터가 표시되는 디스플레이 및 사용자를 촬영하는 카메라를 포함하는 것을 특징으로 하는 게임 장치를 제공한다.
In addition, a computer having a 3D virtual character control function of the virtual character control system of any one of claims 1 to 6 according to the present invention, a display on which the 3D virtual character is displayed and a camera for photographing the user It provides a game device characterized in that.

상술한 바와 같이 본 발명은 별도의 컨트롤러 없이 카메라를 통해 들어오는 사용자의 신체 부위 이동 정도를 통해 가상공간 상의 캐릭터의 움직임을 제어할 수 있다. 또한, 전처리 공정을 통해 영상 처리 시간을 단축시키고, 빠른 영상 처리를 실시할 수 있다. 또한, 사용자에 따라 움직이는 가상공간 상의 캐릭터의 움직임을 에니메이션 형태로 저장하고, 이를 웹을 통해 배포 또는 전송할 수 있다.
As described above, the present invention can control the movement of the character in the virtual space through the degree of movement of the body part of the user coming through the camera without a separate controller. In addition, the preprocessing process may shorten the image processing time and perform fast image processing. In addition, the movement of the character on the virtual space moving according to the user can be stored in the form of animation and distributed or transmitted through the web.

도 1은 본 발명의 일 실시예에 따른 가상 캐릭터 제어 시스템의 블록도.
도 2는 일 실시예의 입력 관리 모듈의 특징부 추출부에 대한 블록도.
도 3은 일 실시예의 가상 캐릭터 관리 모듈에 대한 블록도.
도 4는 본 발명의 일 실시예에 따른 가상 캐릭터 제어 방법을 설명하기 위한 흐름도.
도 5는 본 발명의 일 실시예에 따른 가상 캐릭터 제어 시스템이 적용된 게임 장치의 개념도.
1 is a block diagram of a virtual character control system according to an embodiment of the present invention.
2 is a block diagram of a feature extractor of an input management module in one embodiment;
3 is a block diagram of a virtual character management module of one embodiment.
4 is a flowchart illustrating a virtual character control method according to an embodiment of the present invention.
5 is a conceptual diagram of a game device to which the virtual character control system according to an embodiment of the present invention is applied.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 더욱 상세히 설명하기로 한다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 도면상에서 동일 부호는 동일한 요소를 지칭한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It will be apparent to those skilled in the art that the present invention may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, It is provided to let you know. Wherein like reference numerals refer to like elements throughout.

도 1은 본 발명의 일 실시예에 따른 가상 캐릭터 제어 시스템의 블록도이다. 1 is a block diagram of a virtual character control system according to an embodiment of the present invention.

도 2는 일 실시예의 입력 관리 모듈의 특징부 추출부에 대한 블록도이다. 도 3은 일 실시예의 가상 캐릭터 관리 모듈에 대한 블록도이다. 2 is a block diagram of a feature extractor of an input management module according to an embodiment. 3 is a block diagram of a virtual character management module according to one embodiment.

도 1 내지 도 3을 참조하면, 본 실시예의 가상 캐릭터 제어 시스템은, 사용자의 신체 정보를 입력받아 처리하는 입력 관리 모듈(100)과, 가상 캐릭터를 생성하고, 처리된 신체 정보와 가상 캐릭터를 매칭시켜 신체의 이동과 동일하게 캐릭터를 이동시키는 가상 캐릭터 관리 모듈(200)과, 상기 가상 캐릭터의 움직임을 영상으로 저장하고, 이를 웹을 통해 공유 또는 전송하는 랜더링 모듈(300)을 포함한다. 1 to 3, the virtual character control system according to the present embodiment generates an virtual character and an input management module 100 that receives and processes the user's body information, and matches the processed body information and the virtual character. And a virtual character management module 200 for moving the character in the same manner as the movement of the body, and a rendering module 300 for storing the movement of the virtual character as an image and sharing or transmitting the image through the web.

또한, 본 실시예의 가상 캐릭터 제어 시스템은 음악 또는 음향 정보를 사용자에게 제공하는 음악 관리 모듈과 데이터 및 정보가 저장되는 저장 모듈을 더 구비한다. In addition, the virtual character control system of the present embodiment further includes a music management module for providing music or sound information to a user and a storage module for storing data and information.

본 실시예의 입력 관리 모듈(100)은 사용자의 신체를 촬영하는 카메라부(110)와, 카메라부(110)에 의해 촬영된 영상을 통해 신체 특징부를 추출하는 특징부 추출부(120)를 포함한다. The input management module 100 of the present embodiment includes a camera unit 110 for capturing a user's body, and a feature extractor 120 for extracting a body feature from an image captured by the camera unit 110. .

카메라부(110)는 적어도 하나의 카메라와 이의 동작과 입력 영상을 제어하는 카메라 제어부를 구비한다. 본 실시예에서 사용되는 카메라는 특정한 카메라로 한정되지 않고, 영상을 촬영할 수 있는 다양한 카메라가 사용될 수 있다. 즉, 상가 카메라로 핸드폰 등과 같은 소형 전자 제품에 부착된 카메라를 사용할 수 있다. 이경우, 본 시스템과 접속하기 위한 별도의 배선이 필요하다. The camera unit 110 includes at least one camera and a camera controller for controlling an operation and an input image thereof. The camera used in the present embodiment is not limited to a specific camera, and various cameras capable of capturing an image may be used. That is, as a mall camera, a camera attached to a small electronic product such as a mobile phone can be used. In this case, a separate wiring for connection with this system is required.

특징부 추출부(120)는 도 2에 도시된 바와 같이 입력 영상을 전처리하는 전처리 모듈(121)과, 전처리된 영상으로부터 얼굴부위를 검출하는 얼굴 검출 모듈(122)과, 전처리된 영상으로부터 팔, 다리 몸통 등과 같은 신체 부위의 위치를 추출하는 신체 부위 추출 모듈(123)을 포함한다. The feature extractor 120 includes a preprocessing module 121 for preprocessing an input image, a face detection module 122 for detecting a face portion from the preprocessed image, an arm from the preprocessed image, as shown in FIG. And a body part extraction module 123 for extracting a position of a body part such as a leg torso.

일반적으로 카메라부(110)에서 획득한 영상은 사용자의 얼굴 영역 및 사용자의 다른 신체 뿐만 아니라 주변 환경의 영상이 합쳐져 있다. 따라서, 얼굴 및 다른 신체 부위의 검출 속도를 더욱 빠르게 하고 검출율을 높이기 위해 전처리 모듈(121)에서 전처리를 수행한다. In general, the image acquired by the camera unit 110 is combined with the image of the surrounding environment as well as the user's face region and the other body of the user. Accordingly, the preprocessing is performed in the preprocessing module 121 to speed up the detection of the face and other body parts and increase the detection rate.

전처리 모듈(121)은 입력 영상의 스케일을 변경하는 영상 스케일 변경부와, 영상의 컬러를 변경하는 컬러 변경부와, 히스토그램을 균등화하는 히스토그램 균등부를 구비한다. The preprocessing module 121 includes an image scale changing unit for changing the scale of the input image, a color changing unit for changing the color of the image, and a histogram equalizing unit for equalizing the histogram.

이에, 전처리 모듈(121)은 먼저, 카메라부(110)로 부터 입력된 영상의 스케일을 변경한다. 즉, 입력된 영상 스케일을 1로 할 경우 3/5 내지 1/5 크기로 변경하는 것이 효과적이다. 이때, 상기 범위보다 작을 경우에는 후속 처리 공정에서의 정확도가 저하되어 원활한 특징부 추출이 어려운 단점이 있다. 또한, 상기 범위보다 클 경우에는 이미지 처리에 수행되는 시간이 오래 걸려 리얼타임의 캐릭터 조정이 어려운 단점이 있다. 바람직하게는 입력된 영상의 1/2 스케일로 변경하는 것이 효과적이다. 이어서, 전처리 모듈(121)은 다운 스케일된 컬러 영상을 명암도 영상으로 변환한다. 이또한, 앞서 언급한 바와 같이 이미지 처리 시간을 단축시킬 수 있다. 이후에 히스토그램균등화를 통해 이미지 내의 흑백을 명확하게 구분한다. Thus, the preprocessing module 121 first changes the scale of the image input from the camera unit 110. That is, when the input image scale is 1, it is effective to change the size to 3/5 to 1/5. At this time, when the size is smaller than the above range, the accuracy in the subsequent processing is reduced, so that it is difficult to extract smooth features. In addition, if it is larger than the above range, it takes a long time to perform the image processing, it is difficult to adjust the character in real time. Preferably, it is effective to change to 1/2 scale of the input image. Subsequently, the preprocessing module 121 converts the downscaled color image into a contrast image. This can also shorten the image processing time as mentioned above. Later, histogram equalization clearly distinguishes black and white in the image.

상기 작업 중 각각의 결과가 전처리 모듈(121)에 의해 출력된다. Each result of the above operation is output by the preprocessing module 121.

얼굴 검출 모듈(122)은 CBCH 알고리즘을 적용시켜 얼굴을 영역을 검출하는 얼굴 영역 검출부와, 검출된 얼굴 영역 중 참여자의 얼굴을 검출하는 얼굴 선별부를 포함한다. The face detection module 122 includes a face area detector for detecting a face area by applying the CBCH algorithm, and a face selector for detecting a participant's face among the detected face areas.

얼굴 검출 모듈(122)은 CBCH(Cascade of boosted classifiers working haar-like feature)를 이용한 객체 검출 알고리즘을 사용한다. 본 실시예에서는 기존의 CBCH 알고리즘을 본 시스템에 적용하기 위해 인텔에서 제공한 OpenCV 1.0을 사용한다. The face detection module 122 uses an object detection algorithm using a cascade of boosted classifiers working haar-like feature (CBCH). In this embodiment, OpenCV 1.0 provided by Intel is used to apply the existing CBCH algorithm to the system.

또한, 본 실시예는 실제 참여자와 관전자를 선별하여 참여자의 얼굴만을 검출한다. 즉, CBCH 알고리즘으로 찾아진 모든 얼굴영역에 대한 얼굴 영역의 크기를 측정하고, 가장 큰 영역의 얼굴만을 검출한다. In addition, the present embodiment detects only the face of the participant by selecting the actual participant and the spectator. That is, the size of the face area for all face areas found by the CBCH algorithm is measured, and only the face of the largest area is detected.

얼굴 검출 모듈(122)은 전처리 모듈(121)에 의해 명암도 영상으로 변경된 이후 히스토그램균등화된 영상 정보를 이용한다. The face detection module 122 uses histogram-equalized image information after being changed to the contrast image by the preprocessing module 121.

신체 부위 추출 모듈은 CBCH 알고리즘을 통해 신체 주요 부위 영역을 검출하는 신체 영역 검출부와, 검출된 신체 영역에 대한 HSV 칼라 히스토그램을 추출하고, 캠쉬프트(CAMshift)를 통해 각 부위 영역의 위치와 이의 이동 정보를 추적하는 신체 영역 추적부를 포함한다. The body part extraction module extracts a body region detector that detects a main body region through the CBCH algorithm, an HSV color histogram of the detected body region, and positions and movement information of each region through CAMshift. It includes a body region tracking unit for tracking.

신체 부위 추출 모듈(123) 또한, CBCH 알고리즘을 통해 팔, 다리 및 몸통과 같은 신체 주요 부위를 검출한다. 즉, 판의 손 영역, 다리의 발 영역 및 몸통의 배 영역 중 적어도 하나의 영역을 검출한다. 효과적으로는 손 영역과 발 영역을 검출하는 것이 효과적이다. 이때, 신체 부위 추출 모듈(123)은 전처리 모듈(121)에 의해 다운 스케일된 영상 정보를 이용한다. 즉, 명암도 영상 변경 전단계의 영상 이미지를 사용한다. The body part extraction module 123 also detects major body parts such as arms, legs and torso through the CBCH algorithm. That is, at least one of the hand region of the plate, the foot region of the leg, and the belly region of the torso is detected. Effectively, it is effective to detect hand and foot areas. In this case, the body part extraction module 123 uses the downscaled image information by the preprocessing module 121. That is, the contrast level uses the image image of the previous stage of the image change.

따라서, 신체 부위 추출 모듈(123)은 CBCH 알고리즘을 이용하여 신체 영역을 검출한다. 이어서, 신체 영역의 HSV(Hue-Saturation-Value) 칼라(Color) 히스토그램(Histogram)을 추출하고, 색상 확률 분포를 구하여 각 부위 영역을 추적한다. Accordingly, the body part extraction module 123 detects a body region using the CBCH algorithm. Subsequently, a Hue-Saturation-Value (HSV) Color Histogram of a body region is extracted, and a color probability distribution is obtained to track each region region.

검출된 신체 부위 영역으로 캠쉬프트(CAMshift)를 수행한다. 이는 신체 부위 영역을 검출하였을 때, 신체 부위가 정면이 아니면 이를 효과적으로 찾지 못하지만, 캠쉬프트 알고리즘을 이용하여 신체 부위 각각의 위치 및 회전 정보를 획득할 수 있다. 즉, 캠쉬프트 알고리즘은 객체의 컬러 정보 즉, 컬러 확률 분포를 이용해 위치뿐만 아니라 회전각도, 크기까지 빠르게 계산해서 추적할 수 있기 때문이다. CAMshift is performed to the detected body part region. When the body part area is detected, the body part may not be effectively found if it is not the front, but the position and rotation information of each body part may be obtained using a camshift algorithm. That is, the camshift algorithm can quickly calculate and track not only the position but also the rotation angle and size using the color information of the object, that is, the color probability distribution.

따라서, 캠쉬프트를 통해 실시간으로 신체 부위가 어떻게 변하는지를 지속적으로 추적할 수 있다. 신체 부위 추출 모듈(123)은 캠쉬프트를 통해 획득된 신체 부위의 위치 및 기울어짐 정보를 이용하여 신체 부위의 이동 정보를 획득하고, 획득된 정보를 저장한다. Therefore, the camshift can continuously track how body parts change in real time. The body part extraction module 123 obtains movement information of the body part by using the position and inclination information of the body part obtained through the camshift, and stores the obtained information.

상술한 설명에서, 얼굴 검출 모듈(122)과, 신체 부위 추출 모듈(123)이 분리됨을 중심으로 설명하였다. 하지만, 본 실시예에서는 이에 한정되지 않고, 두 모듈이 신체 추출 모듈로 통합 운영될 수 있다. 또한, 얼굴 검출 모듈(122) 또한, 캠 쉬프트를 통해 얼굴의 이동 정보를 얻을 수 있다. In the above description, the face detection module 122 and the body part extraction module 123 have been described with a focus on separation. However, the present embodiment is not limited thereto, and the two modules may be integrated and operated as the body extraction module. In addition, the face detection module 122 may also obtain movement information of the face through a cam shift.

그리고, 상술한 얼굴 검출 모듈(122)과 신체 부위 추출 모듈(123)을 통해 각기 얼굴 영역 위치 및 이동 정보와 신체 부위 영역 위치 및 이동 정보가 생성 된다. 필요에 따라 얼굴 검출 모듈(122)은 얼굴 영역에 대응하는 이미지 정보를 제공할 수 있다. The face region module 122 and the body region extraction module 123 described above generate face region position and movement information and body region region position and movement information, respectively. If necessary, the face detection module 122 may provide image information corresponding to the face area.

다음으로 가상 캐릭터 관리 모듈(200)은 도 3에 도시된 바와 같이 가상 공간과 가상 캐릭터를 생성하는 캐릭터 생성 모듈(210)과, 추출된 얼굴 및 신체 부위 영역 위치 정보를 생성된 가상 캐릭터에 정합시키는 가상 캐릭터 설정 모듈(220)과, 얼굴 및 신체 영역 이동 정보에 따라 가상 캐릭터의 움직임을 제어하는 캐릭터 제어 모듈(230)과, 상기 가상 캐릭터와 가상 공간의 배경을 합성하여 표시하는 디스플레이 모듈(240)을 구비한다. Next, as shown in FIG. 3, the virtual character management module 200 matches the character generation module 210 that generates the virtual space and the virtual character, and the extracted face and body part region location information with the generated virtual character. The virtual character setting module 220, a character control module 230 for controlling the movement of the virtual character according to the face and body region movement information, and a display module 240 for synthesizing and displaying the background of the virtual character and the virtual space. It is provided.

캐릭터 생성 모듈(210)은 가상 공간 및 가상 공간에서 사용하는 배경 및 가상 캐릭터를 생성한다. 이때, 생성된 가상 캐릭터와 가상 공간은 3D타입인 것이 효과적이다. 즉, 캐릭터 생성 모듈(210)은 3D 가상 캐릭터를 생성한다. 이때, 생성된 가상 캐릭터는 하나 이상인 것이 효과적이다. 또한, 사용자의 입력에 따라 다양한 형태의 3D 가상 캐릭터를 제작할 수 있다. 이때, 모션 캡쳐를 이용하여 캐릭터 동작을 구현하는 것이 바람직하다. The character generation module 210 generates a virtual space and a background and a virtual character used in the virtual space. At this time, it is effective that the generated virtual character and virtual space are 3D type. That is, the character generation module 210 generates a 3D virtual character. At this time, it is effective that at least one generated virtual character. In addition, various types of 3D virtual characters may be produced according to a user input. In this case, it is preferable to implement the character motion using motion capture.

가상 캐릭터 설정 모듈(220)은 특징부 추출부(120)의 얼굴 영역 위치 정보와 신체 부위 영역 위치 정보를 각기 3D 가상 캐릭터의 해당 영역에 정합(즉, 일치)시킨다. 즉, 가상 캐릭터 설정 모듈(220)은 얼굴 및 신체 부위 영역 위치 정보에서 좌표 데이터를 추출하고, 3D 가상 캐릭터의 얼굴 및 신체 영역의 좌표 데이터를 추출하는 좌표 추출부와, 상기 추출된 좌표를 정합하는 좌표 정합부를 구비한다. The virtual character setting module 220 matches (ie, matches) the face region position information and the body region region information of the feature extractor 120 to the corresponding region of the 3D virtual character. That is, the virtual character setting module 220 extracts coordinate data from the face and body region region location information, matches a coordinate extractor for extracting coordinate data of the face and body region of the 3D virtual character, and the extracted coordinates. A coordinate matching unit is provided.

가상 캐릭터 설정 모듈은 카메라로 촬영되어 추출된 사용자의 신체 영역과 3D 캐릭터의 신체 영역간을 정합시킨다. The virtual character setting module matches the body region of the user and the body region of the 3D character photographed and extracted by the camera.

캐릭터 제어 모듈(230)은 특징부 추출부(120)의 얼굴 영역 이동 정보와 신체 부위 영역 이동 정보에 따라 상기 3D 가상 캐릭터의 움직임을 제어한다. The character control module 230 controls the movement of the 3D virtual character according to the face region movement information and the body region region movement information of the feature extractor 120.

즉, 캐릭터 제어 모듈(230)은 얼굴 및 신체 영역 이동 정보에서 얼굴 및 신체의 이동 위치를 측정하는 이동 위치 측정부와, 측정된 이동 위치값의 상대적 이동 거리만큼 상기 3D 가상 캐릭터의 해당 영역을 이동시키는 캐릭터 이동부를 포함한다. 이때, 상기 캐릭터 제어 모듈(230)은 3차원 정보를 처리하는 것이 효과적이다. That is, the character control module 230 moves a corresponding position of the 3D virtual character by a moving position measuring unit measuring a moving position of a face and a body in the face and body region movement information and a relative moving distance of the measured moving position value. It includes a character moving unit. In this case, it is effective that the character control module 230 processes three-dimensional information.

디스플레이 모듈(240)은 사용자의 신체 이동 정보에 따라 가상 공간에서 움직이는 3D 가상 캐릭터와 배경을 합성한다. 또한, 배경과 합성된 3D 가상 캐릭터를 화면 표시 장치에 표시한다. The display module 240 synthesizes the 3D virtual character and the background moving in the virtual space according to the user's body movement information. In addition, the 3D virtual character synthesized with the background is displayed on the screen display device.

랜더링 모듈(300)은 가상 캐릭터 관리 모듈(200)에 의해 움직이는 3D 가상 캐릭터를 영상으로 저장하는 영상 저장부와, 저장된 영상을 네트웍을 통해 공유 또는 전송하는 영상 전송부를 구비한다. The rendering module 300 includes an image storage unit storing the 3D virtual character moving by the virtual character management module 200 as an image, and an image transmitting unit sharing or transmitting the stored image through a network.

상술한 시스템을 통해 별도의 컨트롤러를 사용하지 않고도 사용자(즉, 참여자)의 움직임과 동일하게 3D 가상 캐릭터를 움직이게 할 수 있다. Through the above-described system, the 3D virtual character can be moved in the same manner as the movement of the user (ie, the participant) without using a separate controller.

도 4는 본 발명의 일 실시예에 따른 가상 캐릭터 제어 방법을 설명하기 위한 흐름도이다. 4 is a flowchart illustrating a virtual character control method according to an embodiment of the present invention.

도 4에 도시된 바와 같이 사람 형상의 3D 캐릭터를 생성한다(S110). 이때, 모션 캡쳐 방식을 이용하여 사람의 형상과 동일한 캐릭터를 생성할 수 있다. As shown in FIG. 4, a 3D character having a human shape is generated (S110). In this case, a character identical to a human shape may be generated by using a motion capture method.

이어서, 카메라를 통해 사용자의 영상을 제공받는다(S120). 본 실시예에서는 별도의 컨트롤러를 사용하지 않고, 단지 카메라만을 이용하여 사용자 정보를 제공 받는다. Subsequently, an image of the user is provided through the camera (S120). In the present embodiment, user information is provided using only a camera without using a separate controller.

이어서, 제공받은 사용자 영상의 전처리를 통해 영상을 1차 편집한다(S130). Subsequently, the image is first edited through preprocessing of the provided user image (S130).

즉, 카메라로부터 제공된 영상을 다운 스케일 하여 그 용량을 줄이고, 컬러영상을 명암도 영상으로 변경한다. 또한, 히스토그램을 균등화를 수행한다. In other words, the image provided from the camera is downscaled to reduce its capacity, and the color image is changed to the contrast image. In addition, the histogram is equalized.

이어서, 전처리된 영상에서 사용자의 얼굴, 팔, 다리 및 몸통 등과 같은 신체부위 영역 정보를 추출한다(S140). 즉, 전처리된 영역에서 CBCH 알고리즘을 이용하여 신체 영역을 검출한다. Subsequently, body region information such as a face, an arm, a leg, a torso, and the like of the user is extracted from the preprocessed image (S140). That is, the body region is detected using the CBCH algorithm in the preprocessed region.

이어서, 상기 신체 부위 영역 정보를 상기 3D 캐릭터의 신체부위에 정합시킨다(S150). 이는 제공된 신체 부위 영역 정보에서 각 정보들이 갖는 좌표와 3D 캐릭터의 신체 부위가 갖는 좌표를 일치시킨다. Subsequently, the body part region information is matched with the body part of the 3D character (S150). This matches the coordinates of each piece of information with the coordinates of the body part of the 3D character in the provided body part area information.

이어서, 전처리된 영상으로부터 신체 부위의 이동 정보를 추출한다(S160). Subsequently, movement information of the body part is extracted from the preprocessed image (S160).

즉, CBCH 알고리즘을 통해 얻어진 신체 영역에서 HSV 칼라 히스토그램을 추출하고, 캠쉬프트(CAMshift)를 통해 각 부위 영역의 위치와 이의 이동 정보를 추적하여 신체 부위 이동 정보를 추출한다. That is, the HSV color histogram is extracted from the body region obtained through the CBCH algorithm, and the body region movement information is extracted by tracking the position of each region region and its movement information through CAMshift.

이어서, 추출된 이동 정보를 이용하여 3D 캐릭터의 움직임을 제어한다(S170). 또한, 본 실시예에서는 3D 캐릭터의 움직임을 영상으로 저장한다(S180). Subsequently, the movement of the 3D character is controlled using the extracted movement information (S170). In the present embodiment, the movement of the 3D character is stored as an image (S180).

그리고, 저장된 영상을 네트워크를 통해 저장 또는 전송할 수 있다. The stored image may be stored or transmitted through a network.

또한, 본 발명은 상술한 가상 캐릭터 제어 시스템이 적용된 게임 장치를 제공할 수 있다. In addition, the present invention can provide a game device to which the above-described virtual character control system is applied.

도 5는 본 발명의 일 실시예에 따른 가상 캐릭터 제어 시스템이 적용된 게임 장치의 개념도이다. 5 is a conceptual diagram of a game device to which a virtual character control system according to an embodiment of the present invention is applied.

도 5에 도시된 바와 같이, 가상 캐릭터 제어 시스템이 적용된 게임 장치는 가상 캐릭터 제어 기능을 갖는 컴퓨터(1000)와, 3D 가상 캐릭터가 표시되는 디스플레이(2000)와, 사용자를 촬영하는 카메라(3000)를 포함한다. As shown in FIG. 5, the game device to which the virtual character control system is applied includes a computer 1000 having a virtual character control function, a display 2000 on which a 3D virtual character is displayed, and a camera 3000 photographing a user. Include.

이를 통해 카메라(3000)를 통해 사용자의 영상을 촬영하고, 촬영된 영상을 가상 캐릭터 제어 기능을 갖는 컴퓨터(1000)에 전송한다. 이때, 상기 영상 정보를 디지털화하여 제공하는 것이 효과적이다. 컴퓨터(1000)는 제공받은 영상 정보에서 신체 영역 정보를 추출하고, 3D 가상 캐릭터를 생성하고 이를 디스플레이(2000)에 표시한다. Through this, the user's image is captured by the camera 3000 and the captured image is transmitted to the computer 1000 having the virtual character control function. In this case, it is effective to digitize and provide the image information. The computer 1000 extracts body region information from the provided image information, generates a 3D virtual character, and displays it on the display 2000.

그리고, 컴퓨터(1000)는 사용자의 신체 영역 정보를 3D 가상 캐릭터의 신체 영역에 정합시킨다. 이후, 사용자의 영상에서 신체 영역 이동 정보를 추출하고, 이를 3D 가상 캐릭터에 적용하여 3D 가상 캐릭터의 움직임을 제어한다. 또한, 이러한 3D 가상 캐릭터의 움직임을 디스플레이(2000)에 표시한다. The computer 1000 then matches the body region information of the user with the body region of the 3D virtual character. Thereafter, the body region movement information is extracted from the user's image and applied to the 3D virtual character to control the movement of the 3D virtual character. In addition, the movement of the 3D virtual character is displayed on the display 2000.

그리고, 상술한 동작은 가상 캐릭터 제어 모듈(즉, 제어 시스템)에 의해 수행된다. 물론, 이러한 가상 캐릭터 제어 모듈은 프로그램 형태로 컴퓨터(1000)에 임베디드되거나, 별도의 보드 타입으로 컴퓨터(1000)에 장착될 수 있다. In addition, the above-described operation is performed by a virtual character control module (ie, a control system). Of course, the virtual character control module may be embedded in the computer 1000 in the form of a program, or may be mounted in the computer 1000 as a separate board type.

또한, 상기 가상 캐릭터 제어 시스템은 디스플레이(2000)에 표시되는 3D 가상 캐릭터의 움직임을 녹화하고 이를 저장한다. 사용자의 요청에 따라 녹화된 3D 가상 캐릭터의 움직임 영상을 웹 상에 공유하거나, 특정 단말에 이를 전송시킬 수 있다. In addition, the virtual character control system records the movement of the 3D virtual character displayed on the display 2000 and stores it. At the request of the user, the motion image of the recorded 3D virtual character may be shared on the web or transmitted to a specific terminal.

이를 통해, 사용자의 동작 또는 움직임을 외부에서 관찰하고 교정 또는 정정할 수 있게 된다. Through this, the user's motion or movement can be observed from outside and corrected or corrected.

또한, 상기 디스플레이(2000)에는 임베디드 형태로 음악과 같은 음향을 방출하는 스피커(미도시)가 구비될 수 있다. 그리고, 외부로부터 음향을 제공받기 위한 마이크가 구비될 수도 있다. 이를 통해 본 실시예의 게임 장치를 노래방과 같은 장치로 사용할 수 있다. 물론, 본 게임 장치는 게임에 한정되지 않고, 교육 또는 공익적인 곳에도 사용될 수 있다. In addition, the display 2000 may include a speaker (not shown) that emits a sound such as music in an embedded form. And, a microphone for receiving sound from the outside may be provided. Through this, the game device of the present embodiment can be used as a device such as karaoke. Of course, the game device is not limited to games, but can be used in educational or public interest places.

그리고, 본 실시예에서는 디스플레이(2000)와 컴퓨터(1000)가 분리배치됨을 도시하였지만, 이에 한정되지 않고, 컴퓨터(1000)가 디스플레이(2000) 내에 임베디드될 수 있다. In the present embodiment, the display 2000 and the computer 1000 are separately arranged, but the present invention is not limited thereto, and the computer 1000 may be embedded in the display 2000.

상기에서 설명한 본 발명의 기술적 사상은 바람직한 실시예에서 구체적으로 기술되었으나, 상기한 실시예는 그 설명을 위한 것이며 그 제한을 위한 것이 아님을 주의하여야 한다. 또한, 본 발명은 본 발명의 기술 분야의 통상의 전문가라면 본 발명의 기술적 사상의 범위 내에서 다양한 실시예가 가능함을 이해할 수 있을 것이다.Although the technical spirit of the present invention described above has been described in detail in a preferred embodiment, it should be noted that the above-described embodiment is for the purpose of description and not of limitation. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention.

100 : 입력 관리 모듈 110 : 카메라부
120 : 특징부 추출부 121 : 전처리 모듈
122 : 얼굴 검출 모듈 123 : 신체 부위 추출 모듈
200 : 가상 캐릭터 관리 모듈 210 : 캐릭터 생성 모듈
220 : 가상 캐릭터 설정 모듈 230 : 캐릭터 제어 모듈
240 : 디스플레이 모듈 300 : 랜더링 모듈
100: input management module 110: camera unit
120: feature extraction unit 121: preprocessing module
122: face detection module 123: body part extraction module
200: virtual character management module 210: character generation module
220: virtual character setting module 230: character control module
240: display module 300: rendering module

Claims (11)

사용자의 신체를 촬영하는 카메라부와, 촬영된 입력 영상을 통해 신체 특징을 포함하는 신체 정보를 추출하는 특징부 추출부를 구비하는 입력 관리 모듈;
가상 캐릭터를 생성하고, 처리된 신체 정보와 가상 캐릭터를 매칭시켜 신체의 이동과 동일하게 캐릭터를 이동시키는 가상 캐릭터 관리 모듈; 및
상기 가상 캐릭터의 움직임을 영상으로 저장하는 랜더링 모듈을 포함하는 것을 특징으로 하는 가상 캐릭터 제어 시스템.
An input management module having a camera unit for photographing a user's body and a feature extractor for extracting body information including body features from the photographed input image;
A virtual character management module for generating a virtual character and matching the processed body information with the virtual character to move the character in the same manner as the movement of the body; And
And a rendering module for storing the movement of the virtual character as an image.
제1항에 있어서,
상기 특징부 추출부는 입력 영상을 전처리하는 전처리 모듈과, 전처리된 영상으로부터 얼굴부위를 검출하는 얼굴 검출 모듈과, 전처리된 영상으로부터 팔, 다리 몸통과 같은 신체 부위의 위치를 추출하는 신체 부위 추출 모듈을 포함하는 것을 특징으로 하는 가상 캐릭터 제어 시스템.
The method of claim 1,
The feature extractor may include a preprocessing module for preprocessing an input image, a face detection module for detecting a face portion from the preprocessed image, and a body region extraction module for extracting positions of body parts such as arms and legs from the preprocessed image. Virtual character control system comprising a.
제2항에 있어서,
상기 전처리 모듈은 입력 영상의 스케일을 변경하는 영상 스케일 변경부와, 영상의 컬러를 변경하는 컬러 변경부와, 히스토그램을 균등화하는 히스토그램 균등부를 포함하는 것을 특징으로 하는 가상 캐릭터 제어 시스템.
The method of claim 2,
The preprocessing module includes a video scale changing unit for changing the scale of the input image, a color changing unit for changing the color of the image, and a histogram equalizing unit for equalizing the histogram.
제2항에 있어서,
상기 얼굴 검출 모듈은 전처리된 영상에 CBCH 알고리즘을 적용시켜 얼굴을 영역을 검출하는 얼굴 영역 검출부와, 검출된 얼굴 영역 중 참여자의 얼굴을 검출하는 얼굴 선별부를 포함하는 것을 특징으로 하는 가상 캐릭터 제어 시스템.
The method of claim 2,
The face detection module includes a face region detector for detecting a region of a face by applying a CBCH algorithm to a preprocessed image, and a face selector for detecting a participant's face among the detected face regions.
제2항에 있어서,
상기 신체 부위 추출 모듈은 전처리된 영상에 CBCH 알고리즘을 통해 팔, 다리 및 몸통과 같은 신체 주요 부위를 검출하고, 신체 영역의 HSV(Hue-Saturation-Value) 칼라(Color) 히스토그램(Histogram)을 추출하고, 색상 확률 분포를 구하여 각 부위 영역을 추적하고, 검출된 신체 부위 영역으로 캠쉬프트(CAMshift)를 수행하는 것을 특징으로 하는 가상 캐릭터 제어 시스템.
The method of claim 2,
The body part extraction module detects main body parts such as arms, legs, and torso through the CBCH algorithm on the preprocessed image, extracts a hues-saturation-value color histogram of the body area, and Obtaining a color probability distribution, tracing each area region, and performing a CAMshift to the detected body region region.
제1항에 있어서,
상기 가상 캐릭터 관리 모듈은 가상 공간과 가상 캐릭터를 생성하는 캐릭터 생성 모듈과, 추출된 얼굴 및 신체 부위 영역 위치 정보를 생성된 가상 캐릭터에 정합시키는 가상 캐릭터 설정 모듈과, 얼굴 및 신체 영역 이동 정보에 따라 가상 캐릭터의 움직임을 제어하는 캐릭터 제어 모듈과, 상기 가상 캐릭터와 가상 공간의 배경을 합성하여 표시하는 디스플레이 모듈을 포함하는 것을 특징으로 하는 가상 캐릭터 제어 시스템.
The method of claim 1,
The virtual character management module may include a character generation module for generating a virtual space and a virtual character, a virtual character setting module for matching the extracted face and body part region location information with the generated virtual character, and the face and body region movement information. And a display module for synthesizing and displaying the background of the virtual character and the virtual space.
사람 형상의 3D 캐릭터를 생성하는 단계;
카메라를 통해 사용자의 영상을 제공받는 단계;
제공받은 상기 사용자 영상의 전처리를 통해 영상을 1차 편집하는 단계;
전처리된 영상에서 사용자의 얼굴, 팔, 다리 및 몸통 등과 같은 신체부위 영역 정보를 추출하는 단계;
상기 신체 부위 영역 정보를 상기 3D 캐릭터의 신체부위에 정합하는 단계;
전처리된 영상으로부터 신체 부위의 이동 정보를 추출하는 단계; 및
추출된 이동 정보를 이용하여 3D 캐릭터의 움직임을 제어하는 단계를 포함하는 것을 특징으로 하는 가상 캐릭터 제어 방법.
Generating a 3D character in a human shape;
Receiving an image of a user through a camera;
Primary editing the image through preprocessing of the provided user image;
Extracting body region information such as a face, an arm, a leg and a torso of a user from a preprocessed image;
Matching the body part region information to the body part of the 3D character;
Extracting movement information of the body part from the preprocessed image; And
And controlling the movement of the 3D character using the extracted movement information.
제7항에 있어서,
상기 영상의 전처리 단계는 영상을 다운 스케일 하여 그 용량을 줄이고, 컬러영상을 명암도 영상으로 변경하고, 히스토그램의 균등화를 수행하는 것을 특징으로 하는 가상 캐릭터 제어 방법.
The method of claim 7, wherein
The pre-processing of the image comprises scaling down the image to reduce its capacity, changing the color image to the contrast image, and performing an equalization of the histogram.
제7항에 있어서,
상기 신체부위 영역 정보는 전처리된 영역에서 CBCH 알고리즘을 이용하여 검출하고, 신체 부위 이동 정보는 CBCH 알고리즘을 통해 얻어진 신체 영역에서 HSV 칼라 히스토그램을 추출하고, 캠쉬프트(CAMshift)를 통해 각 부위 영역의 위치와 이의 이동 정보를 추적하여 추출하는 것을 특징으로 하는 가상 캐릭터 제어 방법.
The method of claim 7, wherein
The body region information is detected using the CBCH algorithm in the preprocessed region, the body region movement information is extracted from the HSV color histogram in the body region obtained through the CBCH algorithm, and the position of each region region through CAMshift. And extracting by tracking the movement information thereof.
제7항에 있어서,
상기 3D 캐릭터의 움직임을 제어하는 단계 이후에, 3D 캐릭터의 움직임을 영상으로 저장하는 것을 특징으로 하는 가상 캐릭터 제어 방법.
The method of claim 7, wherein
After controlling the movement of the 3D character, the virtual character control method, characterized in that for storing the movement of the 3D character as an image.
제1항 내지 제6항 중 어느 한 항의 가상 캐릭터 제어 시스템의 3D 가상 캐릭터 제어 기능을 갖는 컴퓨터;
상기 3D 가상 캐릭터가 표시되는 디스플레이; 및
사용자를 촬영하는 카메라를 포함하는 것을 특징으로 하는 게임 장치.
A computer having a 3D virtual character control function of the virtual character control system of any one of claims 1 to 6;
A display on which the 3D virtual character is displayed; And
Game device comprising a camera for photographing the user.
KR1020110012917A 2011-02-14 2011-02-14 System and method for controlling virtual character KR20120092960A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110012917A KR20120092960A (en) 2011-02-14 2011-02-14 System and method for controlling virtual character

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110012917A KR20120092960A (en) 2011-02-14 2011-02-14 System and method for controlling virtual character

Publications (1)

Publication Number Publication Date
KR20120092960A true KR20120092960A (en) 2012-08-22

Family

ID=46884733

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110012917A KR20120092960A (en) 2011-02-14 2011-02-14 System and method for controlling virtual character

Country Status (1)

Country Link
KR (1) KR20120092960A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180024671A (en) * 2016-08-31 2018-03-08 김봉한 standing sign board
CN113841182A (en) * 2019-06-28 2021-12-24 多玩国株式会社 Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
KR20220073391A (en) 2020-11-26 2022-06-03 주식회사 케이티 Server, user device and computer program for providing video contents with avatar

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180024671A (en) * 2016-08-31 2018-03-08 김봉한 standing sign board
CN113841182A (en) * 2019-06-28 2021-12-24 多玩国株式会社 Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
US11979684B2 (en) 2019-06-28 2024-05-07 Dwango Co., Ltd. Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method
KR20220073391A (en) 2020-11-26 2022-06-03 주식회사 케이티 Server, user device and computer program for providing video contents with avatar

Similar Documents

Publication Publication Date Title
US11094131B2 (en) Augmented reality apparatus and method
WO2017033853A1 (en) Image processing device and image processing method
US11361542B2 (en) Augmented reality apparatus and method
US10293252B2 (en) Image processing device, system and method based on position detection
US9491441B2 (en) Method to extend laser depth map range
JP6258953B2 (en) Fast initialization for monocular visual SLAM
JP5791433B2 (en) Information processing program, information processing system, information processing apparatus, and information processing method
JP6340017B2 (en) An imaging system that synthesizes a subject and a three-dimensional virtual space in real time
CN106027855B (en) A kind of implementation method and terminal of virtual rocker arm
JP2018180655A (en) Image processing device, image generation method, and program
JP7127659B2 (en) Information processing device, virtual/reality synthesis system, method for generating learned model, method for executing information processing device, program
JP2022166078A (en) Composing and realizing viewer's interaction with digital media
CN106464773B (en) Augmented reality device and method
JP2020087277A (en) Video synthesizer, method for synthesizing video, and video synthesizing program
JP2023133397A (en) Image processing device, image processing method, and image processing system
CN112581571A (en) Control method and device of virtual image model, electronic equipment and storage medium
US20190340773A1 (en) Method and apparatus for a synchronous motion of a human body model
US9261974B2 (en) Apparatus and method for processing sensory effect of image data
CN113870213A (en) Image display method, image display device, storage medium, and electronic apparatus
KR20120092960A (en) System and method for controlling virtual character
JP2017156880A (en) Image processing device and image processing method
KR20190074911A (en) Method for providing realistic type image contents and server using the same
JP2018116421A (en) Image processing device and image processing method
Luo et al. Research and simulation on virtual movement based on kinect

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid