KR20100075356A - Apparatus and method for detecting upper body pose and hand shape - Google Patents

Apparatus and method for detecting upper body pose and hand shape Download PDF

Info

Publication number
KR20100075356A
KR20100075356A KR1020090064638A KR20090064638A KR20100075356A KR 20100075356 A KR20100075356 A KR 20100075356A KR 1020090064638 A KR1020090064638 A KR 1020090064638A KR 20090064638 A KR20090064638 A KR 20090064638A KR 20100075356 A KR20100075356 A KR 20100075356A
Authority
KR
South Korea
Prior art keywords
image
color
hand
upper body
pattern
Prior art date
Application number
KR1020090064638A
Other languages
Korean (ko)
Other versions
KR101158016B1 (en
Inventor
신호철
황대환
정재찬
임을균
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US12/620,734 priority Critical patent/US8442267B2/en
Publication of KR20100075356A publication Critical patent/KR20100075356A/en
Application granted granted Critical
Publication of KR101158016B1 publication Critical patent/KR101158016B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • G06F2218/04Denoising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands

Abstract

PURPOSE: An apparatus and a method for detecting an upper body pose and a hand shape are provided to grasp peripheral environments in 3 dimension when using at least two cameras. CONSTITUTION: A stereo vision computing unit(300) calculates three dimensional distance information from the image provided form at least two cameras(101-103), and a color pattern classification unit(400) outputs the color information and the pattern information by classifying the color and the pattern from the images. Plural location detecting units(610-650) extract 3D location information for each target, and an upper body pose recognition unit(710) recognizes an upper body by using the 3D location information for each target. A hand shape recognition unit(720) recognizes the shape of a hand by using the hand location information.

Description

상체자세 및 손모양 검출 장치 및 그 방법{Apparatus and method for detecting upper body pose and hand shape}Apparatus and method for detecting upper body pose and hand shape}

본 발명은 상체자세 및 손모양 검출 장치 및 그 방법에 관한 것으로서, 상체자세와 세밀한 손의 모양을 개별적으로 계산하여 검출할 수 있고, 또한 실시간으로 검출하며, 검출하는데 필요한 계산 시간을 줄일 수 있는 상체자세 및 손모양 검출 장치 및 그 방법에 관한 것이다.The present invention relates to an upper body posture and a hand-shaped detection device and a method thereof, wherein the upper body posture and the shape of the fine hand can be calculated and detected separately, and can also be detected in real time and can reduce the calculation time required for detection. It relates to a posture and hand-shaped detection device and a method thereof.

본 발명은 지식경제부의 IT원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2008-F-037-01, 과제명: u-로봇 HRI 솔루션 및 핵심 소자 기술 개발].The present invention is derived from a study conducted as part of the IT source technology development project of the Ministry of Knowledge Economy [Task management number: 2008-F-037-01, Task name: u-robot HRI solution and core device technology development].

종래에는, 사람의 형상 또는 동작을 검출하기 위해서는 배경스크린 또는 기준 배경화면이 필요하였다. 즉, 기준 배경화면(또는 배경 스크린)과 현재화면 간의 차이를 이용하여, 신체 각 부위의 덩어리를 만들고, 각 덩어리를 이용하여 인체 모델을 구성하였다. 또는 인체모델 또는 사람의 형상 또는 동작을 검출하기 위해서 특징점을 추출한 후에 각 특징점에 대한 3차원 위치계산을 하였다.In the past, a background screen or a reference background screen was required to detect the shape or motion of a person. In other words, by using the difference between the reference background (or the background screen) and the current screen, a mass of each part of the body was made, and the human body model was constructed using each mass. Or after extracting the feature points to detect the shape or motion of the human body model or human, three-dimensional position calculation for each feature point was performed.

따라서 종래에는, 사람의 형상 또는 동작을 검출하기 위해서는 배경스크린 또는 기준 배경화면이 필요로 하거나, 실질적으로 손의 모양과 같은 세밀한 동작은 검출이 불가능하였고, 계산 시간이 많이 걸리는 등의 단점이 있었다.Therefore, in the related art, a background screen or a reference background screen is required to detect a shape or a motion of a person, or a detailed motion such as the shape of a hand cannot be detected, and it takes a lot of calculation time.

발명은 전술한 종래기술의 문제점을 해결하기 위하여, 스테레오 비전과 패턴색상 분류기를 사용하여 얼굴, 몸통, 어깨, 팔꿈치, 손의 3차원 위치와 손의 모양을 직접 검출할 수 있는 상체자세 및 손모양 검출 장치 및 그 방법을 제공한다.In order to solve the problems of the prior art described above, the upper body posture and hand shape that can directly detect the three-dimensional position and shape of the hand, face, torso, shoulder, elbow, hand using stereo vision and pattern color classifier A detection apparatus and a method thereof are provided.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the above-mentioned object, and other objects that are not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 목적을 달성하기 위한 본 발명의 일면에 따른 상체자세 및 손모양 검출 장치는, 적어도 두개의 카메라로부터 제공되는 영상으로부터 3차원 거리정보를 계산하는 스테레오 비전 계산부와, 상기 영상으로부터 색상 및 패턴을 분류하여 색상 정보와 패턴 정보를 출력하는 색상패턴 분류부와, 상기 3차원 거리정보와 상기 색상 정보 및 상기 패턴 정보를 이용하여 각 대상체별로 3차원 위치 정보를 추출하는 다수의 위치 검출부와, 상기 대상체별 3차원 위치 정보를 이용하여 상체자세를 인식하는 상체자세 인식부 및 상기 대상체별 3차원 위치 정보 중 손 위치 정보를 이용하여 손의 모양을 인식하는 손모양 인식부를 포함한다.According to an aspect of the present invention, there is provided an upper body posture and a hand shape detecting apparatus, including: a stereo vision calculator configured to calculate 3D distance information from an image provided from at least two cameras, and a color and a pattern from the image. A color pattern classification unit for classifying the color information and pattern information, a plurality of position detection units for extracting 3D position information for each object by using the 3D distance information, the color information, and the pattern information; The upper body posture recognition unit recognizes the upper body posture by using the three-dimensional position information for each object, and a hand shape recognition unit that recognizes the shape of the hand using the hand position information among the three-dimensional position information for each object.

본 발명의 다른 면에 따른 상체자세 및 손모양 검출 장치는, 적어도 두개의 카메라로부터 제공되는 영상으로부터 3차원 거리정보를 계산하는 스테레오 비전 계산부와, 상기 영상으로부터 피부색을 갖는 영역을 검출하는 색상 검출부와, 상기 영상으로부터 신체 부위별 패턴을 검출하는 패턴 검출부와, 상기 3차원 거리정보와 상기 피부색의 영역 및 상기 신체 부위별 패턴을 이용하여, 상기 영상으로부터 각 신체 부위를 분류하고 상기 각 신체 부위의 위치를 검출하는 추출하는 위치 검출부와, 상기 각 신체 부위의 위치를 이용하여 상체자세를 인식하는 상체자세 인식부와, 상기 대상체별 3차원 위치 정보 중 손 위치 정보를 이용하여 손의 모양을 인식하는 손모양 인식부를 포함한다.According to another aspect of the present invention, an upper body posture and hand shape detecting apparatus includes a stereo vision calculating unit calculating three-dimensional distance information from an image provided from at least two cameras, and a color detecting unit detecting an area having a skin color from the image. And a pattern detection unit for detecting a pattern for each body part from the image, classifying each body part from the image by using the 3D distance information, the skin color region, and the pattern for each body part. A position detection unit for detecting a position, an upper body posture recognition unit for recognizing the upper body posture using the position of each body part, and a shape of the hand using the hand position information among the three-dimensional position information for each object It includes a hand recognition unit.

본 발명의 또 다른 면에 따른 상체자세 및 손모양 검출 방법은, 적어도 두개의 카메라로부터 제공되는 영상으로부터 3차원 거리정보를 계산하는 단계와, 상기 영상으로부터 피부색을 갖는 영역을 검출하는 단계와, 상기 영상으로부터 신체 부위별 패턴을 검출하는 단계와, 상기 3차원 거리정보와 상기 피부색의 영역 및 상기 신체 부위별 패턴을 이용하여 각 신체 부위의 위치를 검출하는 단계와, 상기 각 신체 부위의 위치를 이용하여 상체자세를 인식하는 단계 및 상기 대상체별 3차원 위치 정보 중 손 위치 정보를 이용하여 손의 모양을 인식하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for detecting upper body posture and hand shape, comprising: calculating three-dimensional distance information from an image provided from at least two cameras, detecting an area having a skin color from the image, and Detecting a pattern of each body part from an image, detecting a location of each body part using the 3D distance information, the region of the skin color, and the pattern of each body part, and using the location of each body part Recognizing the upper body posture and the shape of the hand using the hand position information of the three-dimensional position information for each object.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and the drawings.

본 발명은 두 대 이상의 카메라를 이용할 경우 주변환경을 3차원으로 파악할 수 있고, 스테레오 비전계산기, 색상패턴 분류기를 병행하여 사용자의 얼굴, 몸통, 어깨, 팔꿈치, 손의 3차원 위치를 실시간으로 파악할 수 있다.According to the present invention, when two or more cameras are used, the surrounding environment can be grasped in three dimensions, and a stereo vision calculator and a color pattern classifier can be used to grasp the three-dimensional position of the user's face, torso, shoulder, elbow, and hand in real time. have.

또한, 마우스나 리모컨과 같은 장치를 사용하지 않고 사용자와 컴퓨터의 인 터페이스를 구성할 수 있게 하여 사용자의 편의성과 다양한 응용을 가능하게 한다. 즉 손의 모양을 인식하여 사용자는 같은 자세에서도 여러 가지 명령을 내릴 수 있어 다양한 응용을 구성할 수 있다. 예를 들어 TV에 장착되는 경우 손짓으로 TV를 조작할 수 있으며 다양한 게임에도 응용될 수 있다.In addition, it is possible to configure the interface between the user and the computer without using a device such as a mouse or a remote control to enable the user's convenience and various applications. That is, by recognizing the shape of the hand, the user can give various commands even in the same posture, so that various applications can be configured. For example, when mounted on a TV, the TV can be manipulated by hand gestures and applied to various games.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various forms, and only the present embodiments are intended to complete the disclosure of the present invention, and the general knowledge in the art to which the present invention pertains. It is provided to fully convey the scope of the invention to those skilled in the art, and the present invention is defined only by the scope of the claims. Meanwhile, the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. As used herein, “comprises” and / or “comprising” refers to the presence of one or more other components, steps, operations and / or elements. Or does not exclude additions.

도 1 내지 도 4를 참조하여 본 발명의 실시예에 따른 상체자세 및 손모양 검출 장치 및 검출 방법에 대해 설명한다. 도 1은 본 발명의 실시예에 따른 상체자세 및 손모양 검출 장치를 나타내는 블록도이고, 도 2는 도 1의 스테레오 비전 계산부를 나타내는 블록도이고, 도 3은 도 1의 색상패턴 분류부를 나타내는 블록도이고, 도 4는 상체자세 및 손모양 검출 결과를 나타내는 예시도이다.An upper body posture and hand shape detecting apparatus and a detecting method according to an exemplary embodiment of the present invention will be described with reference to FIGS. 1 to 4. 1 is a block diagram illustrating an upper body posture and hand shape detection apparatus according to an embodiment of the present invention, FIG. 2 is a block diagram illustrating a stereo vision calculation unit of FIG. 1, and FIG. 3 is a block diagram illustrating a color pattern classification unit of FIG. 1. Fig. 4 is an exemplary view showing upper body posture and hand-shaped detection results.

도 1을 참조하면, 본 발명의 실시예에 따른 상체자세 및 손모양 검출 장치(10)는 적어도 두 개의 카메라(101, 102, 103)와, 영상 데이터 전처리부(200)와, 스테레오 비전 계산부(300)와, 색상패턴 분류부(400)와, 신체부위 분류부(500)와 다수의 위치 검출부(610, 620, 630, 640, 650)와, 사용자 상체자세 인식부(710)와, 손모양 인식부(720) 및 응용 인터페이스부(800)를 포함한다.Referring to FIG. 1, the upper body posture and hand shape detecting apparatus 10 according to an exemplary embodiment of the present invention includes at least two cameras 101, 102, and 103, an image data preprocessor 200, and a stereo vision calculator. 300, the color pattern classifier 400, the body part classifier 500, the plurality of position detectors 610, 620, 630, 640, and 650, the user upper body posture recognizer 710, and the hand. The shape recognition unit 720 and the application interface unit 800 is included.

두 개 이상의 카메라(101, 102, 103)는 사람(이하 사용자라 함)을 촬영하여 다시점의 영상을 출력한다. 두 개 이상의 카메라(101, 102, 103)는, 예컨대 컴퓨터 모니터나 TV등의 가전제품 혹은 벽에 장착될 수 있으며, 사용자를 촬영하도록 구동될 수 있다. 예컨대 카메라(101, 102, 103)는 사용자의 움직임, 또는 음성 등을 인식하여 사용자를 촬영하도록 움직일 수 있다.Two or more cameras 101, 102, and 103 photograph a person (hereinafter referred to as a user) and output a multi-view image. The two or more cameras 101, 102, 103 may be mounted on a wall or a home appliance such as a computer monitor or a TV, for example, and may be driven to photograph a user. For example, the cameras 101, 102, and 103 may move to capture the user by recognizing the user's movement or voice.

영상 데이터 전처리부(200)는 두 개 이상의 카메라(101, 102, 103)로부터 제공된 영상 데이터에 대해 전처리를 수행한다. 예컨대 영상 데이터 전처리부(200)는 각 카메라(101, 102, 103)로부터 제공된 영상데이터에 대한 노이즈 제거, 색상 보정, 밝기 보정, 화면왜곡 보정 등의 화질 향상작업을 수행할 수 있다. 전처리된 영상은 스테레오 비전 계산부(300)와 색상패턴 분류부(400)로 전해진다.The image data preprocessor 200 performs preprocessing on image data provided from two or more cameras 101, 102, and 103. For example, the image data preprocessor 200 may perform image quality enhancement such as noise removal, color correction, brightness correction, and screen distortion correction for image data provided from each of the cameras 101, 102, and 103. The preprocessed image is transmitted to the stereo vision calculator 300 and the color pattern classifier 400.

먼저 스테레오 비전 계산부(300)는 다수의 카메라(101, 102, 103)로부터 입력된 영상에 대해 스테레오 영상을 계산하여 화면내 각 대상체까지의 3차원 거리정보를 제공한다. First, the stereo vision calculator 300 calculates a stereo image of images input from the plurality of cameras 101, 102, and 103 and provides 3D distance information to each object in the screen.

도 2를 더 참조하여 좀더 구체적으로 설명하면, 스테레오 비전 계산부(300) 는 스테레오 비전 전처리부(310)와, 스테레오 매칭부(320)와, 스테레오 비전 후처리부(320)를 포함한다.Referring to FIG. 2, the stereo vision calculator 300 includes a stereo vision preprocessor 310, a stereo matcher 320, and a stereo vision postprocessor 320.

스테레오 비전 전처리부(310)는 스테레오 매칭을 위해 다수의 카메라(101, 102, 103)의 밝기를 조정하거나, 노이즈를 제거하거나 왜곡 보정 등을 수행한다. 또는 스테레오 비전 전처리부(310)는 교정(Calibration), 스케일다운 필터링(Scale down Filtering), 수정(Rectification), 및 휘도 조절(Brightness Control) 등을 수행할 수 있다.The stereo vision preprocessor 310 adjusts the brightness of the plurality of cameras 101, 102, and 103, removes noise, or corrects distortion for stereo matching. Alternatively, the stereo vision preprocessor 310 may perform calibration, scale down filtering, correction, brightness control, and the like.

스테레오 매칭부(320)는 전처리된 다수의 카메라(101, 102, 103)의 영상으로부터 서로 대응되는 부분(Stereo Matching)을 찾아 거리 정보를 추출한다. 이때 스테레오 매칭부(320)에서 출력되는 거리 정보는, 예컨대 거리에 따라 밝기로 표현된 영상(가까운 물체는 밝은 색으로, 멀리 있는 물체는 어두운 색으로 표현된 영상)이거나 또는 거리에 따라 색이 다르게 표현된 영상일 수 있다. 여기서 멀리 있는 배경은 삭제될 수 있다.The stereo matching unit 320 extracts distance information by searching for portions (Stereo Matching) corresponding to each other from the images of the plurality of pre-processed cameras 101, 102 and 103. In this case, the distance information output from the stereo matching unit 320 may be, for example, an image expressed in brightness according to a distance (a close object is a bright color, and a far object is a dark color) or a color is different according to a distance. It may be an expressed image. The distant background can be deleted here.

스테레오 비전 후처리부(320)는 스테레오 매칭부(320)에서 출력된 거리 정보를 후처리하여 출력한다. 예컨대 스테레오 비전 후처리부(320)는 스테레오 매칭부(320)에서 출력된 거리 정보로부터 노이즈를 제거하거나, 거리 정보로부터 서로 다른 대상체들을 구분하는 작업(segmentation, Labeling)을 수행할 수 있다.The stereo vision post processor 320 post-processes the distance information output from the stereo matcher 320. For example, the stereo vision post-processing unit 320 may remove noise from the distance information output from the stereo matching unit 320 or perform segmentation and labeling of different objects from the distance information.

다음으로, 도 1의 색상패턴 분류부(400)는 화면내의 색상 및 패턴을 분류 및 분석하여 사용자의 신체부위, 예컨대 얼굴, 몸통, 어깨, 팔꿈치, 손 등을 인식하기 위한 색상 정보 및 패턴 정보를 출력한다. Next, the color pattern classification unit 400 of FIG. 1 classifies and analyzes colors and patterns in the screen to obtain color information and pattern information for recognizing a user's body part, for example, a face, a torso, a shoulder, an elbow, a hand, and the like. Output

도 3을 참조하여 좀더 구체적으로 설명하면, 색상패턴 분류부(400)는 색상 검출부(410)와 패턴 검출부(450)를 포함한다. More specifically, referring to FIG. 3, the color pattern classifier 400 includes a color detector 410 and a pattern detector 450.

색상 검출부(410)는 색상 보정부(420)와 피부색 검출부(430) 및 형태 필터 (morphological filter)(440)를 포함한다. The color detector 410 includes a color corrector 420, a skin color detector 430, and a morphological filter 440.

색상 보정부(420)는 영상 데이터 전처리부(200)에 의해 전처리된 영상으로부터 색상을 보정한다. 예컨대 영상이 전체적으로 붉은 경우 붉은 성분을 낮출 수 있다. 또는 색상 보정부(420)는 영상의 R(Red), G(Green), B(Blue) 성분의 비율을 조정할 수 있다. The color corrector 420 corrects the color from the image preprocessed by the image data preprocessor 200. For example, if the image is entirely red, the red component may be lowered. Alternatively, the color corrector 420 may adjust a ratio of R (Red), G (Green), and B (Blue) components of the image.

피부색 검출부(430)는 보정된 영상으로부터 피부색을 검출할 수 있다. 즉, 보정된 영상에서 피부색을 갖는 영역을 검출할 수 있다. The skin color detector 430 may detect the skin color from the corrected image. That is, an area having a skin color may be detected in the corrected image.

형태 필터(440)는 필터링을 통해 피부색을 갖는 영역의 형태를 결정하여 그에 대응하는 색상 정보를 출력한다. 예컨대 형태 필터(440)는, 형태 필터링을 통해 피부색 검출부(430)로부터 출력된 피부색을 갖는 영역의 에지(edge)를 결정하여 피부색을 갖는 영역의 형태를 결정할 수 있다.The shape filter 440 determines the shape of the region having the skin color through filtering and outputs color information corresponding thereto. For example, the shape filter 440 may determine the shape of an area having a skin color by determining an edge of an area having a skin color output from the skin color detector 430 through shape filtering.

다음으로 패턴 검출부(450)는 영상 데이터 전처리부(200)에 의해 전처리된 영상으로부터 패턴 정보를 검출한다. 이러한 패턴 검출부(450)는 전처리된 영상으로부터 신체 부위별 패턴을 검출할 수 있다. 예컨대 패턴 검출부(450)는 전처리된 영상으로부터 얼굴, 몸통, 어깨, 팔꿈치, 손의 패턴을 갖는 영역을 검출할 수 있다. 이러한 패턴 검출부(450)는, 예컨대 기 저장된 얼굴, 몸통, 어깨, 팔꿈치, 손의 패턴 샘플과 영상을 비교하여 영상으로부터 얼굴, 몸통, 어깨, 팔꿈치, 손의 패 턴을 갖는 영역을 검출할 수 있다. Next, the pattern detector 450 detects the pattern information from the image preprocessed by the image data preprocessor 200. The pattern detector 450 may detect patterns of body parts from the preprocessed image. For example, the pattern detector 450 may detect an area having a pattern of a face, a torso, a shoulder, an elbow, and a hand from the preprocessed image. The pattern detection unit 450 may detect an area having a pattern of a face, a torso, a shoulder, an elbow, and a hand from the image by comparing the pattern sample of the face, the body, the shoulder, the elbow, and the hand with an image, for example. .

이와 같이 스테레오 비전 계산부(300)와 색상패턴 분류부(400)는 영상 데이터 전처리부에 의해 전처리된 영상을 각각 개별적으로, 병렬적으로 처리함으로써 계산 시간을 줄일 수 있다. 또한 색상패턴 분류부(400)도 내부적으로 색상 검출부(410)와 패턴 검출부(450)가 각각 개별적으로, 병렬적으로 동작함으로써 계산 시간을 줄일 수 있다. As described above, the stereo vision calculator 300 and the color pattern classifier 400 may reduce the calculation time by separately processing the images preprocessed by the image data preprocessor separately and in parallel. In addition, the color pattern classification unit 400 may also internally operate the color detector 410 and the pattern detector 450 separately and in parallel to reduce the calculation time.

한편, 도 1의 신체부위 분류부(500)는, 스테레오 비전 계산부(300)로부터 출력된 3차원 거리 정보와, 색상패턴 분류부(400)로부터 출력된 색상정보 및 패턴 정보를 이용하여 영상으로부터 각 신체부위를 분류할 수 있다. 즉, 영상으로부터 사용자의 얼굴, 몸통, 어깨, 팔꿈치, 손을 분류해 낸다. Meanwhile, the body part classifier 500 of FIG. 1 uses the 3D distance information output from the stereo vision calculator 300 and the color information and pattern information output from the color pattern classifier 400. Each body part can be classified. That is, the user's face, torso, shoulders, elbows, and hands are classified from the image.

더불어 다수의 위치 검출부(610, 620, 630, 640, 650)는 각 신체부위의 위치를 검출한다. 예컨대 얼굴 위치 검출부(610)는 사용자의 얼굴의 3차원 위치를 검출하고, 몸통 검출부는 사용자의 몸통의 3차원 위치를 검출하고, 어깨 위치 검출부(630)는 사용자의 어깨의 3차원 위치를 검출하고, 팔꿈치 위치 검출부(640)는 사용자의 팔꿈치의 3차원 위치를 검출하고, 손 위치 검출부(650)는 사용자의 손의 3차원 위치를 검출한다.In addition, the plurality of position detectors 610, 620, 630, 640, and 650 detect the position of each body part. For example, the face position detector 610 detects the three-dimensional position of the user's face, the torso detector detects the three-dimensional position of the user's torso, and the shoulder position detector 630 detects the three-dimensional position of the user's shoulder. The elbow position detector 640 detects a three-dimensional position of the elbow of the user, and the hand position detector 650 detects a three-dimensional position of the user's hand.

이와 같이 다수의 위치 검출부(610, 620, 630, 640, 650)는 각 신체부위의 위치를 각각 개별적으로, 병렬적으로 검출함으로써, 계산 시간이 빠르며, 각 신체부위의 3차원 거리정보, 색상 정보 및 패턴 정보로부터 생성된 3차원 위치 정보를 이용하므로, 각 신체부위를 세밀하게 검출할 수 있다.As described above, the plurality of position detection units 610, 620, 630, 640, and 650 detect positions of each body part individually and in parallel, so that calculation time is fast and three-dimensional distance information and color information of each body part are fast. And three-dimensional position information generated from the pattern information, so that each body part can be detected in detail.

상체자세 인식부(710)는 각 신체부위별 3차원 위치 정보를 이용하여 사용자의 상체자세를 인식한다. 예컨대 상체자세 인식부(710)는 얼굴, 몸통, 어깨, 팔꿈치, 손의 3차원 위치 정보를 이용하여 사용자의 상체자세를 재구성함으로써, 사용자의 상체 자세를 인식할 수 있다.The upper body posture recognizer 710 recognizes the upper body posture of the user by using three-dimensional position information for each body part. For example, the upper body posture recognizer 710 may recognize the upper body posture of the user by reconstructing the upper body posture of the user using 3D position information of the face, torso, shoulder, elbow, and hand.

또한, 손모양 인식부(720)는 손의 3차원 위치 정보를 이용하여 사용자의 손 모양을 인식할 수 있다.In addition, the hand recognition unit 720 may recognize the shape of the user's hand using the three-dimensional position information of the hand.

이러한 과정을 통해, 사용자의 상체자세 정보와 손모양 정보는 도 4와 같이 도출되며, 이러한 사용자의 상체자세 정보와 손모양 정보는 응용인터페이스부(800)를 통해 외부 기기(또는 네트워크)로 전달되어 활용된다.Through this process, the upper body posture information and the hand shape information of the user is derived as shown in Figure 4, the upper body posture information and the hand shape information of the user is transmitted to the external device (or network) through the application interface unit 800 Are utilized.

이와 같이, 3차원 거리 정보와, 색상 정보 및 패턴 정보를 각각 개별적으로 생성하고, 이러한 정보를 이용하여 얼굴, 몸통, 어깨, 팔꿈치, 손의 모양을 독립적으로 검출함으로써, 계산 시간이 빠르게 된다. 또한, 3차원 거리 정보와, 색상 정보 및 패턴 정보를 이용하여 세밀한 손 모양을 실시간으로 검출할 수 있다. 또한, 외부 기기와 연결되어 사용자의 상체 자세 및 손 모양을 통한 외부 기기의 제어를 세밀하게 할 수 있다. 예컨대 상체 자세 및 손 모양 각각에 따라 서로 다른 제어를 수행할 수 있다. 즉, 손의 모양을 인식하여 사용자는 같은 자세에서도 여러 가지 명령을 내릴 수 있어 다양한 응용을 구성할 수 있다.As described above, the three-dimensional distance information, the color information, and the pattern information are generated separately, and the shape, face, torso, shoulder, elbow, and hand shape are independently detected using such information, so that the calculation time is increased. In addition, the detailed hand shape may be detected in real time using the 3D distance information, the color information, and the pattern information. In addition, it can be connected to an external device to finely control the external device through the user's upper body posture and hand shape. For example, different controls can be performed according to the upper body posture and the shape of the hand. In other words, by recognizing the shape of the hand, the user can give various commands even in the same posture, so that various applications can be configured.

도 5를 참조하여 본 발명의 다른 실시예에 따른 상체자세 및 손모양 검출 장치를 설명한다. 도 5는 다른 실시예에 따른 상체자세 및 손모양 검출 장치의 색상패턴 분류부의 구성도이다. An upper body posture and hand shape detection apparatus according to another embodiment of the present invention will be described with reference to FIG. 5. 5 is a block diagram of a color pattern classification unit of the upper body posture and hand shape detection apparatus according to another embodiment.

도 5를 참조하면, 색상패턴 분류부(405)는 색상 검출부(415)와 패턴 검출부(455) 및 표준인체모델 저장부(465)를 포함한다. Referring to FIG. 5, the color pattern classifier 405 includes a color detector 415, a pattern detector 455, and a standard human model storage 465.

색상 검출부(415)는 색상 보정부(420)와 차영상 계산부(425)와 피부색 검출부(435) 및 형태 필터(445)를 포함한다. The color detector 415 includes a color corrector 420, a difference image calculator 425, a skin color detector 435, and a shape filter 445.

색상 보정부(420)는 전처리된 영상으로부터 색상을 보정한다. 예컨대 영상이 전체적으로 붉은 경우 붉은 성분을 낮출 수 있다. 또는 색상 보정부(420)는 영상의 R(Red), G(Green), B(Blue) 성분의 비율을 조정할 수 있다. The color corrector 420 corrects the color from the preprocessed image. For example, if the image is entirely red, the red component may be lowered. Alternatively, the color corrector 420 may adjust a ratio of R (Red), G (Green), and B (Blue) components of the image.

차영상 계산부(425)는 현재 영상과 이전 영상의 차이인 차영상을 계산한다. 여기서 차영상은 피부색 검출부(435)가 보정된 영상으로부터 피부색을 검출하는데 이용된다.The difference image calculator 425 calculates a difference image that is a difference between the current image and the previous image. The difference image is used by the skin color detector 435 to detect the skin color from the corrected image.

구체적으로, 차영상 계산부(425)는 현재 영상에서 이전 영상을 빼어, 차영상과 모션벡터를 계산한다. 차영상은 현재 영상에서 이전 영상을 뺀 영상으로서, 변화된 영역(또는 움직인 영역)에 대한 영상이며, 모션벡터는 이러한 변화된 영역(또는 움직인 영역)을 나타내는 정보, 예컨대 변화 또는 움직임에 대한 방향과 크기를 나타낸다. 현재 영상 및 이전 영상에서 움직인 대상은 주로 사람일 가능성이 높기 때문에 차영상은 주로 사람에 대한 영상일 수 있고, 차영상은 주로 사람의 피부색 영역을 포함하고 있다. 즉, 차영상을 나타내는 정보인 모션벡터는 사람의 피부색에 관한 정보를 갖고 있다. 따라서 피부색 검출부(435)는 차영상 또는 모션벡터를 이용하여 변화된 영역(또는 움직인 영역)의 색상을 분석하여 피부색을 인식하고, 이를 이용하여 보정된 영상으로부터 피부색을 검출할 수 있다. 이러한 경우, 소정의 명도 및 채도를 갖는 검출용 피부색을 이용하여 영상에서 피부색을 검출하지 않고, 실체 촬영되는 사람의 피부색을 이용하여 영상에서 피부색을 검출하게 되므로, 더욱 정확하고 신뢰성있는 결과를 얻을 수 있다. In detail, the difference image calculator 425 calculates the difference image and the motion vector by subtracting the previous image from the current image. The difference image is an image obtained by subtracting the previous image from the current image. The difference image is an image of a changed region (or a moved region), and the motion vector includes information indicating the changed region (or a moved region), for example, a direction and a direction for change or movement. Indicates the size. Since the object moved in the current image and the previous image is likely to be mainly a human image, the difference image may be mainly an image of a person, and the difference image mainly includes a human skin color region. That is, the motion vector, which is information representing the difference image, has information on the color of the human skin. Accordingly, the skin color detector 435 may recognize the skin color by analyzing the color of the changed region (or the moved region) by using the difference image or the motion vector, and detect the skin color from the corrected image by using the same. In this case, the skin color is detected from the image by using the skin color of the person who is actually photographed, without detecting the skin color from the image by using the detection skin color having a predetermined brightness and saturation, thereby obtaining more accurate and reliable results. have.

형태 필터(445)는 필터링을 통해 피부색을 갖는 영역의 형태를 결정하여 그에 대응하는 색상 정보를 출력한다. 예컨대 형태 필터(445)는, 형태 필터링을 통해 피부색 검출부(435)로부터 출력된 피부색을 갖는 영역의 에지(edge)를 결정하여 피부색을 갖는 영역의 형태를 결정할 수 있다.The shape filter 445 determines the shape of the region having the skin color through filtering and outputs color information corresponding thereto. For example, the shape filter 445 may determine the shape of an area having a skin color by determining an edge of an area having a skin color output from the skin color detector 435 through shape filtering.

다음으로 패턴 검출부(455)는 표준인체모델 저장부(465)에 저장된 표준인체모델을 이용하여 전처리된 영상으로부터 패턴 정보, 예컨대 신체 각 부위의 위치, 형태에 관한 정보를 검출한다. 사람의 신체 비율, 각 부위의 형상, 각 부위 위치 등은 성별 및 나이에 따라 일정한 경향을 보이며, 이를 표준화한 것이 표준인체모델이다. 예컨대, 표준인체모델은 성별 및 나이 각각에 일반적인 신체 비율, 각 부위의 형상 및 위치에 관한 샘플일 수 있으며, 이러한 표준인체모델을 이용하여 영상으로부터 신체 각 부위의 위치, 형태에 관한 정보를 검출하므로 보다 정확하게 검출할 수 있다.Next, the pattern detecting unit 455 detects pattern information, for example, information about the position and shape of each part of the body, from the preprocessed image using the standard human model stored in the standard human model storage unit 465. The ratio of the human body, the shape of each part, and the location of each part tend to be constant according to gender and age, and the standardized human body model is standardized. For example, the standard human model may be a sample of body proportions, shapes and positions of each part that are common to gender and age, and the standard human model is used to detect information about the location and shape of each part of the body from an image. More accurate detection.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 예를 들어 본 발명의 제어 방법을 실현하기 위한 프로그램이 기록된 기록매체의 형태 등 다양한 형태로 구현될 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art will appreciate that the present invention can be embodied in other specific forms without changing the technical spirit or essential features of the present invention. For example, a program for realizing the control method of the present invention may be implemented in various forms such as a recording medium in which a program is recorded. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. The scope of the present invention is shown by the following claims rather than the detailed description, and all changes or modifications derived from the claims and their equivalents should be construed as being included in the scope of the present invention.

도 1은 본 발명의 실시예에 따른 상체자세 및 손모양 검출 장치를 나타내는 블록도이다.1 is a block diagram showing an upper body posture and hand shape detection apparatus according to an embodiment of the present invention.

도 2는 도 1의 스테레오 비전 계산부를 나타내는 블록도이다.FIG. 2 is a block diagram illustrating a stereo vision calculator of FIG. 1.

도 3은 도 1의 색상패턴 분류부를 나타내는 블록도이다.3 is a block diagram illustrating a color pattern classification unit of FIG. 1.

도 4는 상체자세 및 손모양 검출 결과를 나타내는 예시도이다.Figure 4 is an exemplary view showing the upper body posture and hand detection results.

도 5는 본 발명의 다른 실시예에 따른 상체자세 및 손모양 검출 장치를 설명하기 위한 블록도이다.5 is a block diagram illustrating an upper body posture and hand shape detection apparatus according to another embodiment of the present invention.

(도면의 주요부분에 대한 부호의 설명) (Explanation of symbols for the main parts of the drawing)

10: 상체자세 및 손모양 검출 장치 101~103: 카메라10: upper body posture and hand detection device 101 ~ 103: camera

200: 영상 데이터 전처리부 300: 스테레오 비전 계산부200: image data preprocessor 300: stereo vision calculation unit

400: 색상패턴 분류부 500: 신체부위 분류부400: color pattern classification unit 500: body part classification unit

610: 얼굴 위치 검출부 620: 몸통 위치 검출부610: face position detection unit 620: trunk position detection unit

630: 어깨 위치 검출부 640: 팔꿈치 위치 검출부630: shoulder position detection unit 640: elbow position detection unit

650: 손 위치 검출부 710: 상체자세 인식부650: hand position detection unit 710: upper body posture recognition unit

720: 손 모양 인식부 800: 응용 인터페이스부720: hand recognition unit 800: application interface unit

Claims (18)

적어도 두개의 카메라로부터 제공되는 영상으로부터 3차원 거리정보를 계산하는 스테레오 비전 계산부;A stereo vision calculator configured to calculate 3D distance information from images provided from at least two cameras; 상기 영상으로부터 색상 및 패턴을 분류하여 색상 정보와 패턴 정보를 출력하는 색상패턴 분류부;A color pattern classification unit for classifying colors and patterns from the image and outputting color information and pattern information; 상기 3차원 거리정보와 상기 색상 정보 및 상기 패턴 정보를 이용하여 각 대상체별로 3차원 위치 정보를 추출하는 다수의 위치 검출부;A plurality of position detectors extracting three-dimensional position information for each object by using the three-dimensional distance information, the color information, and the pattern information; 상기 대상체별 3차원 위치 정보를 이용하여 상체자세를 인식하는 상체자세 인식부; 및Upper body posture recognition unit for recognizing the upper body posture using the three-dimensional position information for each object; And 상기 대상체별 3차원 위치 정보 중 손 위치 정보를 이용하여 손의 모양을 인식하는 손모양 인식부를 포함하는 상체자세 및 손모양 검출 장치.Upper body posture and hand shape detection apparatus comprising a hand shape recognition unit for recognizing the shape of the hand using the hand position information of the three-dimensional position information for each object. 제 1항에 있어서,The method of claim 1, 상기 적어도 두개의 카메라 각각으로부터 입력된 영상에 대해 노이즈 제거, 색상 보정, 밝기 보정, 화면 왜곡 보정 중 적어도 하나를 수행하는 영상 데이터 전처리부를 더 포함하는 상체자세 및 손모양 검출 장치.And an image data preprocessor configured to perform at least one of noise reduction, color correction, brightness correction, and screen distortion correction on the image input from each of the at least two cameras. 제 1항에 있어서,The method of claim 1, 상기 대상체는 얼굴과, 몸통과, 어깨와, 팔꿈치와 손을 포함하고,The subject includes a face, a torso, a shoulder, an elbow and a hand, 상기 다수의 위치 검출부는 얼굴 위치 검출부와, 몸통 위치 검출부와, 어깨 위치 검출부와, 팔꿈치 위치 검출부와 손 위치 검출부를 포함하는 상체자세 및 손모양 검출 장치.The plurality of position detectors include a face position detector, a body position detector, a shoulder position detector, an elbow position detector, and a hand position detector. 제 3항에 있어서,The method of claim 3, wherein 상기 상체자세 인식부는 상기 얼굴, 상기 몸통, 상기 어깨, 상기 팔꿈치 및 상기 손의 위치 정보를 이용하여 사람의 상체를 재구성하여 상기 상체 자세를 인식하는 상체자세 및 손모양 검출 장치.The upper body posture recognition unit recognizes the upper body posture by reconstructing the upper body of the person using the position information of the face, the body, the shoulders, the elbow and the hand. 제 1항에 있어서, 상기 색상패턴 분류부는The method of claim 1, wherein the color pattern classification unit 상기 영상으로부터 색상 정보를 검출하는 색상 검출부와,A color detector for detecting color information from the image; 상기 영상으로부터 패턴 정보를 검출하는 패턴 검출부를 포함하는 상체자세 및 손모양 검출 장치.Upper body posture and hand shape detection apparatus comprising a pattern detection unit for detecting pattern information from the image. 제 5항에 있어서, 상기 색상 검출부는 The method of claim 5, wherein the color detection unit 상기 영상의 색상을 보정하는 색상 보정부와,A color corrector for correcting the color of the image; 상기 영상과 이전 영상의 차이인 차영상을 계산하는 차영상 계산부와,A difference image calculating unit calculating a difference image that is a difference between the image and the previous image; 상기 색상이 보정된 영상과 상기 차영상을 이용하여 피부색의 영역을 검출하는 피부색 검출부와,A skin color detector which detects an area of the skin color by using the color corrected image and the difference image; 필터링을 통해 상기 피부색의 영역의 형태를 결정하여 그에 대응하는 상기 색상 정보를 출력하는 형태 필터(morphological filter)를 포함하는 상체자세 및 손모양 검출 장치.And a morphological filter configured to determine a shape of the skin color region through filtering and output the color information corresponding thereto. 제 5항에 있어서, The method of claim 5, 상기 색상패턴 분류부는 표준인체모델을 저장하는 표준인체모델 저장부를 더포함하고,The color pattern classification unit further includes a standard human model storage unit for storing a standard human model, 상기 패턴 검출부는 상기 표준인체모델을 이용하여 상기 영상으로부터 신체 부위별 패턴을 검출하여 그에 대응하는 상기 패턴 정보를 출력하는 상체자세 및 손모양 검출 장치.The pattern detecting unit detects a pattern for each body part from the image using the standard human model and outputs the pattern information corresponding to the upper body posture and hand shape detection apparatus. 제 1항에 있어서, 상기 스테레오 비젼 계산부는The stereo vision calculation unit of claim 1, wherein the stereo vision calculation unit 상기 적어도 두개의 카메라로부터 제공되는 영상을 전처리하는 스테레오 비전 전처리부와,A stereo vision preprocessor for preprocessing the images provided from the at least two cameras; 전처리된 영상으로부터 거리 정보를 추출하는 스테레오 매칭부와,A stereo matching unit for extracting distance information from the preprocessed image; 상기 거리 정보를 후처리하는 스테레오 비젼 후처리부를 포함하는 상체자세 및 손모양 검출 장치.Upper body posture and hand detection device comprising a stereo vision post-processing unit for post-processing the distance information. 적어도 두개의 카메라로부터 제공되는 영상으로부터 3차원 거리정보를 계산하는 스테레오 비전 계산부;A stereo vision calculator configured to calculate 3D distance information from images provided from at least two cameras; 상기 영상으로부터 피부색을 갖는 영역을 검출하는 색상 검출부;A color detector detecting an area having a skin color from the image; 상기 영상으로부터 신체 부위별 패턴을 검출하는 패턴 검출부;A pattern detector detecting a pattern of each body part from the image; 상기 3차원 거리정보와 상기 피부색의 영역 및 상기 신체 부위별 패턴을 이용하여, 상기 영상으로부터 각 신체 부위를 분류하고 상기 각 신체 부위의 위치를 검출하는 추출하는 위치 검출부;A position detector configured to classify each body part from the image and detect the position of each body part by using the 3D distance information, the region of the skin color, and the pattern for each body part; 상기 각 신체 부위의 위치를 이용하여 상체자세를 인식하는 상체자세 인식부; Upper body posture recognition unit for recognizing the upper body posture using the position of each body part; 상기 대상체별 3차원 위치 정보 중 손 위치 정보를 이용하여 손의 모양을 인식하는 손모양 인식부를 포함하는 상체자세 및 손모양 검출 장치.Upper body posture and hand shape detection apparatus comprising a hand shape recognition unit for recognizing the shape of the hand using the hand position information of the three-dimensional position information for each object. 제 9항에 있어서, 상기 색상 검출부는 The method of claim 9, wherein the color detector 상기 영상의 색상을 보정하는 색상 보정부와,A color corrector for correcting the color of the image; 상기 색상이 보정된 영상으로부터 피부색의 영역을 검출하는 피부색 검출부와,A skin color detector which detects an area of the skin color from the color-corrected image; 형태 필터링을 통해 상기 피부색의 영역의 에지(edge)를 결정하는 형태 필터(morphological filter)를 포함하는 상체자세 및 손모양 검출 장치.Upper body and hand detection device comprising a morphological filter for determining the edge (edge) of the region of the skin color through shape filtering. 제 9항에 있어서, 상기 패턴 검출부는 The method of claim 9, wherein the pattern detection unit 상기 영상과 기 저정된 신체 부위별 패턴 샘플을 비교하여 상기 신체 부위별 패턴을 검출하는 상체자세 및 손모양 검출 장치.Upper body posture and hand-shaped detection device for detecting the pattern by the body part by comparing the image with the predetermined pattern of each body part pattern. 제 9항에 있어서, The method of claim 9, 상기 신체 부위는 얼굴과, 몸통과, 어깨와, 팔꿈치와 손을 포함하고,The body part comprises a face, a torso, a shoulder, an elbow and a hand, 상기 상체자세 인식부는 상기 얼굴, 상기 몸통, 상기 어깨, 상기 팔꿈치 및 상기 손의 위치 정보를 이용하여 사람의 상체를 재구성하여 상기 상체 자세를 인식하는 상체자세 및 손모양 검출 장치.The upper body posture recognition unit recognizes the upper body posture by reconstructing the upper body of the person using the position information of the face, the body, the shoulders, the elbow and the hand. 제 9항에 있어서,The method of claim 9, 상기 상체자세 및 손의 모양에 관한 정보를 외부로 전달하는 인터페이스부를 더 포함하는 상체자세 및 손모양 검출 장치.Upper body posture and hand shape detection device further comprising an interface for transmitting the information about the upper body posture and the shape of the hand to the outside. 적어도 두개의 카메라로부터 제공되는 영상으로부터 3차원 거리정보를 계산하는 단계;Calculating three-dimensional distance information from images provided from at least two cameras; 상기 영상으로부터 피부색을 갖는 영역을 검출하는 단계;Detecting an area having a skin color from the image; 상기 영상으로부터 신체 부위별 패턴을 검출하는 단계;Detecting patterns of body parts from the image; 상기 3차원 거리정보와 상기 피부색의 영역 및 상기 신체 부위별 패턴을 이용하여 각 신체 부위의 위치를 검출하는 단계;Detecting the position of each body part using the three-dimensional distance information, the region of the skin color, and the pattern for each body part; 상기 각 신체 부위의 위치를 이용하여 상체자세를 인식하는 단계; 및Recognizing the upper body posture using the position of each body part; And 상기 대상체별 3차원 위치 정보 중 손 위치 정보를 이용하여 손의 모양을 인식하는 단계를 포함하는 상체자세 및 손모양 검출 방법.Recognizing the shape of the hand using the hand position information of the three-dimensional position information for each object comprising the upper body posture and hand shape detection method. 제 14항에 있어서, 15. The method of claim 14, 상기 적어도 두개의 카메라 각각으로부터 입력된 영상에 대해 노이즈 제거, 색상 보정, 밝기 보정, 화면 왜곡 보정 중 적어도 하나를 수행하는 영상 데이터 전처리 단계를 더 포함하는 상체자세 및 손모양 검출 장치.And an image data preprocessing step of performing at least one of noise reduction, color correction, brightness correction, and screen distortion correction on the image input from each of the at least two cameras. 제 14항에 있어서, 상기 피부색을 갖는 영역을 검출하는 단계는The method of claim 14, wherein the detecting of the region having the skin color is performed. 상기 영상의 색상을 보정하는 단계와,Correcting the color of the image; 상기 영상과 이전 영상의 차이인 차영상을 계산하는 단계와,Calculating a difference image that is a difference between the image and the previous image; 상기 색상이 보정된 영상과 상기 차영상을 이용하여 피부색의 영역을 검출하는 단계와,Detecting an area of skin color by using the color corrected image and the difference image; 형태 필터링(morphological filtering)을 통해 상기 피부색의 영역의 에지(edge)를 결정하는 단계를 포함하는 포함하는 상체자세 및 손모양 검출 방법.And determining an edge of the region of the skin color through morphological filtering. 제 14항에 있어서, 15. The method of claim 14, 상기 각 신체 부위의 위치를 검출하는 단계는 상기 3차원 거리정보와 상기 피부색의 영역 및 상기 신체 부위별 패턴을 이용하여, 상기 영상으로부터 상기 각 신체 부위를 분류하는 단계를 포함하는 상체자세 및 손모양 검출 방법.The detecting of the position of each body part may include classifying the body parts from the image using the three-dimensional distance information, the region of the skin color, and the pattern for each body part. Detection method. 제 14항에 있어서, 15. The method of claim 14, 상기 신체 부위는 얼굴과, 몸통과, 어깨와, 팔꿈치와 손을 포함하고,The body part comprises a face, a torso, a shoulder, an elbow and a hand, 상기 상체자세를 인식하는 단계는 상기 얼굴, 상기 몸통, 상기 어깨, 상기 팔꿈치 및 상기 손의 위치 정보를 이용하여 사람의 상체를 재구성하여 상기 상체 자세를 인식하는 단계인 상체자세 및 손모양 검출 방법.Recognizing the upper body posture is a step of recognizing the upper body posture by reconstructing the upper body of the person by using the position information of the face, the body, the shoulders, the elbow and the hand.
KR1020090064638A 2008-12-24 2009-07-15 Apparatus and method for detecting upper body pose and hand shape KR101158016B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/620,734 US8442267B2 (en) 2008-12-24 2009-11-18 Apparatus and method for detecting upper body posture and hand posture

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080133238 2008-12-24
KR20080133238 2008-12-24

Publications (2)

Publication Number Publication Date
KR20100075356A true KR20100075356A (en) 2010-07-02
KR101158016B1 KR101158016B1 (en) 2012-06-25

Family

ID=42637733

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090064638A KR101158016B1 (en) 2008-12-24 2009-07-15 Apparatus and method for detecting upper body pose and hand shape

Country Status (1)

Country Link
KR (1) KR101158016B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101436695B1 (en) * 2012-11-13 2014-09-01 재단법인대구경북과학기술원 Apparatus and method for detecting finger using depth image
US8917906B2 (en) 2011-04-06 2014-12-23 Samsung Electronics Co., Ltd. Method and apparatus for motion recognition
US9669260B2 (en) 2011-10-21 2017-06-06 Korea Institute Of Science And Technology Apparatus and method for tracking the position of each part of the body for golf swing analysis

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100605050B1 (en) * 1999-09-08 2006-07-26 주식회사 팬택앤큐리텔 Method and apparatus for searching human 3d body posture
KR100507780B1 (en) * 2002-12-20 2005-08-17 한국전자통신연구원 Apparatus and method for high-speed marker-free motion capture
KR100826878B1 (en) * 2006-09-28 2008-05-06 한국전자통신연구원 Hand shafe recognition method and apparatus for thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8917906B2 (en) 2011-04-06 2014-12-23 Samsung Electronics Co., Ltd. Method and apparatus for motion recognition
US9669260B2 (en) 2011-10-21 2017-06-06 Korea Institute Of Science And Technology Apparatus and method for tracking the position of each part of the body for golf swing analysis
KR101436695B1 (en) * 2012-11-13 2014-09-01 재단법인대구경북과학기술원 Apparatus and method for detecting finger using depth image

Also Published As

Publication number Publication date
KR101158016B1 (en) 2012-06-25

Similar Documents

Publication Publication Date Title
WO2019128508A1 (en) Method and apparatus for processing image, storage medium, and electronic device
CN106022209B (en) A kind of method and device of range estimation and processing based on Face datection
US10534957B2 (en) Eyeball movement analysis method and device, and storage medium
CN105407346B (en) Image division method
US8442267B2 (en) Apparatus and method for detecting upper body posture and hand posture
EP3153943A1 (en) Air gesture input method and apparatus
CN109255324A (en) Gesture processing method, interaction control method and equipment
CN110209273A (en) Gesture identification method, interaction control method, device, medium and electronic equipment
WO2009131539A1 (en) A method and system for detecting and tracking hands in an image
KR20170006355A (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
CN106503651B (en) A kind of extracting method and system of images of gestures
CN109325408A (en) A kind of gesture judging method and storage medium
US9280209B2 (en) Method for generating 3D coordinates and mobile terminal for generating 3D coordinates
CN104821010A (en) Binocular-vision-based real-time extraction method and system for three-dimensional hand information
CN103500335A (en) Photo shooting and browsing method and photo shooting and browsing device based on gesture recognition
CN112101208A (en) Feature series fusion gesture recognition method and device for elderly people
CN103279188A (en) Method for operating and controlling PPT in non-contact mode based on Kinect
JP6157165B2 (en) Gaze detection device and imaging device
TW202011284A (en) Eye state detection system and method for operating an eye state detection system
CN104866826B (en) A kind of static sign Language Recognition Method based on KNN and pixel ratio Gradient Features
CN116958584B (en) Key point detection method, regression model training method and device and electronic equipment
JP2007052609A (en) Hand area detection device, hand area detection method and program
US20140328516A1 (en) Gesture Recognition Method, An Apparatus and a Computer Program for the Same
KR101158016B1 (en) Apparatus and method for detecting upper body pose and hand shape
Gu et al. Hand gesture interface based on improved adaptive hand area detection and contour signature

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150527

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170529

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee