KR20100075356A - Apparatus and method for detecting upper body pose and hand shape - Google Patents
Apparatus and method for detecting upper body pose and hand shape Download PDFInfo
- Publication number
- KR20100075356A KR20100075356A KR1020090064638A KR20090064638A KR20100075356A KR 20100075356 A KR20100075356 A KR 20100075356A KR 1020090064638 A KR1020090064638 A KR 1020090064638A KR 20090064638 A KR20090064638 A KR 20090064638A KR 20100075356 A KR20100075356 A KR 20100075356A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- color
- hand
- upper body
- pattern
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
- G06F2218/04—Denoising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/117—Biometrics derived from hands
Abstract
Description
본 발명은 상체자세 및 손모양 검출 장치 및 그 방법에 관한 것으로서, 상체자세와 세밀한 손의 모양을 개별적으로 계산하여 검출할 수 있고, 또한 실시간으로 검출하며, 검출하는데 필요한 계산 시간을 줄일 수 있는 상체자세 및 손모양 검출 장치 및 그 방법에 관한 것이다.The present invention relates to an upper body posture and a hand-shaped detection device and a method thereof, wherein the upper body posture and the shape of the fine hand can be calculated and detected separately, and can also be detected in real time and can reduce the calculation time required for detection. It relates to a posture and hand-shaped detection device and a method thereof.
본 발명은 지식경제부의 IT원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2008-F-037-01, 과제명: u-로봇 HRI 솔루션 및 핵심 소자 기술 개발].The present invention is derived from a study conducted as part of the IT source technology development project of the Ministry of Knowledge Economy [Task management number: 2008-F-037-01, Task name: u-robot HRI solution and core device technology development].
종래에는, 사람의 형상 또는 동작을 검출하기 위해서는 배경스크린 또는 기준 배경화면이 필요하였다. 즉, 기준 배경화면(또는 배경 스크린)과 현재화면 간의 차이를 이용하여, 신체 각 부위의 덩어리를 만들고, 각 덩어리를 이용하여 인체 모델을 구성하였다. 또는 인체모델 또는 사람의 형상 또는 동작을 검출하기 위해서 특징점을 추출한 후에 각 특징점에 대한 3차원 위치계산을 하였다.In the past, a background screen or a reference background screen was required to detect the shape or motion of a person. In other words, by using the difference between the reference background (or the background screen) and the current screen, a mass of each part of the body was made, and the human body model was constructed using each mass. Or after extracting the feature points to detect the shape or motion of the human body model or human, three-dimensional position calculation for each feature point was performed.
따라서 종래에는, 사람의 형상 또는 동작을 검출하기 위해서는 배경스크린 또는 기준 배경화면이 필요로 하거나, 실질적으로 손의 모양과 같은 세밀한 동작은 검출이 불가능하였고, 계산 시간이 많이 걸리는 등의 단점이 있었다.Therefore, in the related art, a background screen or a reference background screen is required to detect a shape or a motion of a person, or a detailed motion such as the shape of a hand cannot be detected, and it takes a lot of calculation time.
발명은 전술한 종래기술의 문제점을 해결하기 위하여, 스테레오 비전과 패턴색상 분류기를 사용하여 얼굴, 몸통, 어깨, 팔꿈치, 손의 3차원 위치와 손의 모양을 직접 검출할 수 있는 상체자세 및 손모양 검출 장치 및 그 방법을 제공한다.In order to solve the problems of the prior art described above, the upper body posture and hand shape that can directly detect the three-dimensional position and shape of the hand, face, torso, shoulder, elbow, hand using stereo vision and pattern color classifier A detection apparatus and a method thereof are provided.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the above-mentioned object, and other objects that are not mentioned will be clearly understood by those skilled in the art from the following description.
전술한 목적을 달성하기 위한 본 발명의 일면에 따른 상체자세 및 손모양 검출 장치는, 적어도 두개의 카메라로부터 제공되는 영상으로부터 3차원 거리정보를 계산하는 스테레오 비전 계산부와, 상기 영상으로부터 색상 및 패턴을 분류하여 색상 정보와 패턴 정보를 출력하는 색상패턴 분류부와, 상기 3차원 거리정보와 상기 색상 정보 및 상기 패턴 정보를 이용하여 각 대상체별로 3차원 위치 정보를 추출하는 다수의 위치 검출부와, 상기 대상체별 3차원 위치 정보를 이용하여 상체자세를 인식하는 상체자세 인식부 및 상기 대상체별 3차원 위치 정보 중 손 위치 정보를 이용하여 손의 모양을 인식하는 손모양 인식부를 포함한다.According to an aspect of the present invention, there is provided an upper body posture and a hand shape detecting apparatus, including: a stereo vision calculator configured to calculate 3D distance information from an image provided from at least two cameras, and a color and a pattern from the image. A color pattern classification unit for classifying the color information and pattern information, a plurality of position detection units for extracting 3D position information for each object by using the 3D distance information, the color information, and the pattern information; The upper body posture recognition unit recognizes the upper body posture by using the three-dimensional position information for each object, and a hand shape recognition unit that recognizes the shape of the hand using the hand position information among the three-dimensional position information for each object.
본 발명의 다른 면에 따른 상체자세 및 손모양 검출 장치는, 적어도 두개의 카메라로부터 제공되는 영상으로부터 3차원 거리정보를 계산하는 스테레오 비전 계산부와, 상기 영상으로부터 피부색을 갖는 영역을 검출하는 색상 검출부와, 상기 영상으로부터 신체 부위별 패턴을 검출하는 패턴 검출부와, 상기 3차원 거리정보와 상기 피부색의 영역 및 상기 신체 부위별 패턴을 이용하여, 상기 영상으로부터 각 신체 부위를 분류하고 상기 각 신체 부위의 위치를 검출하는 추출하는 위치 검출부와, 상기 각 신체 부위의 위치를 이용하여 상체자세를 인식하는 상체자세 인식부와, 상기 대상체별 3차원 위치 정보 중 손 위치 정보를 이용하여 손의 모양을 인식하는 손모양 인식부를 포함한다.According to another aspect of the present invention, an upper body posture and hand shape detecting apparatus includes a stereo vision calculating unit calculating three-dimensional distance information from an image provided from at least two cameras, and a color detecting unit detecting an area having a skin color from the image. And a pattern detection unit for detecting a pattern for each body part from the image, classifying each body part from the image by using the 3D distance information, the skin color region, and the pattern for each body part. A position detection unit for detecting a position, an upper body posture recognition unit for recognizing the upper body posture using the position of each body part, and a shape of the hand using the hand position information among the three-dimensional position information for each object It includes a hand recognition unit.
본 발명의 또 다른 면에 따른 상체자세 및 손모양 검출 방법은, 적어도 두개의 카메라로부터 제공되는 영상으로부터 3차원 거리정보를 계산하는 단계와, 상기 영상으로부터 피부색을 갖는 영역을 검출하는 단계와, 상기 영상으로부터 신체 부위별 패턴을 검출하는 단계와, 상기 3차원 거리정보와 상기 피부색의 영역 및 상기 신체 부위별 패턴을 이용하여 각 신체 부위의 위치를 검출하는 단계와, 상기 각 신체 부위의 위치를 이용하여 상체자세를 인식하는 단계 및 상기 대상체별 3차원 위치 정보 중 손 위치 정보를 이용하여 손의 모양을 인식하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for detecting upper body posture and hand shape, comprising: calculating three-dimensional distance information from an image provided from at least two cameras, detecting an area having a skin color from the image, and Detecting a pattern of each body part from an image, detecting a location of each body part using the 3D distance information, the region of the skin color, and the pattern of each body part, and using the location of each body part Recognizing the upper body posture and the shape of the hand using the hand position information of the three-dimensional position information for each object.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and the drawings.
본 발명은 두 대 이상의 카메라를 이용할 경우 주변환경을 3차원으로 파악할 수 있고, 스테레오 비전계산기, 색상패턴 분류기를 병행하여 사용자의 얼굴, 몸통, 어깨, 팔꿈치, 손의 3차원 위치를 실시간으로 파악할 수 있다.According to the present invention, when two or more cameras are used, the surrounding environment can be grasped in three dimensions, and a stereo vision calculator and a color pattern classifier can be used to grasp the three-dimensional position of the user's face, torso, shoulder, elbow, and hand in real time. have.
또한, 마우스나 리모컨과 같은 장치를 사용하지 않고 사용자와 컴퓨터의 인 터페이스를 구성할 수 있게 하여 사용자의 편의성과 다양한 응용을 가능하게 한다. 즉 손의 모양을 인식하여 사용자는 같은 자세에서도 여러 가지 명령을 내릴 수 있어 다양한 응용을 구성할 수 있다. 예를 들어 TV에 장착되는 경우 손짓으로 TV를 조작할 수 있으며 다양한 게임에도 응용될 수 있다.In addition, it is possible to configure the interface between the user and the computer without using a device such as a mouse or a remote control to enable the user's convenience and various applications. That is, by recognizing the shape of the hand, the user can give various commands even in the same posture, so that various applications can be configured. For example, when mounted on a TV, the TV can be manipulated by hand gestures and applied to various games.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various forms, and only the present embodiments are intended to complete the disclosure of the present invention, and the general knowledge in the art to which the present invention pertains. It is provided to fully convey the scope of the invention to those skilled in the art, and the present invention is defined only by the scope of the claims. Meanwhile, the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. As used herein, “comprises” and / or “comprising” refers to the presence of one or more other components, steps, operations and / or elements. Or does not exclude additions.
도 1 내지 도 4를 참조하여 본 발명의 실시예에 따른 상체자세 및 손모양 검출 장치 및 검출 방법에 대해 설명한다. 도 1은 본 발명의 실시예에 따른 상체자세 및 손모양 검출 장치를 나타내는 블록도이고, 도 2는 도 1의 스테레오 비전 계산부를 나타내는 블록도이고, 도 3은 도 1의 색상패턴 분류부를 나타내는 블록도이고, 도 4는 상체자세 및 손모양 검출 결과를 나타내는 예시도이다.An upper body posture and hand shape detecting apparatus and a detecting method according to an exemplary embodiment of the present invention will be described with reference to FIGS. 1 to 4. 1 is a block diagram illustrating an upper body posture and hand shape detection apparatus according to an embodiment of the present invention, FIG. 2 is a block diagram illustrating a stereo vision calculation unit of FIG. 1, and FIG. 3 is a block diagram illustrating a color pattern classification unit of FIG. 1. Fig. 4 is an exemplary view showing upper body posture and hand-shaped detection results.
도 1을 참조하면, 본 발명의 실시예에 따른 상체자세 및 손모양 검출 장치(10)는 적어도 두 개의 카메라(101, 102, 103)와, 영상 데이터 전처리부(200)와, 스테레오 비전 계산부(300)와, 색상패턴 분류부(400)와, 신체부위 분류부(500)와 다수의 위치 검출부(610, 620, 630, 640, 650)와, 사용자 상체자세 인식부(710)와, 손모양 인식부(720) 및 응용 인터페이스부(800)를 포함한다.Referring to FIG. 1, the upper body posture and hand
두 개 이상의 카메라(101, 102, 103)는 사람(이하 사용자라 함)을 촬영하여 다시점의 영상을 출력한다. 두 개 이상의 카메라(101, 102, 103)는, 예컨대 컴퓨터 모니터나 TV등의 가전제품 혹은 벽에 장착될 수 있으며, 사용자를 촬영하도록 구동될 수 있다. 예컨대 카메라(101, 102, 103)는 사용자의 움직임, 또는 음성 등을 인식하여 사용자를 촬영하도록 움직일 수 있다.Two or
영상 데이터 전처리부(200)는 두 개 이상의 카메라(101, 102, 103)로부터 제공된 영상 데이터에 대해 전처리를 수행한다. 예컨대 영상 데이터 전처리부(200)는 각 카메라(101, 102, 103)로부터 제공된 영상데이터에 대한 노이즈 제거, 색상 보정, 밝기 보정, 화면왜곡 보정 등의 화질 향상작업을 수행할 수 있다. 전처리된 영상은 스테레오 비전 계산부(300)와 색상패턴 분류부(400)로 전해진다.The
먼저 스테레오 비전 계산부(300)는 다수의 카메라(101, 102, 103)로부터 입력된 영상에 대해 스테레오 영상을 계산하여 화면내 각 대상체까지의 3차원 거리정보를 제공한다. First, the
도 2를 더 참조하여 좀더 구체적으로 설명하면, 스테레오 비전 계산부(300) 는 스테레오 비전 전처리부(310)와, 스테레오 매칭부(320)와, 스테레오 비전 후처리부(320)를 포함한다.Referring to FIG. 2, the
스테레오 비전 전처리부(310)는 스테레오 매칭을 위해 다수의 카메라(101, 102, 103)의 밝기를 조정하거나, 노이즈를 제거하거나 왜곡 보정 등을 수행한다. 또는 스테레오 비전 전처리부(310)는 교정(Calibration), 스케일다운 필터링(Scale down Filtering), 수정(Rectification), 및 휘도 조절(Brightness Control) 등을 수행할 수 있다.The
스테레오 매칭부(320)는 전처리된 다수의 카메라(101, 102, 103)의 영상으로부터 서로 대응되는 부분(Stereo Matching)을 찾아 거리 정보를 추출한다. 이때 스테레오 매칭부(320)에서 출력되는 거리 정보는, 예컨대 거리에 따라 밝기로 표현된 영상(가까운 물체는 밝은 색으로, 멀리 있는 물체는 어두운 색으로 표현된 영상)이거나 또는 거리에 따라 색이 다르게 표현된 영상일 수 있다. 여기서 멀리 있는 배경은 삭제될 수 있다.The
스테레오 비전 후처리부(320)는 스테레오 매칭부(320)에서 출력된 거리 정보를 후처리하여 출력한다. 예컨대 스테레오 비전 후처리부(320)는 스테레오 매칭부(320)에서 출력된 거리 정보로부터 노이즈를 제거하거나, 거리 정보로부터 서로 다른 대상체들을 구분하는 작업(segmentation, Labeling)을 수행할 수 있다.The stereo
다음으로, 도 1의 색상패턴 분류부(400)는 화면내의 색상 및 패턴을 분류 및 분석하여 사용자의 신체부위, 예컨대 얼굴, 몸통, 어깨, 팔꿈치, 손 등을 인식하기 위한 색상 정보 및 패턴 정보를 출력한다. Next, the color
도 3을 참조하여 좀더 구체적으로 설명하면, 색상패턴 분류부(400)는 색상 검출부(410)와 패턴 검출부(450)를 포함한다. More specifically, referring to FIG. 3, the
색상 검출부(410)는 색상 보정부(420)와 피부색 검출부(430) 및 형태 필터 (morphological filter)(440)를 포함한다. The
색상 보정부(420)는 영상 데이터 전처리부(200)에 의해 전처리된 영상으로부터 색상을 보정한다. 예컨대 영상이 전체적으로 붉은 경우 붉은 성분을 낮출 수 있다. 또는 색상 보정부(420)는 영상의 R(Red), G(Green), B(Blue) 성분의 비율을 조정할 수 있다. The
피부색 검출부(430)는 보정된 영상으로부터 피부색을 검출할 수 있다. 즉, 보정된 영상에서 피부색을 갖는 영역을 검출할 수 있다. The
형태 필터(440)는 필터링을 통해 피부색을 갖는 영역의 형태를 결정하여 그에 대응하는 색상 정보를 출력한다. 예컨대 형태 필터(440)는, 형태 필터링을 통해 피부색 검출부(430)로부터 출력된 피부색을 갖는 영역의 에지(edge)를 결정하여 피부색을 갖는 영역의 형태를 결정할 수 있다.The shape filter 440 determines the shape of the region having the skin color through filtering and outputs color information corresponding thereto. For example, the shape filter 440 may determine the shape of an area having a skin color by determining an edge of an area having a skin color output from the
다음으로 패턴 검출부(450)는 영상 데이터 전처리부(200)에 의해 전처리된 영상으로부터 패턴 정보를 검출한다. 이러한 패턴 검출부(450)는 전처리된 영상으로부터 신체 부위별 패턴을 검출할 수 있다. 예컨대 패턴 검출부(450)는 전처리된 영상으로부터 얼굴, 몸통, 어깨, 팔꿈치, 손의 패턴을 갖는 영역을 검출할 수 있다. 이러한 패턴 검출부(450)는, 예컨대 기 저장된 얼굴, 몸통, 어깨, 팔꿈치, 손의 패턴 샘플과 영상을 비교하여 영상으로부터 얼굴, 몸통, 어깨, 팔꿈치, 손의 패 턴을 갖는 영역을 검출할 수 있다. Next, the
이와 같이 스테레오 비전 계산부(300)와 색상패턴 분류부(400)는 영상 데이터 전처리부에 의해 전처리된 영상을 각각 개별적으로, 병렬적으로 처리함으로써 계산 시간을 줄일 수 있다. 또한 색상패턴 분류부(400)도 내부적으로 색상 검출부(410)와 패턴 검출부(450)가 각각 개별적으로, 병렬적으로 동작함으로써 계산 시간을 줄일 수 있다. As described above, the
한편, 도 1의 신체부위 분류부(500)는, 스테레오 비전 계산부(300)로부터 출력된 3차원 거리 정보와, 색상패턴 분류부(400)로부터 출력된 색상정보 및 패턴 정보를 이용하여 영상으로부터 각 신체부위를 분류할 수 있다. 즉, 영상으로부터 사용자의 얼굴, 몸통, 어깨, 팔꿈치, 손을 분류해 낸다. Meanwhile, the
더불어 다수의 위치 검출부(610, 620, 630, 640, 650)는 각 신체부위의 위치를 검출한다. 예컨대 얼굴 위치 검출부(610)는 사용자의 얼굴의 3차원 위치를 검출하고, 몸통 검출부는 사용자의 몸통의 3차원 위치를 검출하고, 어깨 위치 검출부(630)는 사용자의 어깨의 3차원 위치를 검출하고, 팔꿈치 위치 검출부(640)는 사용자의 팔꿈치의 3차원 위치를 검출하고, 손 위치 검출부(650)는 사용자의 손의 3차원 위치를 검출한다.In addition, the plurality of
이와 같이 다수의 위치 검출부(610, 620, 630, 640, 650)는 각 신체부위의 위치를 각각 개별적으로, 병렬적으로 검출함으로써, 계산 시간이 빠르며, 각 신체부위의 3차원 거리정보, 색상 정보 및 패턴 정보로부터 생성된 3차원 위치 정보를 이용하므로, 각 신체부위를 세밀하게 검출할 수 있다.As described above, the plurality of
상체자세 인식부(710)는 각 신체부위별 3차원 위치 정보를 이용하여 사용자의 상체자세를 인식한다. 예컨대 상체자세 인식부(710)는 얼굴, 몸통, 어깨, 팔꿈치, 손의 3차원 위치 정보를 이용하여 사용자의 상체자세를 재구성함으로써, 사용자의 상체 자세를 인식할 수 있다.The upper
또한, 손모양 인식부(720)는 손의 3차원 위치 정보를 이용하여 사용자의 손 모양을 인식할 수 있다.In addition, the
이러한 과정을 통해, 사용자의 상체자세 정보와 손모양 정보는 도 4와 같이 도출되며, 이러한 사용자의 상체자세 정보와 손모양 정보는 응용인터페이스부(800)를 통해 외부 기기(또는 네트워크)로 전달되어 활용된다.Through this process, the upper body posture information and the hand shape information of the user is derived as shown in Figure 4, the upper body posture information and the hand shape information of the user is transmitted to the external device (or network) through the
이와 같이, 3차원 거리 정보와, 색상 정보 및 패턴 정보를 각각 개별적으로 생성하고, 이러한 정보를 이용하여 얼굴, 몸통, 어깨, 팔꿈치, 손의 모양을 독립적으로 검출함으로써, 계산 시간이 빠르게 된다. 또한, 3차원 거리 정보와, 색상 정보 및 패턴 정보를 이용하여 세밀한 손 모양을 실시간으로 검출할 수 있다. 또한, 외부 기기와 연결되어 사용자의 상체 자세 및 손 모양을 통한 외부 기기의 제어를 세밀하게 할 수 있다. 예컨대 상체 자세 및 손 모양 각각에 따라 서로 다른 제어를 수행할 수 있다. 즉, 손의 모양을 인식하여 사용자는 같은 자세에서도 여러 가지 명령을 내릴 수 있어 다양한 응용을 구성할 수 있다.As described above, the three-dimensional distance information, the color information, and the pattern information are generated separately, and the shape, face, torso, shoulder, elbow, and hand shape are independently detected using such information, so that the calculation time is increased. In addition, the detailed hand shape may be detected in real time using the 3D distance information, the color information, and the pattern information. In addition, it can be connected to an external device to finely control the external device through the user's upper body posture and hand shape. For example, different controls can be performed according to the upper body posture and the shape of the hand. In other words, by recognizing the shape of the hand, the user can give various commands even in the same posture, so that various applications can be configured.
도 5를 참조하여 본 발명의 다른 실시예에 따른 상체자세 및 손모양 검출 장치를 설명한다. 도 5는 다른 실시예에 따른 상체자세 및 손모양 검출 장치의 색상패턴 분류부의 구성도이다. An upper body posture and hand shape detection apparatus according to another embodiment of the present invention will be described with reference to FIG. 5. 5 is a block diagram of a color pattern classification unit of the upper body posture and hand shape detection apparatus according to another embodiment.
도 5를 참조하면, 색상패턴 분류부(405)는 색상 검출부(415)와 패턴 검출부(455) 및 표준인체모델 저장부(465)를 포함한다. Referring to FIG. 5, the
색상 검출부(415)는 색상 보정부(420)와 차영상 계산부(425)와 피부색 검출부(435) 및 형태 필터(445)를 포함한다. The
색상 보정부(420)는 전처리된 영상으로부터 색상을 보정한다. 예컨대 영상이 전체적으로 붉은 경우 붉은 성분을 낮출 수 있다. 또는 색상 보정부(420)는 영상의 R(Red), G(Green), B(Blue) 성분의 비율을 조정할 수 있다. The
차영상 계산부(425)는 현재 영상과 이전 영상의 차이인 차영상을 계산한다. 여기서 차영상은 피부색 검출부(435)가 보정된 영상으로부터 피부색을 검출하는데 이용된다.The
구체적으로, 차영상 계산부(425)는 현재 영상에서 이전 영상을 빼어, 차영상과 모션벡터를 계산한다. 차영상은 현재 영상에서 이전 영상을 뺀 영상으로서, 변화된 영역(또는 움직인 영역)에 대한 영상이며, 모션벡터는 이러한 변화된 영역(또는 움직인 영역)을 나타내는 정보, 예컨대 변화 또는 움직임에 대한 방향과 크기를 나타낸다. 현재 영상 및 이전 영상에서 움직인 대상은 주로 사람일 가능성이 높기 때문에 차영상은 주로 사람에 대한 영상일 수 있고, 차영상은 주로 사람의 피부색 영역을 포함하고 있다. 즉, 차영상을 나타내는 정보인 모션벡터는 사람의 피부색에 관한 정보를 갖고 있다. 따라서 피부색 검출부(435)는 차영상 또는 모션벡터를 이용하여 변화된 영역(또는 움직인 영역)의 색상을 분석하여 피부색을 인식하고, 이를 이용하여 보정된 영상으로부터 피부색을 검출할 수 있다. 이러한 경우, 소정의 명도 및 채도를 갖는 검출용 피부색을 이용하여 영상에서 피부색을 검출하지 않고, 실체 촬영되는 사람의 피부색을 이용하여 영상에서 피부색을 검출하게 되므로, 더욱 정확하고 신뢰성있는 결과를 얻을 수 있다. In detail, the
형태 필터(445)는 필터링을 통해 피부색을 갖는 영역의 형태를 결정하여 그에 대응하는 색상 정보를 출력한다. 예컨대 형태 필터(445)는, 형태 필터링을 통해 피부색 검출부(435)로부터 출력된 피부색을 갖는 영역의 에지(edge)를 결정하여 피부색을 갖는 영역의 형태를 결정할 수 있다.The shape filter 445 determines the shape of the region having the skin color through filtering and outputs color information corresponding thereto. For example, the shape filter 445 may determine the shape of an area having a skin color by determining an edge of an area having a skin color output from the skin color detector 435 through shape filtering.
다음으로 패턴 검출부(455)는 표준인체모델 저장부(465)에 저장된 표준인체모델을 이용하여 전처리된 영상으로부터 패턴 정보, 예컨대 신체 각 부위의 위치, 형태에 관한 정보를 검출한다. 사람의 신체 비율, 각 부위의 형상, 각 부위 위치 등은 성별 및 나이에 따라 일정한 경향을 보이며, 이를 표준화한 것이 표준인체모델이다. 예컨대, 표준인체모델은 성별 및 나이 각각에 일반적인 신체 비율, 각 부위의 형상 및 위치에 관한 샘플일 수 있으며, 이러한 표준인체모델을 이용하여 영상으로부터 신체 각 부위의 위치, 형태에 관한 정보를 검출하므로 보다 정확하게 검출할 수 있다.Next, the
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 예를 들어 본 발명의 제어 방법을 실현하기 위한 프로그램이 기록된 기록매체의 형태 등 다양한 형태로 구현될 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art will appreciate that the present invention can be embodied in other specific forms without changing the technical spirit or essential features of the present invention. For example, a program for realizing the control method of the present invention may be implemented in various forms such as a recording medium in which a program is recorded. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. The scope of the present invention is shown by the following claims rather than the detailed description, and all changes or modifications derived from the claims and their equivalents should be construed as being included in the scope of the present invention.
도 1은 본 발명의 실시예에 따른 상체자세 및 손모양 검출 장치를 나타내는 블록도이다.1 is a block diagram showing an upper body posture and hand shape detection apparatus according to an embodiment of the present invention.
도 2는 도 1의 스테레오 비전 계산부를 나타내는 블록도이다.FIG. 2 is a block diagram illustrating a stereo vision calculator of FIG. 1.
도 3은 도 1의 색상패턴 분류부를 나타내는 블록도이다.3 is a block diagram illustrating a color pattern classification unit of FIG. 1.
도 4는 상체자세 및 손모양 검출 결과를 나타내는 예시도이다.Figure 4 is an exemplary view showing the upper body posture and hand detection results.
도 5는 본 발명의 다른 실시예에 따른 상체자세 및 손모양 검출 장치를 설명하기 위한 블록도이다.5 is a block diagram illustrating an upper body posture and hand shape detection apparatus according to another embodiment of the present invention.
(도면의 주요부분에 대한 부호의 설명) (Explanation of symbols for the main parts of the drawing)
10: 상체자세 및 손모양 검출 장치 101~103: 카메라10: upper body posture and
200: 영상 데이터 전처리부 300: 스테레오 비전 계산부200: image data preprocessor 300: stereo vision calculation unit
400: 색상패턴 분류부 500: 신체부위 분류부400: color pattern classification unit 500: body part classification unit
610: 얼굴 위치 검출부 620: 몸통 위치 검출부610: face position detection unit 620: trunk position detection unit
630: 어깨 위치 검출부 640: 팔꿈치 위치 검출부630: shoulder position detection unit 640: elbow position detection unit
650: 손 위치 검출부 710: 상체자세 인식부650: hand position detection unit 710: upper body posture recognition unit
720: 손 모양 인식부 800: 응용 인터페이스부720: hand recognition unit 800: application interface unit
Claims (18)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/620,734 US8442267B2 (en) | 2008-12-24 | 2009-11-18 | Apparatus and method for detecting upper body posture and hand posture |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080133238 | 2008-12-24 | ||
KR20080133238 | 2008-12-24 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100075356A true KR20100075356A (en) | 2010-07-02 |
KR101158016B1 KR101158016B1 (en) | 2012-06-25 |
Family
ID=42637733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090064638A KR101158016B1 (en) | 2008-12-24 | 2009-07-15 | Apparatus and method for detecting upper body pose and hand shape |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101158016B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101436695B1 (en) * | 2012-11-13 | 2014-09-01 | 재단법인대구경북과학기술원 | Apparatus and method for detecting finger using depth image |
US8917906B2 (en) | 2011-04-06 | 2014-12-23 | Samsung Electronics Co., Ltd. | Method and apparatus for motion recognition |
US9669260B2 (en) | 2011-10-21 | 2017-06-06 | Korea Institute Of Science And Technology | Apparatus and method for tracking the position of each part of the body for golf swing analysis |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100605050B1 (en) * | 1999-09-08 | 2006-07-26 | 주식회사 팬택앤큐리텔 | Method and apparatus for searching human 3d body posture |
KR100507780B1 (en) * | 2002-12-20 | 2005-08-17 | 한국전자통신연구원 | Apparatus and method for high-speed marker-free motion capture |
KR100826878B1 (en) * | 2006-09-28 | 2008-05-06 | 한국전자통신연구원 | Hand shafe recognition method and apparatus for thereof |
-
2009
- 2009-07-15 KR KR1020090064638A patent/KR101158016B1/en not_active IP Right Cessation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8917906B2 (en) | 2011-04-06 | 2014-12-23 | Samsung Electronics Co., Ltd. | Method and apparatus for motion recognition |
US9669260B2 (en) | 2011-10-21 | 2017-06-06 | Korea Institute Of Science And Technology | Apparatus and method for tracking the position of each part of the body for golf swing analysis |
KR101436695B1 (en) * | 2012-11-13 | 2014-09-01 | 재단법인대구경북과학기술원 | Apparatus and method for detecting finger using depth image |
Also Published As
Publication number | Publication date |
---|---|
KR101158016B1 (en) | 2012-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019128508A1 (en) | Method and apparatus for processing image, storage medium, and electronic device | |
CN106022209B (en) | A kind of method and device of range estimation and processing based on Face datection | |
US10534957B2 (en) | Eyeball movement analysis method and device, and storage medium | |
CN105407346B (en) | Image division method | |
US8442267B2 (en) | Apparatus and method for detecting upper body posture and hand posture | |
EP3153943A1 (en) | Air gesture input method and apparatus | |
CN109255324A (en) | Gesture processing method, interaction control method and equipment | |
CN110209273A (en) | Gesture identification method, interaction control method, device, medium and electronic equipment | |
WO2009131539A1 (en) | A method and system for detecting and tracking hands in an image | |
KR20170006355A (en) | Method of motion vector and feature vector based fake face detection and apparatus for the same | |
CN106503651B (en) | A kind of extracting method and system of images of gestures | |
CN109325408A (en) | A kind of gesture judging method and storage medium | |
US9280209B2 (en) | Method for generating 3D coordinates and mobile terminal for generating 3D coordinates | |
CN104821010A (en) | Binocular-vision-based real-time extraction method and system for three-dimensional hand information | |
CN103500335A (en) | Photo shooting and browsing method and photo shooting and browsing device based on gesture recognition | |
CN112101208A (en) | Feature series fusion gesture recognition method and device for elderly people | |
CN103279188A (en) | Method for operating and controlling PPT in non-contact mode based on Kinect | |
JP6157165B2 (en) | Gaze detection device and imaging device | |
TW202011284A (en) | Eye state detection system and method for operating an eye state detection system | |
CN104866826B (en) | A kind of static sign Language Recognition Method based on KNN and pixel ratio Gradient Features | |
CN116958584B (en) | Key point detection method, regression model training method and device and electronic equipment | |
JP2007052609A (en) | Hand area detection device, hand area detection method and program | |
US20140328516A1 (en) | Gesture Recognition Method, An Apparatus and a Computer Program for the Same | |
KR101158016B1 (en) | Apparatus and method for detecting upper body pose and hand shape | |
Gu et al. | Hand gesture interface based on improved adaptive hand area detection and contour signature |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150527 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170529 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |