KR101837482B1 - Image processing method and apparatus, and interface method and apparatus of gesture recognition using the same - Google Patents

Image processing method and apparatus, and interface method and apparatus of gesture recognition using the same Download PDF

Info

Publication number
KR101837482B1
KR101837482B1 KR1020170039102A KR20170039102A KR101837482B1 KR 101837482 B1 KR101837482 B1 KR 101837482B1 KR 1020170039102 A KR1020170039102 A KR 1020170039102A KR 20170039102 A KR20170039102 A KR 20170039102A KR 101837482 B1 KR101837482 B1 KR 101837482B1
Authority
KR
South Korea
Prior art keywords
current
block
image
tracking
image processing
Prior art date
Application number
KR1020170039102A
Other languages
Korean (ko)
Other versions
KR20170039113A (en
Inventor
최종호
Original Assignee
(주)이더블유비엠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이더블유비엠 filed Critical (주)이더블유비엠
Priority to KR1020170039102A priority Critical patent/KR101837482B1/en
Publication of KR20170039113A publication Critical patent/KR20170039113A/en
Application granted granted Critical
Publication of KR101837482B1 publication Critical patent/KR101837482B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • G06K9/00355
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • G06K9/00302
    • G06K9/00597
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Abstract

미리 정해진 주기마다 매회 영상취득장치로부터 입력받은 처리영상 속에서 다중 프레임 기반 모션모델을 이용하여 미리 정해진 대상체를 전경영상으로 검출하고 이를 위치와 크기로 간략화시킨 블럽을 산출한 후, 추적의 대상인 오브젝트와 상기 블럽을 비교하여, 상기 오브젝트의 위치를 추적하는 영상처리방법에 있어서, 금회에 상기 블럽이 부존재하면, 금회의 상기 전경영상의 정보를 이용하여 금회의 상기 오브젝트의 위치를 추정하는 오브젝트 추정단계를 포함함을 특징으로 하는 영상처리방법이 제공된다.A for each predetermined period every time detecting the multi-frame-based motion model, a predetermined object using an in processed images in inputted by the image capturing device into a foreground image and calculates the blob was simplicity it with the position and size and then, the object that is the target of tracking and And an object estimation step of estimating a position of the object at this time using the information of the current foreground image if the block is not present at this time in the image processing method for tracking the position of the object by comparing the block And an image processing method is provided.

Description

영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치 {IMAGE PROCESSING METHOD AND APPARATUS, AND INTERFACE METHOD AND APPARATUS OF GESTURE RECOGNITION USING THE SAME}TECHNICAL FIELD [0001] The present invention relates to an image processing method and apparatus, and a gesture recognition interface method and apparatus using the same.

본 발명은, 영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치에 관한 것으로서, 보다 상세히는, 입력된 블럽(Blob)의 유효성에 대한 검증을 수행하여, 잘못된 블럽이 입력된 경우에도 오차범위를 넘어서는 오판단을 방지하고, 실제로 대상체가 존재하는 경우에는 오브젝트에 대한 추적의 누락이나 유실현상을 방지하고, 대상체의 위치추적의 정확성을 높이고, 추적 소요시간을 단축시키는 영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치에 관한 것이다.The present invention relates to an image processing method and apparatus, and a gesture recognition interface method and apparatus using the same. More specifically, the present invention relates to a method and apparatus for verifying the validity of an input blob, An image processing method and apparatus for preventing erroneous judgment beyond a range and preventing omission or loss of tracking of an object when the object exists in reality and increasing the accuracy of tracking of the position of the object and shortening the time required for tracking, And a gesture recognition interface method and apparatus using the same.

컴퓨터 비전기술의 급격한 발전에 따라, 비접촉식 인터페이스의 중요성이 이슈화되고 있다. 일반적으로 알려져 있는 비접촉식 인터페이스에는, With the rapid development of computer vision technology, the importance of contactless interfaces has become an issue. In a generally known non-contact interface,

(1) 손동작 인식(Hand Gesture Recognition)(1) Hand Gesture Recognition

(2) 눈동자 인식(Eye[Pupil] Recognition)(2) Eye [Pupil] Recognition

(3) 음성 인식(Voice Recognition)(3) Voice Recognition

(4) 얼굴표정 인식(Expression Recognition)(4) Facial Expression Recognition (Expression Recognition)

(5) 행위 인식(Behavior Recognition)(5) Behavior Recognition

등이 포함된다.And the like.

이러한 비접촉식 인터페이스는, 사용자와 기기의 상호관계를 위한 도구로서 유용하며, 행정사무, 게임, 운동 등 다양한 응용이 가능하다. 구체적 응용기기의 예로서는, Such a contactless interface is useful as a tool for mutual relationship between a user and a device, and can be applied to a variety of applications such as administrative work, game, and exercise. As an example of a concrete application device,

(1) 모바일(입력장치와 같은 컨트롤러 - 3차원 공간상의 상하좌우 앞뒤)(1) Mobile (controller like input device - up, down, left, right, front and back in three dimensional space)

(2) 텔레비전(리모트 컨트롤러 역할 - 줌인, 줌아웃, 볼륨 및 채널 조정)(2) Television (remote controller role - zoom in, zoom out, volume and channel adjustment)

(3) 게임기(입력장치와 같은 컨트롤러 - 3차원 공간상의 상하좌우 앞뒤)(3) Game machines (controllers like input devices - up, down, left, right, front and back in 3D space)

(4) 기타(카메라가 장착되어 있는 모든 기기의 컨트롤러)(4) Others (controller of all devices equipped with camera)

를 들 수 있다..

예컨대 도 1 및 도 2에 예시된 바와 같이, 카메라(영상취득장치)(cam)를 통하여 취득된 영상으로부터 이용자(h)의 특정 부위(예컨대 손)(h1, h2)인 대상체를 검출하고, 그 움직임의 궤적을 추적하고, 그 궤적에 대응하는 미리 정의된 제스처를 결정하고, 그 제스처에 따라서 상기 카메라(cam)에 연결된 컴퓨터나 스마트폰 등과 같은 정보처리기기(미도시)에 대하여 미리 정해진 후처리(예컨대 전후좌우 상하방향 이동의 발생이벤트 출력)를 행하는 기술이 알려져 있다. 이는 도 3 (c)와 같이, 영상입력(1), 대상체 검출(2), 위치추적(3), 제스처 인식(4) 및 후처리(5)의 순으로 단계가 진행되는 것이다.For example, as illustrated in Figs. 1 and 2, a target object (e.g., a hand) h1 and h2 of a user h is detected from an image acquired through a camera (image acquisition device) (Not shown) such as a computer or a smartphone connected to the camera according to the gesture, determines a predetermined gesture corresponding to the trajectory, (For example, outputting an occurrence event of forward, backward, leftward and rightward and upward and downward movement) is known. As shown in FIG. 3 (c), the image input 1, the object detection 2, the position tracking 3, the gesture recognition 4, and the post-process 5 proceed in this order.

이 분야의 종래기술로서, 센서글러브와 같은 외부장치를 이용한 방식과 컴퓨터 비전기술을 이용한 방식의 손동작 인식기술이 존재한다. 특히 컴퓨터 비전기술 기반의 손동작 인식기술은, As a conventional art in this field, there is a hand movement recognition technique using a method using an external device such as a sensor glove and a computer vision technique. Particularly, the computer vision technology based hand-

(1) 컬러, 모양, 질감 등 특징을 이용한 히스토그램 매칭기법(1) Histogram matching technique using features such as color, shape, and texture

(2) 챔퍼 디스턴스 (Chamfer Distance)와 같은 윤곽선 기반의 템플릿 매칭 기법(2) Contour based template matching techniques such as Chamfer Distance

(3) 예측에 기반한 은닉 마코프스 모델 기법 (Hidden Markov Model)(3) Hidden Markov Model based on Prediction

(4) 기계학습 기법 (Machine Learning)(4) Machine Learning

등으로 연구되고 있다.And so on.

특히 종래의 특허문헌의 기술은, '깊이정보 기반의 포스처와 제스처 인식장치 및 방법'에 관한 것으로서, 피부색 검출과 배경 제거를 이용한 손 영역 추출 및 손가락 개수 판단을 특징으로 한다. 여기서 종래기술의 손동작 인식의 기술은, In particular, the conventional technology of the patent document relates to 'depth information-based posture and gesture recognition apparatus and method', and features hand region extraction and finger number determination using skin color detection and background removal. Here, the technique of the hand-

(1) 컬러영상 입력(101)(1) Color image input (101)

(2) 색상 및 질감 기반 손 영역 검출(102)(2) Color and texture-based hand region detection (102)

(3) 중첩 영역 기반 손 추적(103)(3) overlapping region-based hand tracking (103)

(4) 손동작 분석(104)(4) Analysis of hand movement (104)

(5) 이벤트 출력(105)(5) Event output (105)

의 5단계로 이루어진다..

특허공개 10-2014-0055172Patent Publication 10-2014-0055172

그런데, 도 1, 도 2 및 도 3과 같이, 상기 카메라(cam)에 이용자(h)만이 아니라 다른 다양한 것들이 함께 촬상되게 되는 환경인 경우에는, 그 처리의 대상이 되는 처리영상이 도 3 (a) (b)와 같이 매우 복잡하게 된다. 여기서, 카메라(cam)에 촬상되는 영상이 수평(x), 수직(y)방향으로 뻗는 가상의 xy평면에 놓이는 것으로 할 때, 이 카메라(cam)로부터 멀어지는 방향을 z방향(깊이방향, 심도방향)으로 설정하고 있다. 그리고, 카메라(cam)로부터 z방향으로 얕은 깊이(근거리)에서 깊은 깊이(원거리)의 순으로 파리(f), 육면체(b), 이용자(h), 텐트(t), 비행기(p)의 순으로 촬상된 경우를 예시한다. 여기서, 파리(f), 이용자(h), 및 비행기(p)는, 움직일 수 있는 것임을 유의하여야 한다.However, in the case of an environment in which not only the user h but also various other things are imaged together, as shown in Figs. 1, 2, and 3, ) (b). Here, assuming that the image taken on the camera cam is placed in a virtual xy plane extending in the horizontal (x) and vertical (y) directions, the direction away from the camera cam is referred to as z direction ). Then, in the order of the shallow depth (near) to the deep depth (far) in the z direction from the camera cam, the order of the fly (f), the hexahedron (b), the user (h), the tent As shown in Fig. Here, it should be noted that the fly (f), the user (h), and the plane (p) are movable.

도 3 (a) (b)와 같이 처리영상에 이용자(h)만이 아니라 다른 다양한 배경물체들이 함께 존재하는 경우에, 이 처리영상으로부터 정확하게 이용자(h)의 대상체(h1, h2)를 검출하고, 그 변화를 추적하는 것은, 쉽지만은 않은 것이라 할 것이다.It is possible to detect the target objects h1 and h2 of the user h precisely from the processed image when not only the user h but also various other background objects coexist in the processed image as shown in Figs. 3 (a) and 3 (b) Tracking that change is not easy.

종래기술에 의하면, 손 검출부(102)에 의하여 대상체(손)의 전경영상과 이를 위치와 크기로 간략히 나타내는 블럽(Blob)이 특정된 후, 손 추적부(103)에 의하여 이 신규의 블럽이 원래 그 시스템에서 추적 중이던 오브젝트와 동일한 것인지 매칭시켜서, 그 오브젝트의 움직임의 궤적을 추적하게 된다. 그런데, 손 추적부(103)는 단순히 중첩 영역에 기반으로 하여 손 추적을 행할 뿐이므로, 입력된 블럽의 유효성에 대한 검증은 하지 못하여, 잘못된 블럽이 입력된 경우에는 오차범위를 넘어서는 오판단을 한다는 문제가 있다.According to the conventional art, after a foreground image of a target object (a hand) and a blob, which briefly shows the foreground image and its position and size, are specified by the hand detection unit 102, It tracks the trajectory of the movement of the object by matching or matching the object that was being tracked in the system. However, since the hand tracking unit 103 merely performs hand tracking based on the overlapping area, it can not verify the validity of the inputted block, and if a wrong block is input, it makes a misjudgment that exceeds the error range there is a problem.

특히, 손 추적부(103)는 단순히 중첩 영역에 기반으로 하여 손 추적을 행할 뿐이므로, 다양한 배경물체의 존재나 조명변화, 색상으로 인하여 블럽에 대한 정보의 검출에 실패한 경우에는, 실제로는 대상체가 존재함에도 불구하고 오브젝트와의 중첩 영역을 산정할 수가 없어서, 결과를 산출하지 못하고 아이들링(idling)하게 된다는 문제가 있다.Particularly, since the hand tracking unit 103 merely tracks the hand based on the overlapping area, when the detection of the information on the block fails due to the presence of various background objects, illumination change, and color, There is a problem that the overlapping area with the object can not be calculated, and the result can not be calculated and idling occurs.

여기서 중요한 점은, 종래기술에 의하면, 대상체가 화면에 존재하지 않아서 블럽이 산출되지 않은 것은 당연한 것이므로 논외로 하고, 대상체가 화면에 존재함에도 불구하고 어떠한 이유로 인하여 최종적으로 블럽이 산출되지 않은 경우에, 이를 위치추적 단계에서 확인이나 보완을 하지 않고 있다는 점이다. 이로 인하여, 마땅히 위치가 추적되었어야 할 오브젝트에 대하여 추적의 누락이 발생한다. 따라서, 대상체의 위치추적 과정에 있어서, 추적의 정확성이 떨어지고, 이들이 중첩될 경우에는 대상체의 유실현상이 발생하고, 추적 소요시간이 많이 걸리게 된다는 문제가 있다.The important point here is that, according to the related art, it is a matter of course that the object does not exist on the screen and the block is not calculated. Therefore, when the object is on the screen and the block is not finally calculated for some reason, This is not confirmed or supplemented at the location tracking stage. This causes omission of tracking for objects that should have tracked their position. Therefore, in the process of tracking the position of the object, the accuracy of tracking is decreased, and when they are overlapped, the object is lost and the time required for tracking is increased.

본 발명은, 상기 종래기술의 문제를 해소하기 위하여 안출된 것으로서, 입력된 블럽의 유효성에 대한 검증을 수행하여, 잘못된 블럽이 입력된 경우에도 오차범위를 넘어서는 오판단을 방지하고, 실제로 대상체가 존재하는 경우에는 오브젝트에 대한 추적의 누락이나 유실현상을 방지하고, 대상체의 위치추적의 정확성을 높이고, 추적 소요시간을 단축시키는 영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치를 제공하고자 하는 것이다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the problems of the prior art, and it is an object of the present invention to verify the validity of an inputted block, to prevent a false judgment exceeding an error range even when a wrong block is inputted, An object of the present invention is to provide a method and an apparatus for image processing that prevent missing or loss of tracking of an object, increase the accuracy of position tracking of the object, shorten the time required for tracking, and provide a gesture recognition interface method and apparatus using the same. will be.

상기 과제를 달성하기 위한 본 발명의 영상처리방법은, 미리 정해진 주기마다 매회 영상취득장치로부터 입력받은 처리영상 속에서 다중 프레임 기반(t-N) 모션모델(Motion Model)을 이용하여 미리 정해진 대상체를 전경영상으로 검출하고 이를 위치와 크기로 간략화시킨 블럽을 산출한 후, 추적의 대상인 오브젝트와 상기 블럽을 비교하여, 상기 오브젝트의 위치를 추적하는 영상처리방법에 있어서, 금회에 상기 블럽이 부존재하면, 금회의 상기 전경영상의 정보(다중 프레임 기반(t-N) 모션모델(Motion Model)에 대한 정보 포함)를 이용하여 금회의 상기 오브젝트의 위치를 유지 또는 추정하는 오브젝트 추정단계를 포함함을 특징으로 한다.According to an aspect of the present invention, there is provided an image processing method for processing a foreground object in a foreground image using a multi-frame-based (tN) motion model in a processed image input from an image acquisition apparatus every predetermined period, after calculating the blob was detected and simplifying it with the position and size, as compared to the object and the blob that is the target of tracking, in the image processing method to track the location of the object, if the blob is absent in the current time, the current time And an object estimation step of maintaining or estimating the position of the current object using the information of the foreground image (including information on a multi-frame based (tN) motion model).

여기서, 상기 오브젝트 추정단계는, 금회의 상기 전경영상이, 최근 1회 이상의 (1) 상기 전경영상 또는 블럽 또는 이들의 조합, 또는 (2) 상기 오브젝트, 또는 (3) 상기 (1)과 (2)의 조합,과 미리 정해진 비율 이상으로 중첩될 때 수행됨이 바람직하다.Here, the object estimating step may include: (1) the foreground image or the block or a combination thereof, (2) the object, or (3) ) takes place when the overlap is preferably a combination, and at least pre-determined ratio.

그리고, 상기 오브젝트 추정단계에 의하여 추정되는 상기 오브젝트의 위치는, 상기 전경영상의 평균위치로 지정됨이 바람직하다.The position of the object estimated by the object estimating step may be specified as an average position of the foreground image.

그리고, 전회에 상기 오브젝트가 부존재하면, 금회의 상기 블럽이, 최근 1회 이상의 상기 전경영상 또는 블럽 또는 이들의 조합과 미리 정해진 비율 이상으로 중첩될 때, 금회의 상기 블럽이 새로운 오브젝트로 설정되도록 하는 오브젝트 추가단계가 더 구비됨이 바람직하다.When the object is not present in the previous time, the current block is set as a new object when the current block is overlapped with the foreground image or block or combination thereof at least a predetermined ratio at least one time It is preferable that an object addition step is further provided.

그리고, 금회의 상기 블럽이, 최근 1회 이상의 (a) 상기 전경영상 또는 블럽과 미리 정해진 비율 이상으로, 또한, (b) 상기 오브젝트와 미리 정해진 비율 이상으로 중첩될 때, 금회의 상기 오브젝트의 위치가 결정됨이 바람직하다.When the current block is overlapped with at least one of (a) the foreground image or the block and a predetermined ratio or more, and (b) the object overlaps with the object at a predetermined ratio or more, Is determined.

여기서, 금회의 상기 오브젝트의 위치는, 금회의 상기 블럽과 전회의 상기 오브젝트의 평균위치로 산정됨이 바람직하다.Here, it is preferable that the position of the current object is calculated as an average position of the current block and the previous object.

한편, 상기 과제를 달성하기 위한 본 발명의 제스처 인식 인터페이스 방법은, 미리 정해진 주기마다 영상취득장치로부터 입력받은 처리영상 속에서 다중 프레임 기반(t-N) 모션모델(Motion Model)을 이용하여 미리 정해진 대상체를 검출하는 검출단계와, 상기 대상체의 과거 위치와 크기에 대한 금회 위치와 크기로부터 궤적을 추적하는 추적단계와, 상기 궤적의 패턴에 대응되는 제스처를 결정하는 제스처 결정단계를 포함하는 제스처 인식 인터페이스 방법으로서, 상기 추적단계는, 상기 영상처리방법을 이용하여 이루어짐을 특징으로 한다.According to another aspect of the present invention, there is provided a gesture recognition interface method for performing a gesture recognition using a multi-frame based (tN) motion model in a processed image input from an image acquisition device at predetermined intervals, A tracking step of tracking a trajectory from a current location and size of the past location and size of the object and a gesture determination step of determining a gesture corresponding to the pattern of the trajectory, And the tracking step is performed using the image processing method.

한편, 상기 과제를 달성하기 위한 본 발명의 영상처리장치는, 미리 정해진 주기마다 매회 영상취득장치로부터 입력받은 처리영상 속에서 다중 프레임 기반(t-N) 모션모델(Motion Model)을 이용하여 미리 정해진 대상체를 전경영상으로 검출하고 이를 위치와 크기로 간략화시킨 블럽을 산출한 후, 추적의 대상인 오브젝트와 상기 블럽을 비교하여, 상기 오브젝트의 위치를 추적하는 영상처리장치에 있어서, 금회에 상기 블럽이 부존재하면, 금회의 상기 전경영상의 정보(다중 프레임 기반(t-N) 모션모델(Motion Model)에 대한 정보 포함)를 이용하여 금회의 상기 오브젝트의 위치를 유지 또는 추정하는 오브젝트 추정부를 포함함을 특징으로 한다.According to another aspect of the present invention, there is provided an image processing apparatus including a plurality of image processing apparatuses, each of which has a predetermined motion vector, after calculating the blob was detected in the foreground image and simplify them to position and size, as compared to the object and the blob that is the target of tracking, in the image processing apparatus for tracking the location of said object, if the blob is absent in the current time, And an object estimator for maintaining or estimating a position of the current object using the current foreground image information (including information on a multi-frame based (tN) motion model).

여기서, 상기 오브젝트 추정부는, 금회의 상기 전경영상이, 최근 1회 이상의 (1) 상기 전경영상 또는 블럽 또는 이들의 조합, 또는 (2) 상기 오브젝트, 또는 (3) 상기 (1)과 (2)의 조합과 미리 정해진 비율 이상으로 중첩될 때 수행됨이 바람직하다.(2) the object, or (3) the objects (1) and (2) described above, the object estimating unit may determine that the current foreground image is the latest one or more this is preferably carried out when the combination of the to be superimposed above a predetermined rate.

그리고, 상기 오브젝트 추정부에 의하여 추정되는 상기 오브젝트의 위치는, 상기 전경영상의 평균위치로 지정됨이 바람직하다.It is preferable that the position of the object estimated by the object estimating unit is designated as an average position of the foreground image.

그리고, 전회에 상기 오브젝트가 부존재하면, 금회의 상기 블럽이, 최근 1회 이상의 상기 전경영상 또는 블럽 또는 이들의 조합과 미리 정해진 비율 이상으로 중첩될 때, 금회의 상기 블럽이 새로운 오브젝트로 설정되도록 하는 오브젝트 추가부가 더 구비됨이 바람직하다.When the object is not present in the previous time, the current block is set as a new object when the current block is overlapped with the foreground image or block or combination thereof at least a predetermined ratio at least one time Object It is preferable that an additional portion is further provided.

그리고, 금회의 상기 블럽이, 최근 1회 이상의 (a) 상기 전경영상 또는 블럽과 미리 정해진 비율 이상으로, 또한, (b) 상기 오브젝트와 미리 정해진 비율 이상으로 중첩될 때, 금회의 상기 오브젝트의 위치가 결정됨이 바람직하다.When the current block is overlapped with at least one of (a) the foreground image or the block and a predetermined ratio or more, and (b) the object overlaps with the object at a predetermined ratio or more, Is determined.

여기서, 금회의 상기 오브젝트의 위치는, 금회의 상기 블럽과 전회의 상기 오브젝트의 평균위치로 산정됨이 바람직하다.Here, it is preferable that the position of the current object is calculated as an average position of the current block and the previous object.

한편, 상기 과제를 달성하기 위한 본 발명의 제스처 인식 인터페이스 장치는, 미리 정해진 주기마다 영상취득장치로부터 입력받은 처리영상 속에서 다중 프레임 기반(t-N) 모션모델(Motion Model)을 이용하여 미리 정해진 대상체를 검출하는 검출부와, 상기 대상체의 과거 위치와 크기에 대한 금회 위치와 크기로부터 궤적을 추적하는 추적부와, 상기 궤적의 패턴에 대응되는 제스처를 결정하는 제스처 결정부를 포함하는 제스처 인식 인터페이스 장치로서, 상기 추적부는, 상기 영상처리장치를 이용하여 이루어짐을 특징으로 한다.According to another aspect of the present invention, there is provided a gesture recognition interface apparatus including: a gesture recognition unit configured to generate a predetermined object using a multi-frame-based (tN) motion model in a processed image input from an image acquisition device at predetermined intervals; And a gesture determining unit for determining a gesture corresponding to a pattern of the locus, wherein the gesture recognizing interface unit comprises: a gesture recognition unit for recognizing a gesture of the object based on the past position and the size of the object; The tracking unit is characterized by using the image processing apparatus.

본 발명에 의하면, 입력된 블럽의 유효성에 대한 검증을 수행하여, 잘못된 블럽이 입력된 경우에도 오차범위를 넘어서는 오판단을 방지하고, 실제로 대상체가 존재하는 경우에는 오브젝트에 대한 추적의 누락이나 유실현상을 방지하고, 대상체의 위치추적의 정확성을 높이고, 추적 소요시간을 단축시키는 영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치가 제공된다.According to the present invention, validity of the input block is verified to prevent misjudgment exceeding the error range even when an erroneous block is input. In the case where a target object exists, An image processing method and apparatus for shortening the time required for tracking, and a gesture recognition interface method and apparatus using the same.

도 1은, 본 발명에 따른 영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치에 사용되는 영상의 취득상황 및 장애요인을 설명하기 위한 사시도이다.
도 2는, 도 1의 평면도이다.
도 3은, (a) (b) 카메라에 포착된 영상, (c) 제스처 인식 인터페이스의 전체 블럭도이다.
도 4는, 화면 예로서, (a) 배경제거 후의 전경영상, (b) 전경영상의 위치와 크기를 추출하여 특이부로 정의하고 레이블링하여 출력하는 블럽(Blob)의 개념도, (c) 위치추적의 개념도, (d)업데이팅 조건을 예시하는 테이블이다.
도 5는, 도 4 (d)의 (A)의 세부정책 예시도이다.
도 6은, 도 4 (d)의 (B)의 세부정책 예시도이다.
도 7은, 도 4 (d)의 (C)의 세부정책 예시도이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a perspective view for explaining an acquisition condition and an obstacle factor of an image used in the image processing method and apparatus according to the present invention, and the gesture recognition interface method and apparatus using the same.
Fig. 2 is a plan view of Fig. 1. Fig.
3 is an overall block diagram of (a) (b) the image captured by the camera, and (c) the gesture recognition interface.
FIG. 4 is a conceptual diagram of a blob that extracts the position and size of a foreground image after background removal, (b) a foreground image and defines and labels it as a pie, and (c) A conceptual diagram, and (d) a table illustrating the updating conditions.
Fig. 5 is an exemplary view of the detailed policy of Fig. 4 (d).
Fig. 6 is an exemplary diagram of the detailed policy of Fig. 4 (d) (B).
Fig. 7 is a diagram showing a detailed policy example of Fig. 4 (d) (C).

이하, 첨부도면을 참조하면서 본 발명을 보다 상세히 설명한다. 다만, 동일기능을 구비하여 동일역할을 하는 부재에 대해서는, 도면이 달라지더라도 동일부호를 유지함으로써, 그 상세한 설명을 생략하는 경우가 있다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings. However, for members having the same function and performing the same role, the same reference numerals are retained even if the drawings are different, and detailed description thereof may be omitted.

본 발명은, 미리 정해진 주기마다 매회 영상취득장치(예컨대 카메라(cam))로부터 입력받은 처리영상(도 3 (a) (b)) 속에서 미리 정해진 대상체(예컨대 손)(h1, h2)를 전경영상(BGS; Background Subtraction)으로 검출하고 이를 위치와 크기로 간략화시킨 블럽(Blob)을 산출한 후, 추적의 대상인 오브젝트와 상기 블럽을 비교하여, 상기 오브젝트의 위치를 추적하는 영상처리방법, 또는 이것이 하드웨어로 구현된 영상처리장치이다. 이를 위하여 본 발명은, 도 1 및 도 2에 예시된 바와 같이, 카메라(영상취득장치)(cam)를 통하여 처리영상을 취득하여, 도 3 (c)와 같이, 이 처리영상을 입력받는 영상입력(1), 이 입력된 처리영상으로부터 대상체(h1, h2)를 검출하는 대상체 검출(2), 그 움직임의 궤적을 추적하는 위치추적(3), 그 궤적에 대응하는 미리 정의된 제스처를 결정하는 제스처 인식(4) 및 그 제스처에 따라서 상기 카메라(cam)에 연결된 컴퓨터나 스마트폰 등과 같은 정보처리기기(미도시)에 대하여 미리 정해진 후처리(예컨대 전후좌우 상하방향 이동의 발생이벤트 출력)를 행하는 후처리(5)의 순으로 처리가 진행될 수 있다. 본 발명은 이 중에서, 위치추적(3)에 있어서 특히 종래기술과 현격한 차이를 가진다.In the present invention, predetermined objects (e.g., hands) (h1, h2) in the processed image (Figs. 3A and 3B) input from the image acquisition device There is provided an image processing method for detecting a BGS (Background Subtraction), calculating a Blob in which the BGS is simplified to a position and a size, and then comparing the object to be tracked with the BLOB to track the position of the object, It is an image processing device implemented by hardware. To this end, according to the present invention, as illustrated in Figs. 1 and 2, a processing image is acquired through a camera (image acquisition device) cam, and as shown in Fig. 3 (c) (2) for detecting a target object (h1, h2) from the input processed image, a position tracking (3) for tracking the trajectory of the movement, and a predefined gesture corresponding to the trajectory (For example, outputting occurrence events of front, rear, left, and right vertical movement) of an information processing device (not shown) such as a computer or a smart phone connected to the camera cam according to the gesture recognition 4 and the gesture And the post-process (5). Among them, the present invention has a remarkable difference from the conventional technique particularly in the position tracking (3).

먼저, 본 발명에서는, 대상체 검출(2)에서 도 4 (a)와 같이 전경영상(BGS)이 검출되면, 이로부터 도 4 (b)와 같이 블럽(Blob)이 정의된다. 이 블럽은, 위치와 크기를 가지고, 식별자로 레이블링된다. 도시된 예에서는, 오른손(h1)과 왼손(h2)에 대하여 블럽화되어, 각각 중심위치(X, Y, Z)와 크기(폭과 높이)가 산정되고, 각각 'A135', 'A136'이라는 식별자로 레이블링된 것을 나타낸다. 다만, 이는 예시일 뿐이고, 통일적으로 사용된다는 조건 하에서, 위치를 예컨대 좌상 꼭지점의 위치로 하여도 좋다. 그리고, 위치와 크기 대신에, 2개의 위치, 예컨대 두 마주보는 대각 꼭지점의 위치를 저장하여도 좋다.First, in the present invention, when the foreground image BGS is detected in the object detection 2 as shown in FIG. 4A, a block Blob is defined as shown in FIG. 4B. These blops, with their positions and sizes, are labeled with identifiers. In the illustrated example, the right hand h1 and the left hand h2 are blurred to calculate center positions (X, Y, Z) and size (width and height) Indicates that it is labeled with an identifier. However, this is only an example, and the position may be, for example, the position of the upper left vertex under the condition that it is used uniformly. Instead of the position and the size, two positions, for example, positions of the two facing diagonal vertexes may be stored.

따라서, 위치추적(3)에 있어서는, 상기 전경영상(BGS)이 그대로 오브젝트와 비교되는 것이 아니라, 이 전경영상으로부터 산출된 블럽(Blob)이 오브젝트와 비교되는 것이다. 이는 위치추적에 의하여 위치가 갱신되는 매회의 오브젝트도 블럽처럼 위치와 크기로 간략화된 형태로 저장되고 관리되고 있기 때문이다.Therefore, in the position tracking (3), the foreground image BGS is not directly compared with the object, but the block Blob calculated from the foreground image is compared with the object. This is because every object whose position is updated by position tracking is stored and managed in a form simplified in position and size as in the case of a block.

도 4 (c)와 같이, 기존에 추적 중인 오브젝트가 시간 순으로 O(t-5), O(t-4), O(t-3), O(t-2), O(t-1)의 순으로 추적되어 있는 상황을 예로 들면, 시각 (t)에 있어서 금회의 오브젝트 O(t)를 결정하여야 한다. 이때, 금회의 블럽 B(t)가 입력되면, 이 블럽 B(t)로부터 직접 또는 가공에 의하여 금회의 오브젝트 O(t)가 결정된다. 여기서 블럽 B(t)의 유효성을 검증하고 보완해야 할 이유에 대해서 생각해 본다.O (t-3), O (t-2), and O (t-1) ), It is necessary to determine the current object O (t) at time t. At this time, when the current block B (t) is input, the current object O (t) is determined directly or by processing from the block B (t). Here, we examine the validity of the BLOB B (t) and think about why it should be supplemented.

도 3 (c)의 대상체 검출(2)은, 비전기술에 의존하기 때문에, 조명이나 색채에 따라서 또는 움직임 속도에 따라서 그 검출의 정확도가 현저히 저하될 여지가 있다. 그로 인하여, 비록 도 4 (a)의 전경영상(BGS)이 정확히 검출된 경우에도, 도 4 (b)의 블럽(Blob)이 부정확하게 검출되거나 아예 검출되지 못하는 경우가 발생될 수 있다. 이는 후속의 위치추적(3)에 있어서, 대상체(예컨대 손)의 위치추적에 대한 잘못된 결과를 야기시키고, 이는 결국 제스처 인식 인터페이스의 오류가 된다. 따라서 이런 문제점을 보완할 필요가 있다. 본 발명에 있어서는 움직임 모델에 기반하여, 합리적인 추정을 수행함으로써, 블럽의 부정확, 오류 또는 인식실패에 대한 보완을 행하고 있다.Since the object detection (2) in Fig. 3 (c) depends on the vision technique, there is a possibility that the accuracy of the detection is significantly lowered depending on the illumination or color or the movement speed. Thereby, even when the foreground image BGS of Fig. 4 (a) is correctly detected, a case may occur in which the blob of Fig. 4 (b) is detected incorrectly or not at all. This causes an incorrect result in tracking the position of the object (e.g., a hand) in the subsequent position tracking 3, which eventually becomes an error in the gesture recognition interface. Therefore, it is necessary to compensate for these problems. In the present invention, based on a motion model, a reasonable estimation is performed to compensate for an inaccuracy, an error, or a recognition failure of a block.

먼저, 도 4 (d)와 같이, 금회의 블럽 B(t)로부터 금회의 오브젝트 O(t)의 위치를 산정할 업데이팅 조건을 결정할 수 있다. 업데이팅 조건은, 예컨대 블럽의 유무와 오브젝트의 유무를 요소로 하여 결정될 수 있다.First, as shown in Fig. 4 (d), the updating condition for calculating the position of the current object O (t) from the current block B (t) can be determined. The updating condition can be determined, for example, by taking the presence or absence of a block and the presence or absence of an object as an element.

도 4 (d)에 있어서, 대상체 검출(2)로부터 입력받은 결과, (A) (B)는, 금회의 블럽(Blob)이 존재하는 경우이고, (C) (D)는, 금회의 블럽(Blob)이 존재하지 않는 경우이다. 또한, (A) (C)는, 추적 중인 오브젝트가 존재하는 경우이고, (B) (D)는, 추적 중인 오브젝트가 존재하지 않는 경우이다.4B. Fig. 4D shows a case where the current block Blob is present as a result of the input from the object detection 2 and Fig. Blob) does not exist. In addition, (A) and (C) show a case where an object being tracked exists, and (B) and (D) show a case where there is no object being tracked.

먼저, 도 4 (d)의 (A)는, 추적 중인 오브젝트가 존재하는 상황에서 새로운 블럽이 입력된 경우이다. 이 경우에 대해서는, 중첩관계를 계산하여 금회의 오브젝트 O(t)의 위치를 결정하면 된다. First, FIG. 4 (d) shows a case where a new block is input in a situation where an object being tracked exists. In this case, the position of the current object O (t) may be determined by calculating the overlapping relationship.

이 경우에, 금회의 상기 블럽이, 최근 1회 이상의 (a) 상기 전경영상 또는 블럽과 미리 정해진 비율 이상으로, 또한, (b) 상기 오브젝트와 미리 정해진 비율 이상으로 중첩될 때, 금회의 상기 오브젝트의 위치가 결정됨이 바람직하다. 구체적으로 예컨대 도 5와 같이, B(t)가 3프레임 기준으로 최근 블럽들 B(t-2), B(t-1)과 25% 이상 중복되고, 기존의 추적 중인 오브젝트 O(t-6), O(t-3) 중의 최근 오브젝트 O(t-3)과 30% 이상 중첩되면, 이로부터 금회 오브젝트 O(t)의 위치가 결정되도록 할 수 있다. 그리고, 예컨대, 금회의 상기 오브젝트의 위치는, 금회의 상기 블럽 B(t)와 최근의 상기 오브젝트 O(t-3)의 평균위치로 산정되도록 할 수 있다.In this case, when the current block is overlapped with at least one recent (a) the foreground image or the block at a predetermined ratio or more, and (b) the object is overlapped with the object at a predetermined ratio or more, Is determined. Specifically, for example, as shown in FIG. 5, when B (t) overlaps with the latest blocks B (t-2) and B (t- ) And the latest object O (t-3) in O (t-3) is overlapped by 30% or more, the position of the current object O (t) can be determined therefrom. For example, the position of the current object can be calculated as the average position of the current block B (t) and the latest object O (t-3).

이처럼, 금회의 블럽 B(t)가 최근 블럽 B(t-1)과 중복되는지를 검증함으로써, 추정에 의하여 금회의 블럽 B(t)가 엉뚱한 데이터가 아님을 검증할 수 있다. 그리고, 금회의 블럽 B(t)가 최근 오브젝트 O(t-3)과 중복되는지를 검증함으로써, 추정에 의하여 금회 오브젝트 O(t)의 산정에 이용되어도 좋은지를 검증할 수 있다.Thus, by verifying whether or not the current block B (t) overlaps with the latest block B (t-1), it can be verified that the current block B (t) is not the wrong data. Then, it can be verified whether or not the current block B (t) overlaps with the latest object O (t-3), so that it can be used for estimation of the current object O (t) by estimation.

다음으로, 도 4 (d)의 (B)는, 추적 중인 오브젝트가 존재하지 않는 상황에서 새로운 블럽이 입력된 경우이다. 이 경우에 대해서는, 블럽의 유효성을 검증한 후, 이를 새로운 오브젝트 O(t)로 선정하면 된다.Next, FIG. 4 (D) (B) shows a case where a new block is input in a situation where there is no object being tracked. In this case, after validating the validity of the block, it is possible to select it as a new object O (t).

이 경우에, 전회에 상기 오브젝트가 부존재하면, 금회의 상기 블럽 B(t)가, 최근 1회 이상의 상기 전경영상(BGS) 또는 블럽(B) 또는 이들의 조합과 미리 정해진 비율 이상으로 중첩될 때, 금회의 상기 블럽이 새로운 오브젝트로 설정되도록 하는 오브젝트 추가단계가 구비되도록 할 수 있다. 구체적으로 예컨대 도 6과 같이, B(t)가 3프레임 기준으로 25% 이상 최근 블럽들 B(t-2), B(t-1)과 중복되면, 이로부터 새로운 오브젝트 O(t)가 설정되고 위치가 결정되도록 할 수 있다.In this case, when the object is not present in the previous time, when the current block B (t) is superimposed on the foreground image BGS or the block B or a combination thereof at least a predetermined ratio at least one time And an object adding step for setting the current block to the new object. Specifically, if, for example, B (t) overlaps with the latest blocks B (t-2) and B (t-1) by 25% or more based on 3 frames as shown in FIG. 6, And the position can be determined.

이처럼, 금회의 블럽 B(t)가 최근 블럽 B(t-2), B(t-1)과 중복되는지를 검증함으로써, 추정에 의하여 금회의 블럽이 엉뚱한 데이터가 아님을 검증할 수 있다. 그리고, 이렇게 유효성이 검증된 금회의 블럽 B(t)가 새로운 오브젝트 O(t)가 되도록 설정함으로써, 오브젝트의 유효성을 보장할 수 있다.Thus, by verifying whether the current block B (t) overlaps with the latest blocks B (t-2) and B (t-1), it can be verified that the current block is not the wrong data by the estimation. Then, by setting the thus-validated current block B (t) to be a new object O (t), the validity of the object can be guaranteed.

다음으로, 도 4 (d)의 (C)는, 추적 중인 오브젝트가 존재하는데도, 새로운 블럽이 입력되지 않은 경우이다. 이 경우에 대해서는, 만일 금회의 전경영상 BGS(t) 정보가 존재한다면, 이를 이용하여 금회의 오브젝트 O(t)의 위치를 유지 또는 추정하도록 할 수 있다. 이 처리단계를 오브젝트 추정단계라 하고, 이를 포함하는 것이 본 발명의 특징이다. 만일 금회의 전경영상(BGS)도 부존재라면, 이는 조명이나 색채에 따라서 대상체를 거의 인식할 수 없을 정도의 상황이거나, 아니면 아예 대상체가 처리영상 범위에 존재하지 않는 상황일 가능성이 극히 높다. 따라서 논외로 하여도 좋을 것이다.Next, (C) in Fig. 4 (d) shows a case where a new block is not inputted even though an object being tracked exists. In this case, if the current foreground image BGS (t) information is present, the position of the current object O (t) can be maintained or estimated using this foreground image BGS (t) information. This processing step is referred to as an object estimation step , and it is a feature of the present invention. If the current foreground image (BGS) is also absent, it is very likely that the object is almost unrecognizable according to illumination or color, or that the object does not exist in the processed image range at all. Therefore, it may be excluded.

이처럼 본 발명에서는, 블럽 B(t)이 검출되지 않은 경우에, 그 기초정보가 되는 전경영상(BGS)이 존재한다면, 그 정보를 바탕으로 하여 오브젝트 O(t)의 위치를 추정한다고 하는 합리적 추론을 함으로써, 오추적의 여부를 판단하고, 오추적인 경우에는 추적의 중단을 행하고, 오추적 결과를 제거할 수 있다.As described above, in the present invention, when there is no foreground image BGS as the basic information in the case where the block B (t) is not detected, rational reasoning that the position of the object O (t) is estimated on the basis of the foreground image BGS , It is possible to judge whether or not a false tracking is made, and in the case of a prospective case, the tracking can be stopped and the false tracking result can be eliminated.

그런데, 전경영상(BGS)이 존재한다고 하여 모든 전경영상이 유효한 것은 아닐 수 있다. 금회의 블럽 B(t)가 산출되지 못할 정도의 상황이라면, 금회의 전경영상 BGS(t)도 잘못 추출된 것일 가능성이 존재한다. 따라서 상기 오브젝트 추정단계에서 이용될 전경영상에 대한 유효성도 검증될 필요가 있다.However, if foreground image BGS exists, not all foreground images may be valid. There is a possibility that the foreground image BGS (t) of this time is also erroneously extracted if the current time block B (t) can not be calculated. Therefore, the validity of the foreground image to be used in the object estimation step needs to be verified.

본 발명에서는, 상기 오브젝트 추정단계는, 금회의 상기 전경영상 BGS(t)가, 최근 1회 이상의 (1) 상기 전경영상 또는 블럽 또는 이들의 조합, 또는 (2) 상기 오브젝트, 또는 (3) 상기 (1)과 (2)의 조합과 미리 정해진 비율 이상으로 중첩될 때 수행되도록 할 수 있다. 이로써, 전경영상이 최근의 다른 전경영상 또는 블럽 또는 오브젝트 중의 어느 하나 또는 그들의 조합과 관련되어 있는 경우에만 추정에 이용될 수 있도록 하고 있다. 이때, 이 오브젝트 추정단계에 의하여 추정되는 상기 오브젝트의 위치는, 예컨대 상기 전경영상의 평균위치로 지정되도록 하여도 좋다.In the present invention, the object estimating step may include: (1) the foreground image or the bluff or a combination thereof, (2) the object, or (3) the foreground image BGS (1) and (2) and overlapping at a predetermined ratio or more. This allows the foreground image to be used for estimation only if it is associated with any other foreground image or block or object or combination of the most recent foreground images. At this time, the position of the object estimated by the object estimation step may be designated as an average position of the foreground image, for example.

이처럼, 본 발명에 의하면, 입력된 블럽의 유효성에 대한 검증을 수행하여, 잘못된 블럽이 입력된 경우에도 오차범위를 넘어서는 오판단을 방지하고, 실제로 대상체가 존재하는 경우에는 오브젝트에 대한 추적의 누락이나 유실현상을 방지하고, 대상체의 위치추적의 정확성을 높이고, 추적 소요시간을 단축시킬 수 있다.As described above, according to the present invention, the validity of the input block is verified to prevent misjudgment exceeding the error range even when an erroneous block is input. In the case where a target object exists, It is possible to prevent the loss phenomenon, increase the accuracy of tracking the position of the object, and shorten the time required for tracking.

한편, 본 발명은, 미리 정해진 주기마다 영상취득장치로부터 입력받은 처리영상 속에서 미리 정해진 대상체를 검출하는 검출단계와, 상기 대상체의 과거 위치와 크기에 대한 금회 위치와 크기로부터 궤적을 추적하는 추적단계와, 상기 궤적의 패턴에 대응되는 제스처를 결정하는 제스처 결정단계를 포함하는 제스처 인식 인터페이스 방법 또는 장치로서, 상기 추적단계는, 상기 설명된 영상처리방법 또는 장치를 이용하여 이루어짐을 특징으로 하는 제스처 인식 인터페이스 방법 또는 장치로 구현될 수 있다.According to another aspect of the present invention, there is provided a tracking method comprising: a detection step of detecting a predetermined object in a processed image input from an image acquisition device at predetermined intervals; a tracking step of tracking a trajectory from a current location and size of the past location and size of the object; And a gesture determining step of determining a gesture corresponding to the pattern of the locus, wherein the tracking step is performed using the image processing method or apparatus described above, Interface method or apparatus.

다만, 이러한 본 발명의 기술은, 각 단계가 세분화되거나 또는 여러 단계가 통합되어 구현될 수 있으며, 이는 전부 또는 일부가 장치로서 하드웨어에 모듈별로 구현될 수도 있고, 모듈별 구현에는 저장장치에 저장되어 있던 소프트웨어 모듈이 메모리에 로드되어 마이크로프로세서 등의 중앙처리장치에 의하여 실행되는 형태의 구현방식도 포함되는 것으로 한다. However, the technology of the present invention can be implemented by subdividing each step or incorporating various steps, which may be implemented in whole or in part as a device on a hardware-by-module basis, It is assumed that the present invention also includes an implementation method in which a software module that has been loaded into the memory is executed by a central processing unit such as a microprocessor.

이상 본 발명에 대하여 특정 실시예를 가지고 설명하였지만, 이 실시예는 어디까지나 설명의 목적이므로, 본 발명은 이 실시예에 한정되는 것이 아니다. 청구범위에 기재된 범위 내에서 당업자에 의하여 이루어진 개량, 변형, 변경은 모두, 본 발명의 범위에 속하는 것으로 해석되어야 한다.While the present invention has been described with reference to specific embodiments thereof, it is to be understood that the embodiments are for illustrative purposes only and the present invention is not limited to these embodiments. Modifications, variations, and alterations made by those skilled in the art within the scope of the claims are to be construed as being within the scope of the present invention.

본 발명은, 영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치에 이용될 수 있다.The present invention can be applied to an image processing method and apparatus, and a gesture recognition interface method and apparatus using the same.

h: 이용자
h1, h2: 대상체
b, f, p, t: 배경물체
cam: 카메라(영상취득장치)
1: 영상입력모듈
2: 대상체 검출모듈
3: 위치추적모듈
4: 제스처 인식모듈
5: 후처리모듈
h: User
h1, h2: object
b, f, p, t: background object
cam: camera (image acquisition device)
1: Video input module
2: object detection module
3: Positioning module
4: Gesture recognition module
5: post-processing module

Claims (8)

미리 정해진 주기마다 매회 영상취득장치로부터 입력받은 처리영상 속에서 다중 프레임 기반 모션모델을 이용하여 미리 정해진 대상체를 전경영상으로 검출하고 이를 위치와 크기로 간략화시킨 블럽을 산출한 후, 추적의 대상인 오브젝트와 상기 블럽을 비교하여, 상기 오브젝트의 위치를 추적하는 영상처리방법에 있어서,
상기 영상처리방법은, 금회의 오브젝트의 위치를 결정할 때, 모션모델에 기반하여, 금회의 블럽의 유무와 추적 중인 오브젝트의 유무를 금회의 오브젝트의 위치 결정의 요소로 함으로써, 블럽의 부정확, 오류 또는 인식실패에 대한 보완을 행하면서 금회의 오브젝트의 위치를 결정하고,
(1) 추적 중인 오브젝트가 존재하는 상황에서 금회에 새로운 블럽이 입력된 경우에는, 금회의 상기 블럽이,
(1-1) 최근 1회 이상의 상기 전경영상 또는 블럽과 미리 정해진 비율 이상으로 중첩되고, 또한,
(1-2) 최근 1회 이상의 상기 오브젝트와 미리 정해진 비율 이상으로 중첩될 때,
금회의 상기 블럽의 위치에 의해 금회의 상기 오브젝트의 위치를 결정하는 오브젝트 검증결정단계와,
(2) 추적 중인 오브젝트가 존재하지 않는 상황에서 금회에 새로운 블럽이 입력된 경우에는, 블럽의 유효성을 검증하기 위하여, 금회의 상기 블럽이, 최근 1회 이상의 상기 전경영상 또는 블럽 또는 이들의 조합과 미리 정해진 비율 이상으로 중첩될 때, 금회의 상기 블럽이 새로운 오브젝트로 설정되도록 하는 오브젝트 추가단계와,
(3) 추적 중인 오브젝트가 존재하는데도, 새로운 블럽이 입력되지 않은 경우에는, 금회의 상기 전경영상의 정보가 존재하면, 금회의 상기 전경영상의 정보를 이용하여 금회의 상기 오브젝트의 위치를 추정하는 오브젝트 추정단계
를 포함하여 이루어지고,
상기 오브젝트 추정단계에 있어서, 상기 전경영상의 유효성의 검증을 위해, 금회의 상기 전경영상이, 최근 1회 이상의
(3-1) 상기 전경영상 또는 블럽 또는 이들의 조합, 또는
(3-2) 상기 오브젝트, 또는
(3-3) 상기 (3-1)과 (3-2)의 조합
과 미리 정해진 비율 이상으로 중첩됨으로써 관련되어 있는 경우에만 추정에 이용됨
함을 특징으로 하는 영상처리방법.
One for each predetermined period each time detects the multi-frame-based motion model, a predetermined object using an in processed images in inputted by the image capturing device into a foreground image and calculates the blob was simplicity it with the position and size and then, the object that is the target of tracking and The image processing method according to claim 1, further comprising:
In the image processing method, when the position of the current object is determined, the presence or absence of the current block and the presence or absence of the object being tracked are used as an element of positioning the current object based on the motion model, The position of the current object is determined while compensating for the recognition failure,
(1) When a new block is input at this time in a situation where an object being tracked exists,
(1-1) In a case where at least one of the foreground images or blops is overlapped with a predetermined ratio or more,
(1-2) When the object is overlapped with the at least one object more than a predetermined ratio recently,
An object verification determining step of determining a position of the object at present by the position of the current block;
(2) In the case where a new block is input at this time in a situation where there is no object being tracked, in order to verify the validity of the block, the current block is divided into the foreground image or the block, An object adding step of causing the current block to be set as a new object when overlapping at a predetermined ratio or more,
(3) If there is an object to be tracked but no new block is input, if there is information of the current foreground image, an object for estimating the position of the current object using the current foreground image information Estimation step
, ≪ / RTI >
Wherein, in the object estimation step, in order to verify the validity of the foreground image,
(3-1) the foreground image or block or a combination thereof, or
(3-2) The object, or
(3-3) The combination of (3-1) and (3-2)
And overlapping by more than a predetermined ratio.
The image processing method comprising the steps of:
청구항 1에 있어서,
금회의 상기 오브젝트의 위치는, 금회의 상기 블럽의 위치와 전회의 상기 오브젝트의 위치의 평균위치로 산정됨
을 특징으로 하는 영상처리방법.
The method according to claim 1,
The current position of the object is calculated as the average position of the current position of the object and the position of the current block
Wherein the image processing method comprises the steps of:
미리 정해진 주기마다 영상취득장치로부터 입력받은 처리영상 속에서 다중 프레임 기반 모션모델을 이용하여 미리 정해진 대상체를 검출하는 검출단계와,
상기 대상체의 과거 위치와 크기에 대한 금회 위치와 크기로부터 궤적을 추적하는 추적단계와,
상기 궤적의 패턴에 대응되는 제스처를 결정하는 제스처 결정단계
를 포함하는 제스처 인식 인터페이스 방법으로서,
상기 추적단계는, 청구항 1의 영상처리방법을 이용하여 이루어짐
을 특징으로 하는 제스처 인식 인터페이스 방법.
A detection step of detecting a predetermined object using a multi-frame-based motion model in a processed image input from an image acquisition device at predetermined intervals,
A tracking step of tracking a trajectory from a current location and size of the past location and size of the object;
A gesture determination step of determining a gesture corresponding to the pattern of the locus
A gesture recognition interface method comprising:
The tracking step is performed using the image processing method of claim 1
Wherein the gesture recognition method comprises the steps of:
미리 정해진 주기마다 매회 영상취득장치로부터 입력받은 처리영상 속에서 다중 프레임 기반 모션모델을 이용하여 미리 정해진 대상체를 전경영상으로 검출하고 이를 위치와 크기로 간략화시킨 블럽을 산출한 후, 추적의 대상인 오브젝트와 상기 블럽을 비교하여, 상기 오브젝트의 위치를 추적하는 영상처리장치에 있어서,
상기 영상처리장치는, 금회의 오브젝트의 위치를 결정할 때, 모션모델에 기반하여, 금회의 블럽의 유무와 추적 중인 오브젝트의 유무를 금회의 오브젝트의 위치 결정의 요소로 함으로써, 블럽의 부정확, 오류 또는 인식실패에 대한 보완을 행하면서 금회의 오브젝트의 위치를 결정하고,
(1) 추적 중인 오브젝트가 존재하는 상황에서 금회에 새로운 블럽이 입력된 경우에는, 금회의 상기 블럽이,
(1-1) 최근 1회 이상의 상기 전경영상 또는 블럽과 미리 정해진 비율 이상으로 중첩되고, 또한,
(1-2) 최근 1회 이상의 상기 오브젝트와 미리 정해진 비율 이상으로 중첩될 때,
금회의 상기 블럽의 위치에 의해 금회의 상기 오브젝트의 위치를 결정하는 오브젝트 검증결정부와,
(2) 추적 중인 오브젝트가 존재하지 않는 상황에서 금회에 새로운 블럽이 입력된 경우에는, 블럽의 유효성을 검증하기 위하여, 금회의 상기 블럽이, 최근 1회 이상의 상기 전경영상 또는 블럽 또는 이들의 조합과 미리 정해진 비율 이상으로 중첩될 때, 금회의 상기 블럽이 새로운 오브젝트로 설정되도록 하는 오브젝트 추가부와,
(3) 추적 중인 오브젝트가 존재하는데도, 새로운 블럽이 입력되지 않은 경우에는, 금회의 상기 전경영상의 정보가 존재하면, 금회의 상기 전경영상의 정보를 이용하여 금회의 상기 오브젝트의 위치를 추정하는 오브젝트 추정부
를 포함하여 이루어지고,
상기 오브젝트 추정부에 있어서, 상기 전경영상의 유효성의 검증을 위해, 금회의 상기 전경영상이, 최근 1회 이상의
(3-1) 상기 전경영상 또는 블럽 또는 이들의 조합, 또는
(3-2) 상기 오브젝트, 또는
(3-3) 상기 (3-1)과 (3-2)의 조합
과 미리 정해진 비율 이상으로 중첩됨으로써 관련되어 있는 경우에만 추정에 이용됨
함을 특징으로 하는 영상처리장치.
One for each predetermined period each time detects the multi-frame-based motion model, a predetermined object using an in processed images in inputted by the image capturing device into a foreground image and calculates the blob was simplicity it with the position and size and then, the object that is the target of tracking and An image processing apparatus for comparing the blocks and tracking the position of the object,
When the position of the current object is determined, the image processing apparatus determines whether or not the current block is present and the presence or absence of the object being tracked based on the motion model as an element of positioning the current object, The position of the current object is determined while compensating for the recognition failure,
(1) When a new block is input at this time in a situation where an object being tracked exists,
(1-1) In a case where at least one of the foreground images or blops is overlapped with a predetermined ratio or more,
(1-2) When the object is overlapped with the at least one object more than a predetermined ratio recently,
An object verification determination unit that determines the position of the object at present based on the position of the current block;
(2) In the case where a new block is input at this time in a situation where there is no object being tracked, in order to verify the validity of the block, the current block is divided into the foreground image or the block, An object adding unit for setting the current block to be a new object when overlapping at a predetermined ratio or more,
(3) If there is an object to be tracked but no new block is input, if there is information of the current foreground image, an object for estimating the position of the current object using the current foreground image information Estimation part
, ≪ / RTI >
In the object estimating section, in order to verify the validity of the foreground image,
(3-1) the foreground image or block or a combination thereof, or
(3-2) The object, or
(3-3) The combination of (3-1) and (3-2)
And overlapping by more than a predetermined ratio.
Wherein the image processing apparatus comprises:
미리 정해진 주기마다 영상취득장치로부터 입력받은 처리영상 속에서 다중 프레임 기반 모션모델을 이용하여 미리 정해진 대상체를 검출하는 검출부와,
상기 대상체의 과거 위치와 크기에 대한 금회 위치와 크기로부터 궤적을 추적하는 추적부와,
상기 궤적의 패턴에 대응되는 제스처를 결정하는 제스처 결정부
를 포함하는 제스처 인식 인터페이스 장치로서,
상기 추적부는, 청구항 4의 영상처리장치를 이용하여 이루어짐
을 특징으로 하는 제스처 인식 인터페이스 장치.
A detection unit for detecting a predetermined object using a multi-frame-based motion model in a processed image input from an image acquisition device at predetermined intervals,
A tracking unit for tracking a trajectory from a current location and size of the past location and size of the object;
A gesture determining unit for determining a gesture corresponding to the pattern of the locus,
A gesture recognition interface device comprising:
The tracking unit is configured using the image processing apparatus of claim 4
And a gesture recognition interface device.
미리 정해진 주기마다 매회 영상취득장치로부터 입력받은 처리영상 속에서 다중 프레임 기반 모션모델을 이용하여 미리 정해진 대상체를 전경영상으로 검출하고 이를 위치와 크기로 간략화시킨 블럽을 산출한 후, 추적의 대상인 오브젝트와 상기 블럽을 비교하여, 상기 오브젝트의 위치를 추적하는 영상처리방법의 각 단계를 정보처리기기에서 수행시키기 위한 프로그램을 기록한 정보처리기기로 읽을 수 있는 기록매체에 있어서,
상기 영상처리방법은, 금회의 오브젝트의 위치를 결정할 때, 모션모델에 기반하여, 금회의 블럽의 유무와 추적 중인 오브젝트의 유무를 금회의 오브젝트의 위치 결정의 요소로 함으로써, 블럽의 부정확, 오류 또는 인식실패에 대한 보완을 행하면서 금회의 오브젝트의 위치를 결정하고,
(1) 추적 중인 오브젝트가 존재하는 상황에서 금회에 새로운 블럽이 입력된 경우에는, 금회의 상기 블럽이,
(1-1) 최근 1회 이상의 상기 전경영상 또는 블럽과 미리 정해진 비율 이상으로 중첩되고, 또한,
(1-2) 최근 1회 이상의 상기 오브젝트와 미리 정해진 비율 이상으로 중첩될 때,
금회의 상기 블럽의 위치에 의해 금회의 상기 오브젝트의 위치를 결정하는 오브젝트 검증결정단계와,
(2) 추적 중인 오브젝트가 존재하지 않는 상황에서 금회에 새로운 블럽이 입력된 경우에는, 블럽의 유효성을 검증하기 위하여, 금회의 상기 블럽이, 최근 1회 이상의 상기 전경영상 또는 블럽 또는 이들의 조합과 미리 정해진 비율 이상으로 중첩될 때, 금회의 상기 블럽이 새로운 오브젝트로 설정되도록 하는 오브젝트 추가단계와,
(3) 추적 중인 오브젝트가 존재하는데도, 새로운 블럽이 입력되지 않은 경우에는, 금회의 상기 전경영상의 정보가 존재하면, 금회의 상기 전경영상의 정보를 이용하여 금회의 상기 오브젝트의 위치를 추정하는 오브젝트 추정단계
를 포함하여 이루어지고,
상기 오브젝트 추정단계에 있어서, 상기 전경영상의 유효성의 검증을 위해, 금회의 상기 전경영상이, 최근 1회 이상의
(3-1) 상기 전경영상 또는 블럽 또는 이들의 조합, 또는
(3-2) 상기 오브젝트, 또는
(3-3) 상기 (3-1)과 (3-2)의 조합
과 미리 정해진 비율 이상으로 중첩됨으로써 관련되어 있는 경우에만 추정에 이용됨
함을 특징으로 하는 영상처리방법의 각 단계를 정보처리기기에서 수행시키기 위한 프로그램을 기록한 정보처리기기로 읽을 수 있는 기록매체.
One for each predetermined period each time detects the multi-frame-based motion model, a predetermined object using an in processed images in inputted by the image capturing device into a foreground image and calculates the blob was simplicity it with the position and size and then, the object that is the target of tracking and And an image processing method for tracking the position of the object by comparing the blocks with each other, the method comprising the steps of:
In the image processing method, when the position of the current object is determined, the presence or absence of the current block and the presence or absence of the object being tracked are used as an element of positioning the current object based on the motion model, The position of the current object is determined while compensating for the recognition failure,
(1) When a new block is input at this time in a situation where an object being tracked exists,
(1-1) In a case where at least one of the foreground images or blops is overlapped with a predetermined ratio or more,
(1-2) When the object is overlapped with the at least one object more than a predetermined ratio recently,
An object verification determining step of determining a position of the object at present by the position of the current block;
(2) In the case where a new block is input at this time in a situation where there is no object being tracked, in order to verify the validity of the block, the current block is divided into the foreground image or the block, An object adding step of causing the current block to be set as a new object when overlapping at a predetermined ratio or more,
(3) If there is an object to be tracked but no new block is input, if there is information of the current foreground image, an object for estimating the position of the current object using the current foreground image information Estimation step
, ≪ / RTI >
Wherein, in the object estimation step, in order to verify the validity of the foreground image,
(3-1) the foreground image or block or a combination thereof, or
(3-2) The object, or
(3-3) The combination of (3-1) and (3-2)
And overlapping by more than a predetermined ratio.
Wherein the image processing method is characterized in that the image processing method comprises the steps of:
미리 정해진 주기마다 영상취득장치로부터 입력받은 처리영상 속에서 다중 프레임 기반 모션모델을 이용하여 미리 정해진 대상체를 검출하는 검출단계와,
상기 대상체의 과거 위치와 크기에 대한 금회 위치와 크기로부터 궤적을 추적하는 추적단계와,
상기 궤적의 패턴에 대응되는 제스처를 결정하는 제스처 결정단계
를 포함하는 제스처 인식 인터페이스 방법의 각 단계를 정보처리기기에서 수행시키기 위한 프로그램을 기록한 정보처리기기로 읽을 수 있는 기록매체로서,
상기 추적단계는, 청구항 1의 영상처리방법을 이용하여 이루어짐
을 특징으로 하는 제스처 인식 인터페이스 방법의 각 단계를 정보처리기기에서 수행시키기 위한 프로그램을 기록한 정보처리기기로 읽을 수 있는 기록매체.
A detection step of detecting a predetermined object using a multi-frame-based motion model in a processed image input from an image acquisition device at predetermined intervals,
A tracking step of tracking a trajectory from a current location and size of the past location and size of the object;
A gesture determination step of determining a gesture corresponding to the pattern of the locus
And a gesture recognition interface method for performing the steps of the gesture recognition interface method in an information processing device,
The tracking step is performed using the image processing method of claim 1
And a gesture recognition interface method for performing the steps of the gesture recognition interface method in an information processing device.
삭제delete
KR1020170039102A 2017-03-28 2017-03-28 Image processing method and apparatus, and interface method and apparatus of gesture recognition using the same KR101837482B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170039102A KR101837482B1 (en) 2017-03-28 2017-03-28 Image processing method and apparatus, and interface method and apparatus of gesture recognition using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170039102A KR101837482B1 (en) 2017-03-28 2017-03-28 Image processing method and apparatus, and interface method and apparatus of gesture recognition using the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150035931A Division KR20160111151A (en) 2015-03-16 2015-03-16 image processing method and apparatus, and interface method and apparatus of gesture recognition using the same

Publications (2)

Publication Number Publication Date
KR20170039113A KR20170039113A (en) 2017-04-10
KR101837482B1 true KR101837482B1 (en) 2018-03-13

Family

ID=58581308

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170039102A KR101837482B1 (en) 2017-03-28 2017-03-28 Image processing method and apparatus, and interface method and apparatus of gesture recognition using the same

Country Status (1)

Country Link
KR (1) KR101837482B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110298298B (en) * 2019-06-26 2022-03-08 北京市商汤科技开发有限公司 Target detection and target detection network training method, device and equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013045152A (en) * 2011-08-22 2013-03-04 Dainippon Printing Co Ltd Dynamic body tracker

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101558031B1 (en) 2012-10-30 2015-10-06 삼성에스디에스 주식회사 Apparatus and method for recognizing posture and gesture based depth data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013045152A (en) * 2011-08-22 2013-03-04 Dainippon Printing Co Ltd Dynamic body tracker

Also Published As

Publication number Publication date
KR20170039113A (en) 2017-04-10

Similar Documents

Publication Publication Date Title
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
KR101603017B1 (en) Gesture recognition device and gesture recognition device control method
US11037325B2 (en) Information processing apparatus and method of controlling the same
US8879787B2 (en) Information processing device and information processing method
US9390334B2 (en) Number of persons measurement device
KR101534742B1 (en) System and method for gesture recognition of vehicle
KR20180112090A (en) Apparatus and method for determining pose of camera
US20120163661A1 (en) Apparatus and method for recognizing multi-user interactions
JP5381569B2 (en) Gesture recognition device, gesture recognition method, and gesture recognition program
WO2008143523A1 (en) Camera pose estimation apparatus and method for augmented reality imaging
US10438412B2 (en) Techniques to facilitate accurate real and virtual object positioning in displayed scenes
US10496874B2 (en) Facial detection device, facial detection system provided with same, and facial detection method
US11727637B2 (en) Method for generating 3D skeleton using joint-based calibration acquired from multi-view camera
CN104850219A (en) Equipment and method for estimating posture of human body attached with object
CN111798487A (en) Target tracking method, device and computer readable storage medium
JP2018113021A (en) Information processing apparatus and method for controlling the same, and program
WO2015108736A1 (en) Stereo image processing using contours
EP3035234A1 (en) Method and electronic device for object tracking in a light-field capture
KR101837482B1 (en) Image processing method and apparatus, and interface method and apparatus of gesture recognition using the same
JP5416489B2 (en) 3D fingertip position detection method, 3D fingertip position detection device, and program
KR20160111151A (en) image processing method and apparatus, and interface method and apparatus of gesture recognition using the same
KR101350387B1 (en) Method for detecting hand using depth information and apparatus thereof
CN106406507B (en) Image processing method and electronic device
CN114402370A (en) Adaptive hand tracking and gesture recognition based on face-shoulder feature coordinate transformation
KR101844367B1 (en) Apparatus and Method for Head pose estimation using coarse holistic initialization followed by part localization

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant