KR101745601B1 - method for finger counting by using image processing and apparatus adopting the method - Google Patents

method for finger counting by using image processing and apparatus adopting the method Download PDF

Info

Publication number
KR101745601B1
KR101745601B1 KR1020150118872A KR20150118872A KR101745601B1 KR 101745601 B1 KR101745601 B1 KR 101745601B1 KR 1020150118872 A KR1020150118872 A KR 1020150118872A KR 20150118872 A KR20150118872 A KR 20150118872A KR 101745601 B1 KR101745601 B1 KR 101745601B1
Authority
KR
South Korea
Prior art keywords
image
hand
palm
contour
user
Prior art date
Application number
KR1020150118872A
Other languages
Korean (ko)
Other versions
KR20170023565A (en
Inventor
이의철
김한솔
Original Assignee
상명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상명대학교산학협력단 filed Critical 상명대학교산학협력단
Priority to KR1020150118872A priority Critical patent/KR101745601B1/en
Publication of KR20170023565A publication Critical patent/KR20170023565A/en
Application granted granted Critical
Publication of KR101745601B1 publication Critical patent/KR101745601B1/en

Links

Images

Classifications

    • G06K9/00375
    • G06K9/32
    • G06K9/6204

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

영상처리에 의한 손가락 개수 인식 방법 및 장치에 대해 기술한다. 손가락 개수 인식 방법:은 카메라를 이용하여 적어도 사용자의 손 부분을 촬영하여 영상을 얻는 단계; 상기 영상으로부터 사용자의 손 바닥 영역을 검출 하는 단계; 상기 손바닥 영역으로부터 손바닥 윤곽선을 검출하는 단계; 상기 손 바닥 윤곽선으로부터 상기 사용자의 손가락 끝점을 결정하는 단계; 그리고, 상기 손가락 끝점을 이용해 상기 사용자의 손가락의 개수를 인식하는 단계;를 포함한다.A method and apparatus for recognizing a finger number by image processing will be described. A method for recognizing the number of fingers includes the steps of: photographing at least a user's hand using a camera to obtain an image; Detecting a user's hand floor area from the image; Detecting a palm contour from the palm area; Determining a finger end point of the user from the hand floor contour; And recognizing the number of the user's fingers using the fingertip.

Description

영상 처리를 이용한 손가락 개수 인식 방법 및 장치{method for finger counting by using image processing and apparatus adopting the method}FIELD OF THE INVENTION [0001] The present invention relates to a method and apparatus for recognizing a finger,

본 발명은 저해상도 깊이 영상에서 손가락 개수 인식에 대한 방법 및 장치에 관한 것으로, 더욱 상세하게는 저해상도 깊이 영상 정보를 이용하여 손가락 개수를 인식하는 방법 및 이를 적용하는 장치에 관한 것이다The present invention relates to a method and apparatus for recognizing a number of fingers in a low-resolution depth image, and more particularly, to a method for recognizing a number of fingers using low-resolution depth image information and an apparatus for applying the method

일반적으로 컴퓨터의 제어 및 정보교환을 위해 필수적 기본장치인 모니터와 키보드, 마우스 등을 필요로 한다. 따라서 컴퓨터의 사용을 위해서는 이러한 인터페이스 장비가 필수적으로 필요 하며 그렇지 않은 경우 컴퓨터의 제어 및 정보교환이 불가능 하다.In general, it requires a monitor, a keyboard, and a mouse, which are essential basic devices for computer control and information exchange. Therefore, such interface equipment is essential for the use of a computer, and otherwise it is impossible to control and exchange information.

최근 손동작을 기반으로 한 사용자 인터페이스 방법에 관한 연구들이 진행되고 있다. 이런 손동작을 기반으로 한 사용자 인터페이스 방법에는 데이터 글로브(data glove), 광학식 마커를 통한 제스쳐 인식 등이 있다. 이 기존 방법들은 사람의 신체에 부가적인 장비를 부착해야 하기 때문에 사람의 신체만을 통한 인터페이스 방법, 즉 NUI(Natural User Interface)를 구현하는데 어려움이 따른다.Recently, research on the user interface method based on the hand gesture is proceeding. User interface methods based on such hand gestures include data gloves, gesture recognition through optical markers, and so on. Since these conventional methods require additional equipment to be attached to the human body, it is difficult to implement the interface method through only the human body, that is, the NUI (Natural User Interface).

KR1020120121589KR1020120121589 KR1020130044845KR1020130044845 KR1020110053410KR1020110053410

본 발명은 저해상도 깊이 영상을 통해 손가락의 개수를 인식하는 방법 및 이를 적용하는 장치를 제공한다.The present invention provides a method for recognizing the number of fingers through a low-resolution depth image and an apparatus for applying the method.

상기한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 손가락 개수인식 방법: 은According to another aspect of the present invention, there is provided a method for recognizing a finger number,

카메라를 이용하여 적어도 사용자의 손 부분을 촬영하여 영상을 얻는 단계;Capturing an image of at least a user's hand using a camera to obtain an image;

상기 영상으로부터 사용자의 손 바닥 영역을 검출 하는 단계;Detecting a user's hand floor area from the image;

상기 손바닥 영역으로부터 손바닥 윤곽선을 검출하는 단계;Detecting a palm contour from the palm area;

상기 손 바닥 윤곽선으로부터 상기 사용자의 손가락 끝점을 결정하는 단계;Determining a finger end point of the user from the hand floor contour;

상기 손가락 끝점을 이용해 상기 사용자의 손가락의 개수를 인식하는 단계;를 포함한다.And recognizing the number of the user's fingers using the fingertip.

본 발명의 구체적인 유형에 따른 방법: 은Method according to a specific type of the invention:

영상 촬영 기기에 의해 촬영된 영상으로부터 사용자의 골격을 검출하는 단계;Detecting a skeleton of the user from the image photographed by the image photographing device;

상기 검출된 골격정보를 기초로 한 손의 3차원 위치정보를 이용하여 영상의 범위를 손 영역으로 지역화 시키는 단계;Localizing the range of the image into the hand region using the three-dimensional position information of the hand based on the detected skeleton information;

상기 손 후보 영역에서 손바닥 영역만을 검출하는 단계; Detecting only the palm region in the hand candidate region;

상기 검출된 손바닥 영상의 아티큘레이션(articulation)을 제거하기 위해 평균 필터 또는 미디엄 필터를 적용하는 단계;Applying an average filter or a medium filter to remove articulation of the detected palm image;

상기 평균 필터 또는 미디엄 필터가 적용된 손바닥 영역을 다시 이진화시키는 단계;Binarizing the palm area to which the average filter or the medium filter is applied;

상기 재 이진화된 손바닥 영역으로부터 윤곽선을 검출하는 단계;Detecting contours from the re-binarized palm area;

상기 검출된 윤곽선을 따라가면서 손바닥 윤곽선의 곡률을 계산하는 단계;Calculating a curvature of a palm contour along the detected contour;

상기 계산된 곡률을 이용하여 손가락 끝점인지를 판단하는 단계; 그리고Determining a finger end point using the calculated curvature; And

상기 판단된 손가락 끝점들의 개수를 이용하여 손가락의 개수를 인식하는 단계;를 포함한다.And recognizing the number of fingers using the determined number of finger end points.

본 발명의 구체적인 실시 예에 따르면, 상기 손바닥 영역을 검출하기 위하여, 상기 영상의 범위를 상기 손 영역으로 지역화하고, 지역화된 영상으로부터 손 바닥 영역을 검출할 수 있다.According to a specific embodiment of the present invention, in order to detect the palm area, the range of the image may be localized to the hand region, and the hand floor region may be detected from the localized image.

본 발명의 구체적인 다른 실시 예에 따르면, 상기 사용자의 손 부분의 광학적 3차원 위치정보를 이용하여, 상기 손 바닥 영역을 지역화한다.According to another embodiment of the present invention, the hand floor area is localized using optical three-dimensional position information of the user's hand area.

본 발명의 다른 구체적인 실시 예에 따르면, 상기 영상은 상기 사용자의 손과 상체 부분을 포함하며, 상기 광학적3차원 위치정보는 상기 영상으로부터 검출된 골격 정보로부터 얻는다.According to another embodiment of the present invention, the image includes the user's hand and an upper body part, and the optical three-dimensional position information is obtained from the skeleton information detected from the image.

본 발명의 다른 구체적인 실시 예에 따르면, 손바닥 영역을 검출하는 단계와 윤곽선을 검출 하는 단계 사이에,According to another specific embodiment of the present invention, between the step of detecting the palm area and the step of detecting the contour,

손바닥 영역을 1차 이진화하는 단계;Binarizing the palm area;

이진화된 손바닥 영역에 평균 필터링 또는 미디언 필터을 적용하는 단계; 그리고Applying an average filtering or median filter to the binarized palm area; And

평균 필터링된 손바닥 영역을 2차 이진화하는 단계; 를 더 포함할 수 있다.Secondly binarizing an average filtered palm area; As shown in FIG.

본 발명의 또 다른 구체적인 실시 예에 따르면, 상기 영상에서 손 영역을 지역화하는 단계:는 상기 영상에서 배경색에 대비되는 피부색, 또는 적외선 카메라로 촬영한 영상에서의 깊이 정보에 의해 손 영역을 결정할 수 있다.According to another embodiment of the present invention, the step of localizing the hand region in the image may determine the hand region by the skin color in contrast with the background color in the image or the depth information in the image captured by the infrared camera .

본 발명의 또 다른 구체적인 실시 예에 따르면, 상기 손 바닥 윤곽선을 얻는 단계:는 두 번 이진화된 영상에서 침식을 수행한 영상과의 차를 이용하여 상기 윤곽선을 추출할 수 있다.According to another exemplary embodiment of the present invention, the step of obtaining the hand floor contour line may extract the contour line using a difference between the image obtained by erosion and the image obtained by the double-binarized image.

본 발명의 또 다른 구체적인 실시 예에 따르면, According to another specific embodiment of the present invention,

상기 손가락 끝점을 판단하는 단계;는 상기 윤곽선을 y값이 제일 작은 윤곽선의 픽셀을 시작점으로 하여 반 시계방향으로 따라가며, 자신(x, y)을 중심으로 8근방 이웃 화소 중 어떤 픽셀이 인접한 윤곽선인 픽셀인지 확인할 때 (x, y+1), (x, y-1) / (x-1, y) / (x-1, y-1), (x-1, y+1) / (x+1, y) / (x+1,y-1), (x+1, y+1)의 순서로 확인할 수 있다.Determining the fingertip point comprises: determining that the contour line follows the contour line in a counterclockwise direction starting from a pixel of the contour line having the smallest y value, and determines which of adjacent pixels in the vicinity of 8 around the self (x, y) (X-1, y-1) / (x-1, y-1) x + 1, y) / (x + 1, y-1) and (x + 1, y + 1).

본 발명에 따른 영상 처리에 의한 손가락 개수 인식 장치:는 상기 방법을 수행하는 것으로서, 상기 영상을 촬영하는 가시광선 또는 적외선 카메라; 그리고 상기 영상을 처리하여 사용자의 손가락 개수를 인식하는 컴퓨터 시스템;을 포함할 수 있다.An apparatus for recognizing a number of fingers by image processing according to the present invention performs the above method and comprises: a visible ray or infrared camera for photographing the image; And a computer system for processing the image and recognizing the number of fingers of the user.

본 발명의 방법은 저해상도 깊이 영상에서 사용자의 손가락 개수를 인식하는 방법으로, 특히 특수 장비를 부착하지 않는 NUI를 구축함에 있어서 사용자의 손가락 개수를 인식하여 손가락의 개수에 따라 마우스의 버튼 클릭, 스크롤 등의 마우스 조작 장치로 사용할 수 있다. 또한 사용자의 손을 추적하기 위한 초기 사용자에 의한 캘리브레이션 과정을 필요로 하지 않으므로 사용시 사용자의 불편을 해결하는 효과가 있다.The method of the present invention recognizes the number of fingers of a user in a low-resolution depth image. In particular, in establishing an NUI without special equipment, the number of fingers of a user is recognized, Can be used as a mouse manipulation device of the mouse. In addition, since the calibration process by the initial user for tracking the user's hand is not required, the user's discomfort can be solved.

도1은 본 발명에 따른 손가락 개수 인식 방법의 흐름도이다.
도2는 본 발명의 구체적 일 실시 예에 따른 손가락 개수 인식 방법의 흐름도이다.
도3은 본 발명에 따른 손가락 개수 인식 방법에서, 검출된 손 영역 깊이 영상을 나타낸다.
도4은 본 발명에 따른 손가락 개수 인식 방법에서, 손 후보 깊이 영상에서 이진화되어 검출된 손 바닥 영역의 영상을 보인다.
도5는 본 발명에 따른 손가락 개수 인식 방법에서, 이진화된 도3의 영상에 평균 필터를 적용한 영상을 나타낸다.
도6는 발명에 따른 손가락 개수 인식 방법에서, 평균 필터를 적용된 도4의 영상을 다시 이진화한 영상을 나타낸다.
도7은 본 발명에 따른 손가락 개수 인식 방법에서, 전처리 과정을 통해 두 번 이진화된 영상으로부터 검출된 윤곽선을 검출한 영상을 나타낸다.
도8은 본 발명에 따른 손가락 개수인식 방법의 실시 예에서, 검출된 손 영역의 인접한 윤곽선을 찾기 위해 사용되는 8근방 이웃 화소를 나타낸다.
도9은 본 발명에 따른 손가락 개수인식 방법에서, 검출된 손 영역의 윤곽선을 따라 곡률 계산을 수행한 후 손가락 곡률에 따라 손가락 끝점을 판단하는 영상을 나타낸다.
도10는 본 발명에 따른 손가락 개수 인식 장치의 구현 례를 도시한다.
1 is a flowchart of a finger number recognition method according to the present invention.
2 is a flowchart of a finger count recognition method according to a specific embodiment of the present invention.
3 shows a detected hand region depth image in the finger number recognition method according to the present invention.
FIG. 4 shows an image of the hand floor region binarized and detected in the hand candidate depth image in the finger number recognition method according to the present invention.
FIG. 5 shows an image obtained by applying an average filter to the binarized image of FIG. 3 in the method of recognizing the number of fingers according to the present invention.
FIG. 6 shows an image obtained by binarizing the image of FIG. 4 to which an average filter is applied in the method of recognizing the number of fingers according to the present invention.
FIG. 7 illustrates an image in which a contour detected from a binarized image through a preprocessing process is detected in the finger number recognition method according to the present invention.
FIG. 8 shows 8 neighboring pixels used to find contiguous contours of the detected hand region in the embodiment of the finger count recognition method according to the present invention.
9 is a view showing an image in which a fingertip point is determined according to a curvature of a finger after curvature calculation is performed along a contour line of a detected hand region in the method of recognizing a finger number according to the present invention.
Fig. 10 shows an embodiment of a finger number recognition apparatus according to the present invention.

이하, 첨부된 도면을 참고하면서 본 발명에 따른 손가락 개수인식 방법 및 이를 적용하는 장치의 실시 예를 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a method of recognizing a finger number according to the present invention and an apparatus for applying the same will be described with reference to the accompanying drawings.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 발명에 따른 손가락 개수 인식 방법은 디스플레이와 영상 장치를 갖춘 컴퓨터에 의해 수행되며, 본 발명에서 인용하는 용어 “컴퓨터”는 컴퓨터 시스템을 기반으로 모든 장치에 까지 확대되며, 따라서 본 발명의 기술적 범위는 컴퓨터의 유형에 의해 한정되지 않는다.The method of recognizing the number of fingers according to the present invention is performed by a computer equipped with a display and a video device, and the term " computer " referred to in the present invention extends to all devices based on a computer system, But is not limited by the type of computer.

본 발명에 따른 손가락 개수 인식 방법의 설명에 앞서서, 이를 수행하는 손가락 인식 방법에 대해 살펴본다.Prior to the description of the finger number recognition method according to the present invention, a finger recognition method for performing the finger recognition method will be described.

먼저 도10을 참조하면, 본 발명에 따른 손가락 인식 및 개수 인식 방법은, 컴퓨터를 기반으로 하는 것으로 GUI(Graphic User Interface, 11a)를 제시하는 모니터(11), 키보드(13), 마우스(14) 및 피험자(1)를 향하는 동영상 카메라(20)를 갖춘다.10, a finger recognition and number recognition method according to the present invention is based on a computer and includes a monitor 11 for presenting a GUI (Graphic User Interface) 11a, a keyboard 13, a mouse 14, And a moving picture camera 20 which faces the subject 1.

사용자(1)는 모니터(11)와 카메라(20)를 향해 서 있고, 카메라(20)는 사용자(1)의 손을 포함하는 사용자(1)의 상체를 실시간으로 촬영한다. 사용자(1)는 손가락 개수 인식을 위해 카메라(20)를 향하여 손을 내밀고 있다. 컴퓨터 본체에 연결되는 GUI(11a)가 구현되며 여기에 손가락 개수 등이 모든 가시적 정보가 모두 표시된다. The user 1 stands facing the monitor 11 and the camera 20 and the camera 20 takes the upper body of the user 1 including the hand of the user 1 in real time. The user 1 extends his hand toward the camera 20 for recognizing the number of fingers. The GUI 11a connected to the computer main body is implemented and all the visible information such as the number of fingers is displayed.

상기와 같은 컴퓨터는, 컴퓨터 시스템을 기반으로 특수목적이 전자장치로 대체될 수 도 있다. 도10에서 도시된 바와 같이 사용자(1)가 카메라(20) 앞에서 손가락 모양을 특정하게, 예를 들어 “4” 모양을 취하게 되면, 본체의 영상 처리 및 손가락 동작 분석 시스템은 이를 분석하여 특정 손가락 개수를 인식하여 디스플레이(11)에 나타내준다.Such a computer may be replaced by a special purpose electronic device based on a computer system. As shown in FIG. 10, if the user 1 takes a finger shape in front of the camera 20, for example, a shape of "4", the image processing and finger motion analysis system of the main body analyzes this, And displays it on the display 11.

본 발명에 따른 손가락 개수 인식 방법은 도1에 도시된 바와 같이 정의될 수 있다.The finger number recognition method according to the present invention can be defined as shown in FIG.

제1단계(S11)In the first step S11,

사용자 또는 피험자의 손 부분을 실시간 동영상으로 촬영한다. 이때에 손 바닥 부분뿐 아니라 피험자의 상체 부분이 같이 촬영될 수 있다. 이때에 상체와 손 부분을 영상 깊이로 분리하기 쉽게 일정 거리 떨어뜨리는 것이 좋다.The user or the subject's hand is photographed as a live video. At this time, not only the bottom part of the hand but also the upper part of the subject can be taken together. At this time, it is good to drop the upper body and the hand part at a certain distance so that it can be separated by the image depth.

제2단계(S12) In the second step S12,

상기 손바닥 영상에서 도3에 도시된 바와 같이 손 바닥 영역을 분리하여 낸다. 여기에서 영상의 깊이 정보, 특히 손 부분의 3차원 위치의 정보를 이용하여 손 바닥 영역의 영상을 추출한다. The hand floor area is separated from the palm image as shown in FIG. Here, the image of the hand floor area is extracted using the depth information of the image, in particular, the information of the three-dimensional position of the hand area.

제3단계(S13)In the third step S13,

전 단계(S12)를 통해 얻은 손 바닥 영역의 영상으로부터, 도7에 도시된 바와 같은 손바닥 바닥 전체의 윤곽을 검출한다. 여기에는 모든 손가락의 윤곽이 포함되며, 사용자가 주먹을 쥐었다면 손가락 윤곽이 보이지 않을 것이다.The outline of the entire floor of the palm as shown in Fig. 7 is detected from the image of the hand floor area obtained in the previous step S12. This includes the outline of all the fingers, and if the user holds the fist, the finger outline will not be visible.

제4단계(S14)In the fourth step S14,

전 단계에서 얻어진 손 바닥 윤곽으로부터 손가락 끝 점을 추출한다. 손가락부분은 손바닥 부분으로부터 일 방향으로 돌출된 형태를 가지므로, 이 특징을 이용해 손가락 영역을 분리하고 이로부터 손가락의 끝 점을 추출할 수 있다. 여기에서 획득된 손가락 끝 점의 수는 본 발명에 따른 손가락 개수 인식의 결과이다. The fingertip point is extracted from the outline of the hand floor obtained in the previous step. Since the finger portion has a shape protruding in one direction from the palm portion, this feature can be used to separate the finger region and extract the end point of the finger from the finger region. The number of fingertip points obtained here is the result of the recognition of the number of fingers according to the present invention.

이하에서, 도2를 참조하면서, 보다 구체적으로 본 발명에 따른 손가락 개수 인식 방법의 실시 예의 흐름을 순서대로 설명한다.Hereinafter, with reference to FIG. 2, the flow of the embodiment of the finger number recognition method according to the present invention will be described in order.

제1단계(S21)In the first step S21,

먼저, 특정한 손가락 모양을 하고 있는 피험자의 상반신을 촬영하고, 이로부터 상반신 골격 모델을 검출한다. 이 단계에서, 피험자의 골격 모델을 성공적으로 획득하기 위해서 촬영된 영상에 피험자의 상반신이 이상이 충분히 포함되어 있어야 하며, 이 영상은 실시간으로 연속적으로 검출한다.First, the upper body of a subject having a specific finger shape is photographed, and the upper half skeleton model is detected therefrom. At this stage, in order to successfully acquire the skeleton model of the subject, the image captured by the subject must include an abnormality in the upper half of the subject, and this image is continuously detected in real time.

제2단계(S22)In the second step S22,

상기 골격 정보로부터 손 골격정보를 기초로 한 손의 3차원 위치정보를 이용하여 영상의 범위를 전체 상반신 영역에서 손 바닥 영역이 포함된 보다 좁은 영역으로 지역화 한다. 손 바닥 영역을 지역화 하는 단계에서, 검출된 골격을 기반으로 하나 또는 양 손의 손 영역 지역화를 수행할 수 있다.Using the three-dimensional position information of the hand based on the hand skeleton information from the skeleton information, the range of the image is localized from the entire upper body region to a narrower region including the hand floor region. In the step of localizing the hand floor area, one or both hand hand area localization can be performed based on the detected skeleton.

제3단계(S23)In the third step S23,

상기 손 후보 영역이 포함되도록 지역에서 손바닥 영역만을 결정 검출한다.Only the palm region is determined so as to include the hand candidate region.

이 과정에서, 손바닥 부분에 해당하는 깊이 값을 기준으로 손 후보 영상을 이진화시켜 손바닥에 비해 카메라로부터의 거리가 더 멀리 있는 손목에 해당하는 부분을 제거함으로써 손 바닥 부분(영역)을 결정할 수 있다.In this process, the hand candidate region can be determined by binarizing the hand candidate image based on the depth value corresponding to the palm region, thereby removing the portion of the wrist which is farther away from the camera than the palm.

이때에 손 영역의 결정 및 검출은 적외선 카메라를 통해 얻은 영상의 깊이(depth of grayscale or color)를 이용할 수 있다.At this time, the determination and detection of the hand region can use the depth of grayscale or color obtained through the infrared camera.

한편으로는 가시광선 카메라를 통해 얻은 영상에서 배경색에 대비되는 피부색 판단을 이용하여 손 영역을 결정 및 검출할 수도 있다.On the other hand, it is possible to determine and detect the hand region using the skin color judgment as compared with the background color in the image obtained through the visible ray camera.

제4단계(S24)In the fourth step S24,

상기 이진화된 손바닥 영상의 아티큘레이션(articulation)을 제거하기 위해 평균 필터 또는 미디엄 필터를 적용한다. 이를 위하여, 예를 들어 7*7크기의 평균필터를 적용하여 이진화된 영상을 흐리게 블러(blur)시킨다An average filter or a medium filter is applied to remove the articulation of the binarized palm image. For this purpose, the binarized image is blurred by applying, for example, an average filter of 7 * 7 size

제5단계(S25)In the fifth step S25,

상기 평균 필터가 적용된 손바닥 영역을 다시 이진화한다. 이것은 손바닥 영상을 임의 임계치를 기준으로 재 이진화함으로써 상기 아티큘레이션을 제거하고, 이로써 부드러운 외곽 영상을 얻기 위한 것이다.The palm area to which the average filter is applied is binarized again. This is to remove the articulation by re-binarizing the palm image with respect to an arbitrary threshold value, thereby obtaining a smooth outline image.

제6단계(S26)In the sixth step S26,

상기 과정에서 두 번에 거쳐 이진화된 손바닥 영역으로부터 윤곽선을 검출한다. 이 단계에서, 재 이진화된 손바닥 영상에서 침식을 수행한 재 이진화된 손바닥 영상을 뺌으로써 윤곽선을 검출 할 수 있다.In the above process, the contour is detected from the binarized palm area twice. At this stage, the contour can be detected by subtracting the re-binarized palm image that has been eroded from the re-binarized palm image.

제7단계(S27)In the seventh step S27,

상기 검출된 윤곽선을 따라가면서 손바닥 윤곽선의 곡률을 계산한다. 검출된 윤곽선을 따라서, 영상 좌표에서 y값이 제일 작은 픽셀을 시작 점으로 반 시계 방향으로 따라가면서 일정 픽셀 간격으로 인접한 세 점 사이의 곡률을 계산할 수 있다.The curvature of the palm contour is calculated along the detected contour. The curvature between the adjacent three points can be calculated along the detected contour along the counterclockwise direction from the pixel having the smallest y value in the image coordinate to the starting point.

제8단계(S28)In the eighth step S28,

상기 계산된 곡률을 이용하여 손가락 끝점인지를 판단 한다. 이 단계에서, 윤곽선을 따라 계산된 곡률이 일정 임계치보다 작다고 판단될 경우 손가락 끝점으로 판단 할 수 있다.And determines whether it is a finger end point using the calculated curvature. At this stage, if it is determined that the curvature calculated along the outline is smaller than the predetermined threshold value, it can be determined as the fingertip point.

제9단계(S29)In the ninth step S29,

상기 판단된 손가락 끝점들의 개수를 손가락의 개수로서 인식한다. 즉, 손가락 끝점으로 판단된 손가락의 개수를 카운팅하여 이를 디스플레이 상에 표시한다.
And recognizes the number of the determined finger end points as the number of fingers. That is, the number of fingers determined as the finger end point is counted and displayed on the display.

이하, 도3 내지 도9를 참조하면서 위에서 설명된 단계를 좀 더 자세히 살펴본다. 각 단계의 설명에는 각 단계의 이해를 돕기 위해 단계별로 사용된 소스 코드가 일 례로서 제시된다.Hereinafter, the above-described steps will be described in more detail with reference to FIGS. 3 to 9. FIG. The description of each step is provided as an example of the source code used step by step to help understand each step.

도3은 본 발명에 따른 손가락 개수 인식 방법에서, 검출된 손 영역 깊이 영상을 나타낸다.3 shows a detected hand region depth image in the finger number recognition method according to the present invention.

Figure 112015081890714-pat00001
Figure 112015081890714-pat00001

도4는 본 발명에 따른 손가락 개수 인식 방법에서, 손 후보 깊이 영상에서 이진화되어 검출된 손 바닥 영역의 영상을 보인다. 도4의 영상을 얻는 과정에서, 손바닥 부분에 해당하는 깊이 값을 기준으로 해당 영상을 이진화시켜 손바닥에 비해 카메라로부터의 거리가 더 멀리 있는 손목에 해당하는 부분을 제거함으로써 손 바닥 부분을 결정할 수 있다.FIG. 4 shows an image of the hand floor area detected by binarization in the hand candidate depth image in the finger number recognition method according to the present invention. In the process of obtaining the image of FIG. 4, the bottom of the hand can be determined by binarizing the image based on the depth value corresponding to the palm portion, thereby removing the portion of the wrist which is farther away from the camera than the palm .

Figure 112015081890714-pat00002
Figure 112015081890714-pat00002

도5는 1차 이진화된 영상에 평균 필터를 적용한 결과를 보이는 영상이다. 이와 같은 평균 필터를 적용하는 단계에서, 손바닥 외곽의 아티큘레이션(articulation)을 제거하기 위해 예를 들어 7*7크기의 평균필터를 적용하여 이진화된 영상을 흐리게 블러(blur) 시킨다.FIG. 5 shows a result of applying an average filter to the first-order binarized image. In the step of applying the average filter, a binarized image is blurred by applying an averaging filter of, for example, 7 * 7 in order to remove articulation on the outside of the palm.

Figure 112015081890714-pat00003
Figure 112015081890714-pat00003

도6는 평균 필터가 영상을 다시 이진화한 영상을 보인다. 이 2차 이진화 단계에서, 전 단계에서 블러(blur)된 손바닥 영상을 특정 임계치를 기준으로 재 이진화 함으로써 외곽의 거칠게 두드러진 아티큘레이션(articulation)이 제거되어 도5에 도시된 바와 같이 부드러운 외곽을 가진 손바닥 영상을 얻을 수 있다.6 shows an image in which the average filter again binarizes the image. In this second binarization step, the blurred palm image in the previous stage is re-binarized based on a certain threshold value, thereby removing roughly prominent articulation of the outer periphery, so that a palm image with smooth outline Can be obtained.

Figure 112015081890714-pat00004
Figure 112015081890714-pat00004

도7는 전술한 전처리 과정을 통해 두 번 이진화된 영상으로부터 검출된 윤곽선을 검출한 영상을 보인다. 이러한 결과를 얻기 위해 윤곽선 검출 단계에서, 재 이진화된 손바닥 영상에서 침식을 수행한 재 이진화된 손바닥 영상을 뺌으로써 도7에 도시된 바와 같은 다양한 손가락 모양에 따른 윤곽선을 검출 할 수 있다.FIG. 7 shows an image obtained by detecting the contours detected from the binarized image through the preprocessing process described above. In order to obtain such a result, in the contour detection step, contours of various finger shapes as shown in FIG. 7 can be detected by removing the re-binarized palm images that have been eroded in the re-binarized palm images.

Figure 112015081890714-pat00005
Figure 112015081890714-pat00005

도8은 검출된 손 영역의 인접한 윤곽선을 찾기 위해 사용되는 9근방 이웃 화소를 나타낸다. 손 윤곽선 곡률 계산을 계산함에 있어서, 도7에 예시된 윤곽선들을 y값이 제일 작은 픽셀을 시작 점으로 반 시계 방향으로 따라가면서 일정 픽셀 간격으로 인접한 세 점 사이의 곡률을 계산할 수 있다. Fig. 8 shows 9 neighbor pixels used to find contiguous contours of the detected hand region. In calculation of the hand contour curvature calculation, the curvature between three adjacent points can be calculated by contour lines illustrated in FIG. 7 along a counterclockwise direction starting from a pixel having the smallest y value at a certain pixel interval.

이때 상기 손 영역의 윤곽선을 y값이 제일 작은 윤곽선의 픽셀을 시작점으로 하여 시계방향으로 따라가는데 있어서 비 정상적인 트래킹을 방지하기 위해, 자신(x, y)을 중심으로 8근방 이웃 화소 중 어떤 픽셀이 인접한 윤곽선인 픽셀인지 확인할 때 (x, y+1), (x, y-1) / (x-1, y) / (x-1, y-1), (x-1, y+1) / (x+1, y) / (x+1,y-1), (x+1, y+1)의 순서로 확인 할 수 있다. 아래의 <수1>은 일정픽셀 간격으로 인접한 세 점 사이의 곡률을 구하는 수식이다.At this time, in order to prevent the abnormal tracking along the contour line of the hand region along the clockwise direction with the pixel having the smallest y value as the start point, it is necessary to determine which one of the pixels in the vicinity of 8 around the self (x, y) (X-1, y-1) / (x-1, y-1), (x-1, y + / (x + 1, y) / (x + 1, y-1) and (x + 1, y + 1). <Formula 1> below is a formula for obtaining the curvature between adjacent three points at a certain pixel interval.

Figure 112015081890714-pat00006
Figure 112015081890714-pat00006

위의 <수1>을 참조하면, (

Figure 112015081890714-pat00007
, (
Figure 112015081890714-pat00008
는 (
Figure 112015081890714-pat00009
를 중심으로 일정 픽셀 간격으로 떨어진 손바닥 윤곽선 상에 위치한 점들을 의미한다. 따라서
Figure 112015081890714-pat00010
는 일정 간격으로 인접한 세 점 사이의 각도를 의미한다.Referring to the above equation (1), (
Figure 112015081890714-pat00007
, (
Figure 112015081890714-pat00008
(
Figure 112015081890714-pat00009
Which are located on a palm contour line spaced apart by a certain pixel interval around the center of the palm. therefore
Figure 112015081890714-pat00010
Means an angle between three adjacent points at regular intervals.

도9은 전술한 방법으로 손 영역의 윤곽선을 따라 곡률 계산을 수행한 후 손가락 곡률에 따라 손가락 끝점을 판단한 결과를 보이는 영상이다.9 is a view showing a result of judging the fingertip point according to the curvature of the finger after calculating the curvature along the outline of the hand region by the above-described method.

Figure 112015081890714-pat00011
Figure 112015081890714-pat00011

Figure 112015081890714-pat00012
Figure 112015081890714-pat00012

도9에 도시된 바와 같이, 상기 손가락 끝점 판단함에 있어서, 윤곽선을 따라 계산된 곡률이 일정 임계 치보다 작다고 판단될 경우 손가락 끝점으로 판단 할 수 있다.As shown in FIG. 9, in the determination of the fingertip point, when it is determined that the curvature calculated along the outline is smaller than a predetermined threshold value, the fingertip point can be determined.

상기와 같이 본 발명은 사용자에게 부담을 주는 부가 장치가 없이, 영상 촬영 및 영상 처리 등의 기법에 의해 사용자의 손가락의 개수를 인식 및 이를 출력할 수 있게 된다. 이러한 본 발명은 다양한 인터페이스 장치로 사용할 수 있는데, 예를 들어 컴퓨터 시스템에서 손가락의 개수에 따라 마우스의 버튼 클릭, 스크롤 등의 마우스 조작 장치로 사용할 수 있다. 또한 사용자의 손을 추적하기 위한 초기 사용자에 의한 캘리브레이션 과정을 필요로 하지 않으므로 사용시 사용자의 불편을 해결하는 효과가 있다.As described above, according to the present invention, it is possible to recognize the number of the user's fingers and to output the number of the fingers by a technique such as image capturing and image processing without an additional device that burdens the user. The present invention can be used as a variety of interface devices. For example, the present invention can be used as a mouse operation device for clicking a mouse or scrolling according to the number of fingers in a computer system. In addition, since the calibration process by the initial user for tracking the user's hand is not required, the user's discomfort can be solved.

이러한 본 발명이, 지금까지, 본원 다양한 모범적 실시 예가 설명되고 첨부된 도면에 도시되었다. 그러나, 이러한 실시 예는 단지 다양한 실시 예들의 일부임이 이해되어야 할 것이다. 다양한 다른 변형이 본 기술분야에서 통상의 지식을 가진 자에게 일어날 수 있기 때문이다.These and other embodiments of the present invention have been described and shown in the accompanying drawings. However, it should be understood that these embodiments are only a part of various embodiments. Since various other modifications could occur to those of ordinary skill in the art.

1: 사용자
11: 모니터
11a: 디스플레이 영역(GUI 영역)
13: 키보드
14: 마우스
20: 카메라
1: User
11: Monitor
11a: Display area (GUI area)
13: Keyboard
14: Mouse
20: Camera

Claims (15)

카메라를 이용하여 적어도 사용자의 손 부분을 촬영하여 영상을 얻는 단계;
상기 영상으로부터 사용자의 손 바닥 영역을 검출 하는 단계;
상기 손바닥 영역을 1차 이진화하는 단계;
이진화된 손바닥 영역에 평균 필터링 또는 미디언 필터를 적용하는 단계;
상기 필터가 적용된 손바닥 영역을 2차 이진화하는 단계;
상기 손바닥 영역으로부터 손바닥 윤곽선을 검출하는 단계;
상기 손바닥 윤곽선으로부터 상기 사용자의 손가락 끝점을 결정하는 단계; 그리고,
상기 손가락 끝점을 이용해 상기 사용자의 손가락의 개수를 인식하는 단계;를 포함하는, 영상 처리를 이용한 손가락 개수 인식 방법.
Capturing an image of at least a user's hand using a camera to obtain an image;
Detecting a user's hand floor area from the image;
First-order binarizing the palm area;
Applying an average filtering or median filter to the binarized palm area;
Binarizing the palm area to which the filter is applied;
Detecting a palm contour from the palm area;
Determining a fingertip of the user from the palm contour; And,
And recognizing the number of the user's fingers using the finger end point.
제1항에 있어서,
상기 손바닥 영역을 검출하기 위하여, 상기 영상의 범위를 상기 손 영역으로 지역화하고, 지역화된 영상으로부터 손 바닥 영역을 검출하는 것을 특징으로 하는, 영상 처리를 이용한 손가락 개수 인식 방법.
The method according to claim 1,
Wherein the range of the image is localized to the hand region and the hand floor region is detected from the localized image to detect the palm region.
제2항에 있어서,
상기 사용자의 손 부분의 광학적 3차원 위치정보를 이용하여, 상기 손 바닥 영역을 지역화하는 것을 특징으로 하는, 영상 처리를 이용한 손가락 개수 인수 방법.
3. The method of claim 2,
Wherein the hand floor area is localized using optical three-dimensional position information of the user's hand part.
제3항에 있어서,
상기 영상은 상기 사용자의 손과 상체 부분을 포함하며, 상기 광학적3차원 위치정보는 상기 영상으로부터 검출된 골격 정보로부터 얻는 것을 특징으로 하는, 영상 처리를 이용한 손가락 개수 인식 방법.
The method of claim 3,
Wherein the image includes the user's hand and an upper body part, and the optical three-dimensional position information is obtained from skeleton information detected from the image.
제2항 내지 제4항 중의 어느 한 항에 있어서,
상기 영상에서 손 영역을 지역화하는 단계:는 상기 영상에서 배경색에 대비되는 피부색, 또는 적외선 카메라로 촬영한 영상에서의 깊이 정보에 의해 손 영역을 결정하는 것을 특징으로 하는 영상 처리를 이용한 손가락 개수 인식 방법.
5. The method according to any one of claims 2 to 4,
Localizing the hand region in the image comprises: determining a hand region based on the skin color of the image in comparison with the background color or the depth information in the image captured by the infrared camera, .
삭제delete 제1항에 있어서,
상기 손바닥 윤곽선을 얻는 단계:는 두 번 이진화된 영상에서 침식을 수행한 영상과의 차를 이용하여 상기 윤곽선을 추출하는 것을 특징으로 하는 영상 처리를 이용한 손가락 개수 인식 방법.
The method according to claim 1,
Wherein the step of obtaining the palm contour comprises extracting the contour using a difference between the image obtained by erosion and the image obtained by performing the erosion on the twice binarized image.
제1항 내지 제4항 중의 어느 한 항에 있어서,
상기 손가락 끝점을 판단하는 단계;는
상기 윤곽선의 임의의 픽셀을 시작점으로 하여 반 시계방향으로 따라가며, 자신(x, y)을 중심으로 8근방 이웃 화소 중 어떤 픽셀이 인접한 윤곽선인 픽셀인지 확인할 때 (x, y+1), (x, y-1) / (x-1, y) / (x-1, y-1), (x-1, y+1) / (x+1, y) / (x+1,y-1), (x+1, y+1)의 순서로 확인하는 것을 특징으로 하는, 영상 처리를 이용한 손가락 개수 인식 방법.
5. The method according to any one of claims 1 to 4,
Determining the fingertip point;
(X, y + 1), (x, y) are used to determine which of the pixels adjacent to the eight neighboring pixels around the pixel (x, y) is an adjacent contour line, (x-1, y-1) / (x + 1, y) / 1), (x + 1, y + 1).
제5항에 있어서,
상기 손가락 끝점을 판단하는 단계;는
상기 윤곽선의 임의의 픽셀을 시작점으로 하여 시계방향으로 따라가며, 자신(x, y)을 중심으로 8근방 이웃 화소 중 어떤 픽셀이 인접한 윤곽선인 픽셀인지 확인할 때 (x, y+1), (x, y-1) / (x+1, y) / (x+1, y-1), (x+1, y+1) / (x-1, y) / (x-1,y-1), (x-1, y+1)의 순서로 확인하는 것을 특징으로 하는, 영상 처리를 이용한 손가락 개수 인식 방법.
6. The method of claim 5,
Determining the fingertip point;
(X, y + 1) and (x, y + 1) when determining which of the pixels adjacent to the 8 neighboring pixels around the pixel (x, y) is an adjacent contour line along the clockwise direction with an arbitrary pixel of the contour line as a starting point. y-1) / (x + 1, y) / (x + 1, y-1), ), (x-1, y + 1).
삭제delete 제7항에 있어서,
상기 손가락 끝점을 판단하는 단계;는
상기 윤곽선을 y값이 제일 작은 윤곽선의 픽셀을 시작점으로 하여 시계방향으로 따라가며, 자신(x, y)을 중심으로 8근방 이웃 화소 중 어떤 픽셀이 인접한 윤곽선인 픽셀인지 확인할 때 (x, y+1), (x, y-1) / (x+1, y) / (x+1, y-1), (x+1, y+1) / (x-1, y) / (x-1,y-1), (x-1, y+1)의 순서로 확인하는 것을 특징으로 하는, 영상 처리를 이용한 손가락 개수 인식 방법.
8. The method of claim 7,
Determining the fingertip point;
(X, y + 1) and (x, y + 2), which is a pixel having a contour of the smallest y value in the clockwise direction, 1), (x-1, y-1) / (x + 1, y) / 1, y-1), (x-1, y + 1).
제1항 내지 제4항 중의 어느 한 항의 방법을 수행하는 장치에 있어서,
상기 영상을 촬영하는 카메라; 그리고
상기 영상을 처리하여 손가락 개수를 인식하는 컴퓨터 시스템;을 포함하는 영상 처리를 이용한 손가락 개수 인식 장치.
5. An apparatus for performing the method of any one of claims 1 to 4,
A camera for photographing the image; And
And a computer system for processing the image and recognizing the number of fingers.
삭제delete 제12항에 있어서,
상기 손바닥 윤곽선을 얻는 단계에서 두 번 이진화된 영상에서 침식을 수행한 영상과의 차를 이용하여 상기 윤곽선을 추출하는 것을 특징으로 하는 영상 처리를 이용한 손가락 개수 인식 장치.
13. The method of claim 12,
Wherein the contour is extracted by using a difference between the image obtained by erosion and the image obtained by binarizing twice in the step of obtaining the palm contour.
제12항에 있어서,
상기 손가락 끝점을 판단함에 있어서,
상기 윤곽선을 y값이 제일 작은 윤곽선의 픽셀을 시작점으로 하여 반 시계방향으로 따라가며, 자신(x, y)을 중심으로 8근방 이웃 화소 중 어떤 픽셀이 인접한 윤곽선인 픽셀인지 확인할 때 (x, y+1), (x, y-1) / (x-1, y) / (x-1, y-1), (x-1, y+1) / (x+1, y) / (x+1,y-1), (x+1, y+1)의 순서로 확인하는 것을 특징으로 하는, 영상 처리를 이용한 손가락 개수 인식 장치.

13. The method of claim 12,
In determining the fingertip point,
(X, y), which is a pixel having a contour of the smallest y value as a starting point, in the counterclockwise direction and determines which of the pixels adjacent to the eight neighboring pixels around the pixel (x, y) 1) / (x-1, y-1) / (x-1, y-1) (X + 1, y + 1, y-1) and (x + 1, y + 1).

KR1020150118872A 2015-08-24 2015-08-24 method for finger counting by using image processing and apparatus adopting the method KR101745601B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150118872A KR101745601B1 (en) 2015-08-24 2015-08-24 method for finger counting by using image processing and apparatus adopting the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150118872A KR101745601B1 (en) 2015-08-24 2015-08-24 method for finger counting by using image processing and apparatus adopting the method

Publications (2)

Publication Number Publication Date
KR20170023565A KR20170023565A (en) 2017-03-06
KR101745601B1 true KR101745601B1 (en) 2017-06-09

Family

ID=58398913

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150118872A KR101745601B1 (en) 2015-08-24 2015-08-24 method for finger counting by using image processing and apparatus adopting the method

Country Status (1)

Country Link
KR (1) KR101745601B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102096532B1 (en) * 2018-06-05 2020-04-02 국방과학연구소 Edge Enhancement Method and Apparatus based on Curvelet Transform for Object Recognition at Sonar Image
CN110941367A (en) * 2018-09-25 2020-03-31 福州瑞芯微电子股份有限公司 Identification method based on double photographing and terminal
KR102052449B1 (en) * 2019-01-14 2019-12-05 전남대학교산학협력단 System for virtual mouse and method therefor
CN112052747A (en) * 2020-08-11 2020-12-08 深圳市欧森隆健康科技有限公司 Palm recognition method, health report generation method, health detection system and electronic equipment
CN112507924B (en) * 2020-12-16 2024-04-09 深圳荆虹科技有限公司 3D gesture recognition method, device and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012128763A (en) * 2010-12-17 2012-07-05 Omron Corp Image processing apparatus, method, and program
KR101526426B1 (en) * 2013-12-31 2015-06-05 현대자동차 주식회사 Gesture recognize apparatus and method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101090187B1 (en) 2011-04-12 2011-12-20 (주) 대영개발 Hinge safety cover
KR101327892B1 (en) 2011-04-27 2013-11-11 한국화학연구원 Method for preparing lactide from alkyl lactate
KR101359354B1 (en) 2011-10-25 2014-02-10 전자부품연구원 Apparatus for guiding board status information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012128763A (en) * 2010-12-17 2012-07-05 Omron Corp Image processing apparatus, method, and program
KR101526426B1 (en) * 2013-12-31 2015-06-05 현대자동차 주식회사 Gesture recognize apparatus and method

Also Published As

Publication number Publication date
KR20170023565A (en) 2017-03-06

Similar Documents

Publication Publication Date Title
KR101514169B1 (en) Information processing device, information processing method, and recording medium
KR101745601B1 (en) method for finger counting by using image processing and apparatus adopting the method
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US9959481B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
EP2846308A2 (en) Pointing direction detecting device and its method, program and computer readable-medium
US10691947B2 (en) Monitoring device
JP6873644B2 (en) Image processing equipment, image processing methods, and programs
JP2013250882A5 (en)
KR101745651B1 (en) System and method for recognizing hand gesture
TW201514830A (en) Interactive operation method of electronic apparatus
KR101737430B1 (en) A method of detecting objects in the image with moving background
CN104850219A (en) Equipment and method for estimating posture of human body attached with object
JP2017117341A (en) Object detection method, apparatus, and program
JP2010057105A (en) Three-dimensional object tracking method and system
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
WO2018181363A1 (en) Diagnostic image processing apparatus, assessment assistance method, and program
US20140169625A1 (en) Image processing apparatus, method, and storage medium
KR20100121817A (en) Method for tracking region of eye
KR101967858B1 (en) Apparatus and method for separating objects based on 3D depth image
KR101496287B1 (en) Video synopsis system and video synopsis method using the same
JP6350331B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JP2012003724A (en) Three-dimensional fingertip position detection method, three-dimensional fingertip position detector and program
JP2006236184A (en) Human body detection method by image processing
CN111325073A (en) Monitoring video abnormal behavior detection method based on motion information clustering
KR101539944B1 (en) Object identification method

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20150824

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20161116

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20170524

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20170602

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20170605

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20210527

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20230314

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20240326

Start annual number: 8

End annual number: 8