KR102166333B1 - Method and apparatus for processing palm print image - Google Patents

Method and apparatus for processing palm print image Download PDF

Info

Publication number
KR102166333B1
KR102166333B1 KR1020130142335A KR20130142335A KR102166333B1 KR 102166333 B1 KR102166333 B1 KR 102166333B1 KR 1020130142335 A KR1020130142335 A KR 1020130142335A KR 20130142335 A KR20130142335 A KR 20130142335A KR 102166333 B1 KR102166333 B1 KR 102166333B1
Authority
KR
South Korea
Prior art keywords
guide information
hand
image
region
determining whether
Prior art date
Application number
KR1020130142335A
Other languages
Korean (ko)
Other versions
KR20150059213A (en
Inventor
손병준
김재희
유진우
김진수
이근
Original Assignee
삼성전자주식회사
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 연세대학교 산학협력단 filed Critical 삼성전자주식회사
Priority to KR1020130142335A priority Critical patent/KR102166333B1/en
Publication of KR20150059213A publication Critical patent/KR20150059213A/en
Application granted granted Critical
Publication of KR102166333B1 publication Critical patent/KR102166333B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Image Analysis (AREA)

Abstract

손 모양의 가이드 정보를 표시하는 단계, 영상이 입력되면 상기 가이드 정보의 미리 정해진 영역에서의 신호 패턴에 기반하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 단계; 및 상기 판단 결과에 따라 입력된 영상을 캡쳐 하는 단계를 포함하는 장문 영상 처리 방법 및 이를 위한 단말기가 개시된다.Displaying hand-shaped guide information, when an image is input, determining whether a hand is located in the guide information based on a signal pattern in a predetermined area of the guide information; And capturing an input image according to a result of the determination, and a terminal for the same.

Description

장문 영상 처리 방법 및 이를 위한 단말기{Method and apparatus for processing palm print image}Long-print image processing method and terminal therefor TECHNICAL FIELD [Method and apparatus for processing palm print image]

본 발명은 장문 영상 처리 방법 및 이를 위한 단말기에 관한 것으로 보다 상세하게는, 가이드 정보를 이용하여 장문 영상을 취득하고 처리하는 장문 영상 처리 방법 및 이를 위한 단말기에 관한 것이다.The present invention relates to a palm print image processing method and a terminal therefor, and more particularly, to a palm print image processing method for acquiring and processing a palm print image using guide information, and a terminal therefor.

통상적으로 장문 인식 시스템은 높은 인식률을 얻기 위하여 고해상도의 장문 이미지를 필요로 한다. 따라서 종래의 장문 인식 시스템은 일관된 고해상도의 장문 영상을 획득하기 위하여 고정된 막대 형태의 기둥 사이에 손가락을 끼우고 스캔하는 방식을 사용하거나 지문을 획득하는 것처럼 잉크를 손바닥에 발라 찍어내는 방식을 사용하였다.Typically, palm print recognition systems require high-resolution palm print images to obtain a high recognition rate. Therefore, in the conventional palm print recognition system, in order to obtain a consistent high-resolution palm print image, a method of inserting a finger between fixed rod-shaped columns and scanning was used, or a method of applying ink to the palm of the palm as if obtaining a fingerprint was used. .

그러나 종래의 장문 인식 시스템은 장문을 스캔 하거나 잉크로 찍어내는 방식을 사용할 경우 모바일 기기와 같은 휴대 단말에서 실시간으로 장문 영상을 취득하기는 어렵다. 또한 모바일 기기에 내장된 카메라를 이용한 장문 영상은, 촬영되는 손바닥이 별도의 고정장치 없이 휴대폰과 거리를 두고 비 접촉식으로 취득된다. 따라서, 종래의 장문 인식 시스템은 사용자의 손 자세나 영상을 찍을 때의 카메라와 손 간의 거리 및 각도에 따라 동일한 손으로부터도 다른 영상이 획득될 수 있어, 손바닥의 장문 인식을 위한 특징 추출 시 일관된 특징을 얻을 수 없고, 이는 모바일 장문 인식의 성능 하락으로 이어지게 된다. However, in the conventional palm print recognition system, it is difficult to acquire a palm print image in real time from a portable terminal such as a mobile device when a palm print is scanned or inked. In addition, long-printed images using a camera built into a mobile device are acquired in a non-contact manner with the palm being photographed at a distance from the mobile phone without a separate fixing device. Therefore, in the conventional palm print recognition system, different images can be acquired from the same hand according to the user's hand posture or the distance and angle between the camera and the hand when taking an image, and thus, consistent features when extracting features for palm print recognition Cannot be obtained, which leads to a decline in the performance of mobile palm print recognition.

본 발명은 손바닥 모양의 가이드 화면을 이용하여 장문 영상을 취득하고 처리하는 장문 영상 처리 방법 및 이를 위한 단말기를 제공하는 것을 목적으로 한다.An object of the present invention is to provide a palm print image processing method for acquiring and processing a palm print image using a palm-shaped guide screen, and a terminal for the same.

상기 과제들을 달성하기 위한 본 발명의 실시 예에 따른 장문 영상 처리 방법은, 손 모양의 가이드 정보를 표시하는 단계; 영상이 입력되면 상기 가이드 정보의 미리 정해진 영역에서의 신호 패턴에 기반하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 단계; 및 상기 판단 결과에 따라 입력된 영상을 캡쳐 하는 단계를 포함한다.A method for processing a long print image according to an embodiment of the present invention for achieving the above tasks includes the steps of displaying hand-shaped guide information; Determining whether a hand is located on the guide information based on a signal pattern in a predetermined area of the guide information when an image is input; And capturing the input image according to the determination result.

상기 가이드 정보에 손이 위치하는 지를 판단하는 단계는, 상기 가이드 정보에서 영상 신호를 추출할 영역을 설정하는 과정; 상기 설정된 영역에서 신호 패턴을 분석하는 과정; 및 상기 분석된 신호 패턴에 기반하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 과정을 구비하는 것을 특징으로 한다.The determining whether a hand is located in the guide information may include: setting an area from which an image signal is to be extracted from the guide information; Analyzing a signal pattern in the set region; And determining whether a hand is located in the guide information based on the analyzed signal pattern.

상기 영역을 설정하는 과정은, 상기 가이드 정보 내 손가락 영상의 관심 영역 또는 손가락 영상의 선분을 설정하는 것을 특징으로 한다.The process of setting the region may include setting a region of interest of the finger image or a line segment of the finger image in the guide information.

상기 손가락 영상의 선분을 설정하는 과정은, 정해진 손가락의 골점 상하 부분에 선분을 설정하고, 오른 손과 좌측 손에 대해 서로 대칭적으로 선분을 설정하는 것을 특징으로 한다.The process of setting the line segment of the finger image is characterized in that the line segments are set above and below the goal point of the predetermined finger, and the line segments are symmetrically set with respect to the right and left hands.

상기 신호 패턴을 분석하는 과정은, 상기 가이드 정보의 제1영역의 영상 신호 패턴과 상기 가이드 정보의 제2영역의 영상 신호 패턴을 비교하는 것을 특징으로 한다.The process of analyzing the signal pattern may include comparing the image signal pattern of the first region of the guide information with the image signal pattern of the second region of the guide information.

상기 신호 패턴을 분석하는 과정은, 제1영역의 전체 YCbCr의 평균값과 상기 가이드 정보의 제2영역에 해당하는 픽셀의 YCbCr 값 간의 차이를 산출하는 것을 특징으로 한다.The process of analyzing the signal pattern may include calculating a difference between an average value of all YCbCr of the first region and a YCbCr value of a pixel corresponding to the second region of the guide information.

상기 가이드 정보에 손이 위치하는 지를 판단하는 단계는 상기 가이드 정보의 제1영역의 영상 신호 패턴과 상기 가이드 정보의 제2영역의 영상 신호 패턴을 비교하여 손에 해당하는 전경인지 또는 손이 아닌 배경인지를 구분하는 것을 특징으로 한다.Determining whether the hand is located in the guide information includes comparing the image signal pattern of the first region of the guide information with the image signal pattern of the second region of the guide information to determine whether the foreground corresponds to the hand or the background other than the hand. It is characterized by distinguishing cognition.

상기 가이드 정보에 손이 위치하는 지를 판단하는 단계는 카메라의 초점이 조절된 후 입력된 영상에 대해서 신호 패턴을 분석하는 것을 특징으로 한다.The step of determining whether the hand is positioned on the guide information may include analyzing a signal pattern for the input image after the focus of the camera is adjusted.

상기 가이드 정보의 정해진 영역의 칼라 정보에 기반하여 입력 영상에 손이 존재하는 지를 확인하는 단계를 더 포함한다. And checking whether a hand exists in the input image based on the color information of the predetermined area of the guide information.

상기 입력 영상에 손이 존재하는 지를 확인하는 단계는, 상기 가이드 정보에서 관심 영역을 설정하는 과정; 상기 관심 영역내의 평균 픽셀값이 미리 설정된 1차 바운더리에 포함되는 가를 판별하는 과정; 상기 설정된 관심 영역내의 모든 픽셀들중 미리 결정된 2차 바운더리에 포함되는 픽셀을 비율을 획득하는 과정; 및 상기 픽셀 비율에 기반하여 입력 영상 내에 손이 존재하는 지를 판단하는 과정을 구비하는 것을 특징으로 한다.The step of determining whether a hand is present in the input image may include: setting a region of interest in the guide information; Determining whether an average pixel value in the region of interest is included in a preset primary boundary; Obtaining a ratio of a pixel included in a predetermined secondary boundary among all pixels in the set region of interest; And determining whether a hand exists in the input image based on the pixel ratio.

상기 과제들을 달성하기 위한 본 발명의 다른 실시 예에 따른 장문 영상 처리 방법은, 손 모양의 가이드 정보를 표시하는 단계; 상기 가이드 정보의 미리 정해진 영역에서의 칼라 정보에 기반하여 입력 영상에 손이 존재하는 지를 확인하는 단계; 상기 확인 결과에 따라 상기 가이드 정보의 미리 정해진 영역에서의 영상 신호의 패턴에 기반하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 단계; 및 상기 판단 결과에 따라 입력된 영상을 캡쳐 하는 단계를 포함한다. A method for processing a long print image according to another embodiment of the present invention for achieving the above tasks includes: displaying hand-shaped guide information; Checking whether a hand exists in the input image based on color information in a predetermined area of the guide information; Determining whether a hand is located in the guide information based on a pattern of an image signal in a predetermined area of the guide information according to the confirmation result; And capturing the input image according to the determination result.

상기 과제들을 달성하기 위한 본 발명의 일 실시 예에 따른 장문 영상 처리 장치는, 손 모양의 가이드 정보를 발생하는 가이드 정보 발생부; 상기 가이드 정보의 미리 정해진 영역에서의 칼라 정보에 기반하여 입력 영상에 손의 포함 여부를 판단하는 칼라 분석부; 상기 가이드 정보의 미리 정해진 영역에서의 영상 신호의 패턴에 기반하여 상기 가이드 정보에 손의 위치 여부를 판단하는 신호 패턴 분석부; 및 상기 칼라 분석부 및 신호 패턴 분석부의 판단 결과에 따라 입력 영상 신호를 캡쳐하는 영상 캡쳐부를 포함한다.A long print image processing apparatus according to an embodiment of the present invention for achieving the above tasks includes: a guide information generator for generating hand-shaped guide information; A color analysis unit determining whether a hand is included in the input image based on color information in a predetermined area of the guide information; A signal pattern analysis unit determining whether a hand is positioned in the guide information based on a pattern of an image signal in a predetermined area of the guide information; And an image capture unit for capturing an input image signal according to a determination result of the color analysis unit and the signal pattern analysis unit.

상기 과제들을 달성하기 위한 본 발명의 일 실시 예에 따른 단말기는, 영상을 촬영하는 카메라부; 손 모양의 가이드 정보를 표시하고, 상기 카메라부에서 영상이 입력되면 상기 가이드 정보의 미리 정해진 영역에서의 영상 신호를 분석하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 영상 처리부; 및 상기 가이드 정보 및 상기 카메라부에서 촬영된 영상을 표시하는 표시부를 포함한다.A terminal according to an embodiment of the present invention for achieving the above tasks includes a camera unit for photographing an image; An image processing unit that displays hand-shaped guide information and, when an image is input from the camera unit, analyzes an image signal in a predetermined area of the guide information to determine whether a hand is located in the guide information; And a display unit that displays the guide information and an image captured by the camera unit.

상기 영상 처리부는, 손 모양의 가이드 정보를 발생하는 가이드 정보 발생부; 카메라에서 촬영된 영상을 입력하는 영상 입력부; 상기 가이드 정보의 미리 정해진 영역에서의 칼라 정보에 기반하여 입력 영상에 대해 손포함 여부를 판단하는 칼라 분석부; 상기 가이드 정보의 미리 정해진 영역에서의 영상 신호의 패턴에 기반하여 상기 가이드 정보에 손의 위치 여부를 판단하는 신호 패턴 분석부; 및 상기 칼라 분석부 및 신호패턴분석부의 판단 결과에 따라 입력 영상 신호를 캡쳐하는 영상 캡쳐부를 구비한다.The image processing unit may include a guide information generating unit generating hand-shaped guide information; An image input unit for inputting an image captured by the camera; A color analysis unit determining whether a hand is included in the input image based on color information in a predetermined area of the guide information; A signal pattern analysis unit determining whether a hand is positioned in the guide information based on a pattern of an image signal in a predetermined area of the guide information; And an image capture unit for capturing an input image signal according to a determination result of the color analysis unit and the signal pattern analysis unit.

도 1은 본 발명의 일 실시예에 따른 단말기의 블록도이다.
도 2는 도 1의 영상 처리부의 상세 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 장문 영상 처리 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 다른 실시 예에 따른 장문 영상 처리 방법을 설명하기 위한 흐름도이다.
도 5a 및 도 5b는 본 발명의 일 실시 예에 따른 왼손 및 오른손 가이드 정보를 도시한 것이다.
도 6은 본 발명의 일 실시 예에 따른 가이드 정보의 설정 영역에서의 칼라 신호 분석을 설명하는 흐름도이다.
도 7은 본 발명의 일 실시 예에 따른 신호 패턴 분석을 설명하는 흐름도이다.
도 8은 본 발명의 일 실시 예에 따른 칼라 신호 분석을 위한 관심 영역의 설정 예를 도시한 것이다.
도 9는 본 발명의 일 실시 예에 따라 장문 영상의 적합성 검증을 위한 오른손 선분들의 설정 예를 도시한 것이다.
도 10은 본 발명의 일 실시 예에 따라 가이드 영상내 손의 존재 여부를 판단하는 데 사용되는 YCbCr 칼라 공간에서의 피부색 분포를 설정하는 예를 도시한 것이다.
도 11은 본 발명의 일 실시 예에 따라 장문 영상 확인을 위한 골점 상단에 위치한 선분의 신호 패턴의 예를 도시한 것이다.
도 12는 본 발명의 일 실시 예에 따라 장문 영상 확인을 위한 골점 하단에 위치한 선분의 신호 패턴의 예를 도시한 것이다.
1 is a block diagram of a terminal according to an embodiment of the present invention.
2 is a detailed block diagram of the image processing unit of FIG. 1.
3 is a flowchart illustrating a method of processing a long print image according to an embodiment of the present invention.
4 is a flowchart illustrating a method of processing a long print image according to another exemplary embodiment of the present invention.
5A and 5B illustrate left and right hand guide information according to an embodiment of the present invention.
6 is a flowchart illustrating color signal analysis in a setting area of guide information according to an embodiment of the present invention.
7 is a flowchart illustrating signal pattern analysis according to an embodiment of the present invention.
8 illustrates an example of setting an ROI for analyzing a color signal according to an embodiment of the present invention.
9 is a diagram illustrating an example of setting right hand segments for verifying suitability of a long-print image according to an embodiment of the present invention.
10 is a diagram illustrating an example of setting a skin color distribution in a YCbCr color space used to determine whether a hand exists in a guide image according to an embodiment of the present invention.
11 illustrates an example of a signal pattern of a line segment located above a goal point for checking a long print image according to an embodiment of the present invention.
12 illustrates an example of a signal pattern of a line segment located below a goal point for checking a long print image according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Since the present invention can apply various transformations and have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it should be understood to include all conversions, equivalents, or substitutes included in the spirit and scope of the present invention. In describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted.

제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by terms. The terms are only used for the purpose of distinguishing one component from another component.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 본 출원에서 사용한 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나 이는 당 분야에 종사하는 기술자의 의도, 판례, 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present application are used only to describe specific embodiments, and are not intended to limit the present invention. The terms used in the present application have selected general terms that are currently widely used as possible while considering the functions of the present invention, but this may vary according to the intention of a technician working in the field, precedents, or the emergence of new technologies. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning of the terms will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall contents of the present invention, not a simple name of the term.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

도 1은 본 발명의 일 실시예에 따른 단말기의 블록도이다. 1 is a block diagram of a terminal according to an embodiment of the present invention.

도 1의 단말기는 카메라부(110), 영상 처리부(120), 제어부(130), 표시부(140), 메모리(150), 통신 인터페이스부(160), 키입력부(170), 오디오 처리부(180)를 포함한다.The terminal of FIG. 1 includes a camera unit 110, an image processing unit 120, a control unit 130, a display unit 140, a memory 150, a communication interface unit 160, a key input unit 170, and an audio processing unit 180. Includes.

카메라부(110)는 이미지를 촬영하며, 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 영상 프레임을 얻을 수 있다. 이때 이미지 센서를 통해 캡쳐된 영상은 영상 처리부(120)를 통해 원하는 신호로 처리될 수 있다. The camera unit 110 captures an image, and may obtain an image frame such as a still image or a video through an image sensor in a video call mode or a photographing mode. In this case, the image captured through the image sensor may be processed into a desired signal through the image processing unit 120.

카메라부(120)에서 처리된 영상 프레임은 메모리(150)에 저장되거나 통신 인터페이스부(160)를 통하여 외부로 전송될 수 있다. The image frame processed by the camera unit 120 may be stored in the memory 150 or transmitted to the outside through the communication interface unit 160.

영상 처리부(120)는 장문 인식 기능이 시작되면 표시부(140)에 손 바닥 모양의 가이드 정보를 표시하고, 카메라부(120)에서 촬영 영상이 입력되면 가이드 정보의 미리 정해진 영역에서의 영상 신호를 분석하여 입력된 영상이 장문 인식에 적합한지 검증한다.When the palm print recognition function starts, the image processing unit 120 displays guide information in the shape of a palm on the display unit 140, and when a captured image is input from the camera unit 120, the image signal in a predetermined area of the guide information is analyzed. It verifies whether the input image is suitable for long print recognition.

제어부(130)는 각 블록을 제어하며, 특히 카메라부(110)의 렌즈의 포커스를 제어하거나 영상 처리부(120)에 포커스 조정에 따른 새로운 프레임의 영상 신호를 입력하도록 한다.The controller 130 controls each block, and in particular, controls the focus of the lens of the camera unit 110 or inputs an image signal of a new frame according to focus adjustment to the image processing unit 120.

표시부(140)는 영상 처리부(120)에서 처리되는 프레임 영상이나 각종 정보를 화면으로 표시하고, 제어부(130)에서 출력되는 사용자 데이터를 표시한다. 특히, 표시부(140)는 가이드 정보 및 카메라부(110)에서 촬영된 영상을 표시한다.The display unit 140 displays a frame image or various information processed by the image processing unit 120 on a screen, and displays user data output from the control unit 130. In particular, the display unit 140 displays guide information and an image captured by the camera unit 110.

메모리(150)는 제어부(130)에 의해 실행되는 명령들을 저장하거나 각종 정보 데이터를 임시로 저장한다. 메모리(150)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 150 stores commands executed by the controller 130 or temporarily stores various information data. The memory 150 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), and RAM. (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (ROM, Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk And at least one type of storage medium among optical disks.

통신 인터페이스부(160)는 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The communication interface unit 160 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include a voice call signal, a video call signal, or various types of data according to transmission/reception of text/multimedia messages.

키 입력부(170)는 터치 스크린이나 입력 키등을 통해 사용자로부터 제어 명령을 입력 받는다.The key input unit 170 receives a control command from a user through a touch screen or an input key.

오디오 처리부(180)는 제어부(130)에서 발생되는 오디오 신호를 스피커를 통해 재생하거나 마이크로부터 발생되는 오디오 신호를 제어부(130)로 입력한다.The audio processing unit 180 reproduces an audio signal generated from the controller 130 through a speaker or inputs an audio signal generated from a microphone to the controller 130.

도 2는 도 1의 영상 처리부(120)의 상세 블록도이다.2 is a detailed block diagram of the image processing unit 120 of FIG. 1.

도 2의 영상 처리부(120)는 가이드정보발생부(210), 영상 입력부(220), 칼라 분석부(220), 신호 패턴 분석부(240), 영상 캡쳐부(250))를 구비한다.The image processing unit 120 of FIG. 2 includes a guide information generation unit 210, an image input unit 220, a color analysis unit 220, a signal pattern analysis unit 240, and an image capture unit 250.

가이드정보발생부(210)는 화면에 장문 영상 취득을 위한 손 바닥 모양의 가이드 정보를 발생한다The guide information generation unit 210 generates guide information in the shape of a palm for acquiring a long-print image on the screen.

영상 입력부(220)는 카메라부(110)에서 촬영된 영상을 입력한다.The image input unit 220 inputs an image captured by the camera unit 110.

칼라 분석부(230)는 가이드 정보의 미리 정해진 영역에서의 칼라 정보에 기반하여 입력 영상에 대해 손 포함 여부를 분석한다.The color analysis unit 230 analyzes whether a hand is included in the input image based on color information in a predetermined area of the guide information.

신호 패턴 분석부(240)는 가이드 정보의 미리 정해진 영역에서의 영상 신호의 패턴에 기반하여 가이드 정보에 손의 위치 여부를 분석한다.The signal pattern analysis unit 240 analyzes whether a hand is positioned in the guide information based on a pattern of an image signal in a predetermined area of the guide information.

영상 캡쳐부(250)는 칼라 분석부(230) 및 신호 패턴 분석부(240)의 분석 결과에 따라 입력 영상 신호를 캡쳐한다. The image capture unit 250 captures an input image signal according to the analysis results of the color analysis unit 230 and the signal pattern analysis unit 240.

도 3은 본 발명의 일 실시 예에 따른 장문 영상 처리 방법을 설명하기 위한 흐름도이다. 3 is a flowchart illustrating a method of processing a long print image according to an embodiment of the present invention.

이 방법은 단계 310에서 시작한다.This method begins at step 310.

단계 320에서, 장문 인식 기능이 시작되면 단말기는 화면에 장문 영상 취득을 위한 손 바닥 모양의 가이드 정보를 표시한다.In step 320, when the palm print recognition function is started, the terminal displays guide information in the shape of the palm of a hand for obtaining a palm print image on the screen.

일실시예로, 단말기는 사용자가 손 바닥 장문 영상을 비교적 동일한 손 자세와 카메라까지의 거리를 유지하면서 편리하게 입력할 수 있도록 화면에 손 바닥 모양의 가이드 화면을 제공한다. 단말기는 카메라의 초점이 맞는 범위 내에서 인식에 사용되는 장문 영역이 최대한 크게 얻어지도록 손 바닥 모양으로 가이드 정보를 표시한다. 이 때, 손 바닥 모양의 가이드 정보는 사용자의 편의를 고려하여 왼손의 경우에는 도 5a과 같이 시계 방향으로, 오른손의 경우에는 도 5b와 같이 반 시계 방향으로 약간 기울여 표시된다. 장문 영역은 검지와 중지 사이의 골점과 약지와 소지 사이의 골점을 기준으로 이와 평행한 아래 부분에서 추출된다. 따라서 단말기는 두 골점 위치에 손이 맞춰지도록 유도하기 위하여 검지와 중지 사이의 골점(502a, 502b), 중지와 약지 사이의 골점(503a, 503b), 약지와 소지 사이의 골점(504a, 504b) 부분을 실선으로 강조하여 그린다. 또한 단말기는 상기 언급한 3개의 골점을 기준으로 자연스럽게 사용자의 손이 유도되도록 엄지와 검지 사이의 손바닥 경계(501a, 501b)와 아래쪽 손바닥 경계(505a, 505b)를 점선으로 그린다. 손 모양의 가이드를 표현하는데 있어서 상기 두 골점을 포함하여 비스듬히 기울어진 형태의 가이드 정보는 일정한 장문 취득을 가능하게 함으로써 높은 수준의 장문인식 성능을 보장할 뿐만 아니라 사용자의 편의성을 높이는데 중요한 요소로 작용한다.In one embodiment, the terminal provides a guide screen in the shape of a palm on the screen so that a user can conveniently input a palm print image while maintaining a relatively same hand posture and a distance to the camera. The terminal displays the guide information in the shape of the bottom of the hand so that the long-print area used for recognition is obtained as large as possible within the range in which the camera focuses. In this case, the guide information in the shape of the bottom of the hand is displayed in a clockwise direction as shown in FIG. 5A for the left hand and in a counterclockwise direction as shown in FIG. 5B for the right hand in consideration of the user's convenience. The palmar region is extracted from the lower part parallel to the goal point between the index finger and middle finger and the goal point between the ring finger and the hand finger. Therefore, in order to induce the hand to be matched to the position of the two goal points, the terminal has the goal points (502a, 502b) between the index and middle fingers, the goal points (503a, 503b) between the middle and ring fingers, and the goal points (504a, 504b) between the ring finger and the holding finger. Draw with a solid line. In addition, the terminal draws the palm borders 501a and 501b between the thumb and the index finger and the lower palm borders 505a and 505b with a dotted line so that the user's hand is naturally guided based on the three goal points mentioned above. In expressing the hand-shaped guide, the guide information in the obliquely inclined form including the above two goal points enables the acquisition of certain palm prints, thereby ensuring a high level of palm print recognition performance and acting as an important factor in enhancing user convenience. do.

단계 330에서, 단말기는 카메라에서 촬영된 영상을 입력한다.In step 330, the terminal inputs an image captured by the camera.

단계 340에서, 영상이 입력되면, 단말기는 가이드 정보의 미리 설정된 영역 예를 들면 손가락 영상에서 미리 설정된 영역 또는 선분의 신호 패턴을 분석하여 가이드 정보에 손이 위치하는 지를 판단한다. 단말기는 가이드 정보에 손이 위치하는 것으로 판단하면 다음 단계 350으로 패스(PASS)하고, 그렇지 않으면(NON-PASS) 단계 330을 수행한다. In step 340, when an image is input, the terminal determines whether a hand is located in the guide information by analyzing a signal pattern of a preset area of the guide information, for example, a preset area or line segment in the finger image. If it is determined that the hand is located in the guide information, the terminal passes (PASS) to the next step 350, otherwise (NON-PASS) performs step 330.

단계 350에서, 단말기는 가이드 정보에 손이 위치하는 것으로 판단하면 입력 영상을 인식에 적합한 영상으로 판단하여 캡쳐한다.In step 350, if it is determined that the hand is located in the guide information, the terminal determines and captures the input image as an image suitable for recognition.

이 방법은 단계 360에서 종료한다.This method ends at step 360.

결국, 단말기는 인증에 적합한 것으로 확인된 캡쳐 영상을 장문 인식에 이용한다.Eventually, the terminal uses the captured image confirmed to be suitable for authentication for palm print recognition.

도 4는 본 발명의 다른 실시 예에 따른 장문 영상 처리 방법을 설명하기 위한 흐름도이다. 4 is a flowchart illustrating a method of processing a long print image according to another exemplary embodiment of the present invention.

이 방법은 단계 405에서 시작한다.The method begins at step 405.

단계 410에서, 단말기는 장문 인식 기능이 시작되면 단말기는 화면에 장문 영상 취득을 위한 손 바닥 모양의 가이드 정보를 표시한다.In step 410, when the palm print recognition function starts, the terminal displays guide information in the shape of a palm for acquiring a palm print image on the screen.

단계 415에서, 단말기는 카메라에서 촬영된 영상을 입력한다.In step 415, the terminal inputs an image captured by the camera.

단계 420에서, 단말기는 카메라로부터 포커스 조정 중인가를 체크한다. 포커스 조정 중인 것으로 체크되면, 단말기는 새로운 프레임의 영상을 연속적으로 입력한다. In step 420, the terminal checks whether focus is being adjusted by the camera. If it is checked that focus is being adjusted, the terminal continuously inputs images of new frames.

단계 425에서, 포커스 조정 중이 아닌 것으로 체크 되면, 단말기는 가이드 정보의 특정 영역, 예를 들면 가이드 정보의 손가락 영상에서 미리 설정된 영역의 칼라 정보를 분석하여 입력 영상에 손이 포함되어 있는지를 확인한다. 단말기는 입력 영상에 손이 포함되어 있는지를 확인하면 다음 단계 430으로 패스(PASS)하고, 그렇지 않으면(NON-PASS) 단계 415를 수행한다.In step 425, if it is checked that focus is not being adjusted, the terminal determines whether a hand is included in the input image by analyzing color information of a specific area of the guide information, for example, a preset area of the finger image of the guide information. If the terminal checks whether the input image includes a hand, the terminal passes (PASS) to the next step 430, otherwise (NON-PASS) performs step 415.

입력 영상에 손의 포함 여부는 상기 언급한 컬러정보를 분석하는 방법에 국한되지는 않으며, AAM(Active appearance model), ASM(Active shape model)과 같이 손을 모델링하여 손의 모양 또는 텍스쳐 정보를 사용하는 방법들이나 체온 감지 센서와 같이 인체의 온도를 감지하는 별도의 센서를 사용할 수도 있다.Whether the hand is included in the input image is not limited to the method of analyzing the above-mentioned color information, and the hand shape or texture information is used by modeling the hand such as AAM (Active appearance model) and ASM (Active shape model). It is also possible to use a separate sensor that senses the temperature of the human body, such as methods of doing things or a body temperature sensor.

단계 430에서, 입력 영상에 손이 존재하는 것으로 확인되지 않으면 단말기는 새로운 영상을 입력 받아 415 단계부터 다시 영상을 처리한다. 그러나 입력 영상에 손이 존재하는 것으로 확인되면, 단말기는 가이드 정보의 미리 설정된 영역 예를 들면 손가락 영상에서 미리 설정된 영역 또는 선분의 신호 패턴을 분석하여 가이드 정보에 손이 위치하는 지를 판단한다. 단말기는 가이드 정보에 손이 위치하는 것으로 판단하면 다음 단계 435로 패스(PASS)하고, 그렇지 않으면(NON-PASS) 장문 인식에 적합한 손 영상이 아닌 것으로 판단하고 415 단계에서 다시 새로운 프레임의 영상을 입력 받는다.In step 430, if it is not confirmed that a hand exists in the input image, the terminal receives a new image and processes the image again from step 415. However, if it is determined that the hand is present in the input image, the terminal determines whether the hand is located in the guide information by analyzing a signal pattern of a preset area of the guide information, for example, a preset area or line segment in the finger image. If the terminal determines that the hand is located in the guide information, it passes (PASS) to the next step 435, otherwise (NON-PASS) determines that the hand image is not suitable for palm print recognition, and inputs a new frame image again in step 415. Receive.

단계 435에서, 단말기는 가이드 정보에 손이 위치하는 것으로 확인하면 인식에 적합한 손 영상으로 판단하고 포커스 조정이 완료되었나를 체크한다. In step 435, if the terminal determines that the hand is located in the guide information, it determines that the hand image is suitable for recognition and checks whether the focus adjustment has been completed.

단계 440에서, 포커스 조정이 미 완료된 상태로 체크되면 단말기는 포커스 조정을 시작하고 단계 415에서 프레임의 영상을 입력한다.In step 440, if it is checked that focus adjustment has not been completed, the terminal starts focus adjustment and inputs an image of a frame in step 415.

단계 445에서, 포커스 조정이 완료된 상태로 체크되면 단말기는 입력 영상을 인식에 적합한 영상으로 판단하여 캡쳐 한다.In step 445, if it is checked that the focus adjustment has been completed, the terminal determines and captures the input image as an image suitable for recognition.

이 방법은 단계 450에서 종료한다.This method ends at step 450.

도 6은 도 4의 가이드 정보의 설정 영역에서 칼라 신호 분석을 설명하는 흐름도이다.6 is a flowchart illustrating color signal analysis in a setting area of guide information of FIG. 4.

이 방법은 단계 610에서 시작한다. The method begins at step 610.

단계 620에서, 단말기는 칼라 신호 분석을 위해 가이드 정보에서 중심 관심 영역을 설정한다.In step 620, the terminal sets a central ROI in the guide information for color signal analysis.

일 실시 예로, 컬러 분석을 위한 중심 관심 영역(ROI: Region Of Interest) 은 도 8에 도시된 바와 같이 검지와 중지 사이의 골점(801)과 약지와 소지 사이의 골점(802)을 잇는 선분(803)의 길이를 L 이라고 할 때, 이로부터 적절히 떨어져 있는 영역(804)으로 정의한다. 일 예로, 중심 관심 영역은 0.3L 만큼 수직으로 떨어져 있는 가로 길이 L, 세로 길이 0.3L 인 직사각형의 영역(804)이다.As an example, as shown in FIG. 8, the region of interest (ROI) for color analysis is a line segment 803 connecting the goal point 801 between the index finger and the middle finger and the goal point 802 between the ring finger and the hand finger. When the length of) is L, it is defined as a region 804 that is appropriately separated from it. As an example, the central region of interest is a rectangular region 804 with a horizontal length L and a vertical length of 0.3L vertically separated by 0.3L.

단계 630에서, 단말기는 중심 관심 영역내의 평균 픽셀 값이 미리 설정된 1차 바운더리(boundary)에 포함되는 가를 판별한다. 일 실시 예로, 단말기는 직사각형 영역 내의 평균 Cb, Cr값을 측정하여, 이 값이 피부색이 가질 수 있는 Cb, Cr의 범위에 대응하는 1차 바운더리(boundary)에 포함되는가를 판별한다. 이 때에 사용되는 칼라 정보에 해당하는 Cb, Cr의 범위는 다양한 인종, 연령대의 학습 데이터를 통하여 대부분의 손 영상을 수용할 수 있도록 크게 설정 된다. In step 630, the terminal determines whether the average pixel value in the central ROI is included in a preset primary boundary. As an example, the terminal measures the average Cb and Cr values in a rectangular area, and determines whether these values are included in a primary boundary corresponding to a range of Cb and Cr that can have a skin color. The range of Cb and Cr corresponding to the color information used at this time is set large to accommodate most hand images through learning data of various races and ages.

단계 640에서, 단말기는 중심 관심 영역내의 모든 픽셀들중 미리 결정된 2차 바운더리에 포함되는 픽셀 비율을 판별한다. 일 실시 예로, 단말기는 학습 데이터를 통하여 한 장의 손 영상이 가질 수 있는 최대 Cb, Cr의 범위에 대응하는 2차 바운더리를 설정하고, 중심 관심 영역내의 모든 픽셀들 중 2차 바운더리내에 포함되는 픽셀의 비율을 측정하여 영상 내 손 존재 여부를 판단한다. 도 10를 참조하면, x좌표는 Cr 범위이고, y축은 Cb 범위이고, 101은 1차 바운더리 이고, 102는 2차 바운더리 이고, 103은 중심 관심 영역의 각 픽셀의 분포를 나타낸다.In step 640, the terminal determines a pixel ratio included in the predetermined secondary boundary among all pixels in the central ROI. As an example, the terminal sets the secondary boundary corresponding to the range of the maximum Cb and Cr that a single hand image can have through the training data, and the pixels included in the secondary boundary among all pixels in the central ROI are The ratio is measured to determine whether a hand exists in the image. Referring to FIG. 10, the x coordinate is in the Cr range, the y-axis is in the Cb range, 101 is the first boundary, 102 is the second boundary, and 103 is the distribution of each pixel in the central region of interest.

단계 650에서, 단말기는 판별된 픽셀 비율에 기반하여 입력 영상 내에 손이 존재하는 지를 판단한다.In step 650, the terminal determines whether a hand exists in the input image based on the determined pixel ratio.

이 방법은 단계 660에서 종료한다.The method ends at step 660.

도 7은 도 3 및 도 4의 신호 패턴 분석을 설명하는 흐름도이다. 7 is a flowchart illustrating signal pattern analysis of FIGS. 3 and 4.

이 방법은 단계 710에서 시작한다.The method begins at step 710.

단계 720에서, 단말기는 가이드 정보에서 영상 신호를 추출할 손가락의 영역 또는 손가락의 선분을 설정한다. 일 실시 예로, 손가락의 영역 또는 선분은 실제 촬영되는 손의 각 골점들이 상기 언급한 가이드의 각 골점 부근에 적절하게 들어왔는지를 확인할 수 있도록 설정된다. 즉, 영상의 신호를 추출할 선분들의 위치는 도 5a 및 5b에 도시된 바와 같이 가이드의 검지와 중지 사이의 골점(502a, 502b), 약지와 소지 사이의 골점(504a, 504b) 부분의 위, 아래에 설정된다. 도 9에 도시된 바와 같이 선분들의 위치는 검지와 중지 사이의 골점(901)과 약지와 소지 사이의 골점(902)을 잇는 선분(903)의 길이를 L 이라고 할 때, 이에 대한 적절한 비율, 예로써 0.44L 길이의 선분 위치를 검지와 중지 사이의 골점(901)을 중심으로 위(904)와 아래(905)에 설정되고, 약지와 소지 사이의 골점(902)을 중심으로도 위(906)와 아래(907)에 설정된다. 왼손의 경우, 신호 추출을 위한 선분들의 위치는 도 9로부터 설정한 선분들의 위치를 대칭적으로 도 5a에 도시된 바와 같은 모양으로 설정된다.In step 720, the terminal sets a finger region or a finger line segment from which an image signal is to be extracted from the guide information. As an example, the area or line segment of the finger is set so as to check whether or not each bone point of the hand being actually photographed has properly entered the vicinity of each goal point of the above-mentioned guide. That is, the positions of the line segments to extract the signal of the image are above the goal points 502a and 502b between the index finger and middle finger of the guide, and the goal points 504a and 504b between the ring finger and the hand finger as shown in FIGS. 5A and 5B. , Is set below. As shown in Fig. 9, when the length of the line segment 903 connecting the goal point 901 between the index finger and the middle finger and the goal point 902 between the ring finger and the hand finger is L, an appropriate ratio thereof, For example, the position of a line segment of 0.44L length is set at the top 904 and the bottom 905 with the center of the goal 901 between the index finger and the middle finger, and the upper 906 also with the goal 902 between the ring and the hand finger. ) And below (907). In the case of the left hand, the positions of the line segments for signal extraction are symmetrically set to the positions of the line segments set from FIG. 9 in a shape as shown in FIG. 5A.

도 9를 참조하면, 손 영상이 가이드 모양에 맞게 획득되었다면, 상기 설정한 골점 위의 선분(904, 906)에서는 1차원 영상신호가 손 -> 배경-> 손의 패턴을 보일 것이고, 골점 아래의 선분(905, 907)에서는 전부 손의 패턴을 보일 것이다. Referring to FIG. 9, if a hand image is acquired according to the guide shape, a 1D image signal will show a hand -> background -> hand pattern at the line segments 904 and 906 above the set goal point, and In the line segments 905 and 907, all hand patterns will be shown.

단계 730에서, 단말기는 손가락의 미리 설정된 선분 또는 영역에서 영상 신호 패턴을 분석한다. 단말기는 상기 언급한 검지 및 약지 측 골점 주위 2개 선분 쌍들의 신호 패턴을 분석하여 인식에 적합한 장문 영상이 취득되었는지를 검증한다. 일 실시 예로, 선분에 있는 신호 패턴을 파악하기 위해서 단말기는 손의 피부색 영역인 중심 관심 영역과 선분에 위치하는 점에서의 패턴 정보 차이를 이용한다. 선분 위 한 점에서의 신호 패턴 값은 수학식 1을 적용하여 중심 ROI 영역의 전체 YCbCr 평균값과 이 점에 해당하는 픽셀의 YCbCr 값과의 차이로 구해진다.In step 730, the terminal analyzes the image signal pattern in a preset line segment or region of the finger. The terminal analyzes the signal patterns of the two line segment pairs around the above-mentioned index and ring finger bone points to verify whether a long-print image suitable for recognition has been acquired. As an example, in order to determine the signal pattern in the line segment, the terminal uses the difference in pattern information between the central ROI, which is a skin color area of the hand, and a point located on the line segment. The signal pattern value at one point on the line segment is obtained by applying Equation 1 to the difference between the average YCbCr value of the entire center ROI region and the YCbCr value of the pixel corresponding to this point.

Figure 112013106180048-pat00001
Figure 112013106180048-pat00001

여기서, YROI, CbROI, CrROI는 중심 ROI 영역의 YCbCr 평균값이고, YiN, CbiN, CriN는 선분 위의 한 점에 있는 YCbCr 값이고, WI는 Y 값 가중치이고, Dist 는 신호 패턴 차이 값을 나타낸다.Here, Y ROI , Cb ROI , Cr ROI are the average YCbCr values of the central ROI region, Y iN , Cb iN , Cr iN are the YCbCr values at a point on the line segment, WI is the Y value weight, and Dist is the signal pattern. Indicate the difference value.

손 영상이 가이드 모양에 맞게 취득되었을 때에는, 상기 언급한 골점 상단(904, 906)에 위치한 선분의 패턴 값은 도 11과 같은 신호 파형으로 나타낼 수 있다. 도 11을 참조하면, 중앙은 배경에 해당하는 큰 값의 거리를 갖는 반면 선분 양 끝은 피부 전경에 해당하는 작은 값의 거리를 갖는다(1101). 이때, 도 11의 x축은 선분 길이(L)이고, y축은 신호 패턴 차이값이고, 1103은 골점에 해당하고, 1102는 기준치에 해당한다. 도 11에 도시된 신호 파형은 선분이 손 영역, 배경 영역, 손 영역으로 구분되고 있음을 나타낸다. 반면, 도 9의 골점 하단(905, 907)에 위치한 선분은 도 12와 같이 선분 패턴 신호 전체가 손 영역에 해당되므로, 기준치(1202) 이하의 작은 값(1201)들을 갖는다. When the hand image is acquired according to the shape of the guide, the pattern value of the line segment located at the tops 904 and 906 of the above-mentioned goal points may be represented by a signal waveform as shown in FIG. 11. Referring to FIG. 11, the center has a large distance corresponding to the background, while both ends of the line segment have a small distance corresponding to the skin foreground (1101). In this case, the x-axis of FIG. 11 is the line segment length (L), the y-axis is the signal pattern difference value, 1103 corresponds to the goal point, and 1102 corresponds to the reference value. The signal waveform shown in FIG. 11 indicates that the line segment is divided into a hand region, a background region, and a hand region. On the other hand, the line segment located at the bottoms 905 and 907 of the goal point of FIG. 9 has small values 1201 less than the reference value 1202 since the entire line segment pattern signal corresponds to the hand region as shown in FIG. 12.

단계 740에서, 단말기는 분석된 영상 신호 패턴에 기반하여 가이드 정보에 손이 위치하는 지를 판단한다. 도 11에 도시된 바와 같이 골점 상단 선분에서 임계 값과의 교차점 개수 및 골점 하단 선분 위치에서 임계 값과의 교차점 개수가 각각 2개 및 0개의 조건을 모두 만족한다면 단말기는 가이드 정보에 인식에 적합한 손 영상이 입력된 것으로 판단한다.  In step 740, the terminal determines whether a hand is located in the guide information based on the analyzed image signal pattern. As shown in FIG. 11, if the number of intersection points with the threshold value in the upper line segment of the goal point and the number of intersection points with the threshold value in the lower line segment position of the goal point satisfy both conditions, the terminal is suitable for recognizing the guide information. It is determined that an image has been input.

상기 실시 예에서 손 영상이 가이드 모양에 맞게 획득되었는지를 판단하기 위하여 손가락에서의 선분을 분석하였지만 선분에 국한되지 않고 손가락에서의 미리 설정된 관심 영역에 해당하는 픽셀들을 분석할 수 있다.In the above embodiment, in order to determine whether the hand image is acquired in conformity with the guide shape, a line segment from the finger is analyzed, but not limited to the line segment, pixels corresponding to a preset region of interest in the finger may be analyzed.

본 발명의 일 실시 예에 따른 장문 영상 처리 방법은 별도의 전용센서를 사용하지 않고 모바일 기기에 장착된 카메라를 이용하여 가이드 화면의 필요한 부분에서만 장문인식을 수행할 수 있으므로 비용적 측면과 보안 측면에서 사용자에게 많은 이점을 가져다 줄 수 있으며, 또한 자동으로 영상의 품질을 평가하여 장문 영상을 획득 함으로써 사용자의 편의성도 높일 수 있다.In the aspect of cost and security, the palm print image processing method according to an embodiment of the present invention can perform palm print recognition only in a necessary part of the guide screen using a camera mounted on a mobile device without using a separate dedicated sensor. It can bring many advantages to the user, and it is also possible to increase the user's convenience by automatically evaluating the quality of the image and obtaining a long-length image.

본 발명의 실시 예들에 따른 장문 영상 처리 방법을 컴퓨터로 구현하는 방법을 수행하도록 하는 명령어들을 포함하는 하나 이상의 프로그램은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로써 기록되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로써 저장되고 실행될 수 있다. One or more programs including instructions for performing a method of implementing a method for processing a long-print image according to embodiments of the present invention with a computer may be recorded as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of storage devices storing data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage. In addition, the computer-readable recording medium can be distributed over a network-connected computer system, and stored and executed as computer-readable codes in a distributed manner.

이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다. So far, the present invention has been looked at around its preferred embodiments. Those of ordinary skill in the art to which the present invention pertains will be able to understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

Claims (15)

손 모양의 가이드 정보를 표시하는 단계;
영상이 입력되면 상기 가이드 정보의 미리 정해진 영역에서의 칼라 정보 및 영상 신호 패턴에 기반하여 상기 가이드 정보에 손이 존재하는 지 및 손이 위치하는 지를 판단하는 단계; 및
상기 판단 결과에 따라 입력된 영상을 캡쳐 하는 단계를 포함하며,
상기 손이 존재하는 지를 판단하는 단계는,
상기 가이드 정보에서 관심 영역을 설정하는 과정;
상기 관심 영역내의 평균 픽셀값이 미리 설정된 1차 바운더리에 포함되는 가를 판별하는 과정;
상기 설정된 관심 영역내의 모든 픽셀들중 미리 결정된 2차 바운더리에 포함되는 픽셀 비율을 획득하는 과정; 및
상기 픽셀 비율에 기반하여 입력 영상 내에 손이 존재하는 지를 판단하는 과정을 더 구비하는 것을 특징으로 하는 장문 영상 처리 방법.
Displaying hand-shaped guide information;
Determining whether a hand is present and a hand is located in the guide information based on color information and an image signal pattern in a predetermined area of the guide information when an image is input; And
And capturing the input image according to the determination result,
The step of determining whether the hand is present,
Setting a region of interest in the guide information;
Determining whether an average pixel value in the region of interest is included in a preset primary boundary;
Obtaining a pixel ratio included in a predetermined secondary boundary among all pixels in the set region of interest; And
And determining whether a hand exists in the input image based on the pixel ratio.
제1항에 있어서, 상기 가이드 정보에 손이 위치하는 지를 판단하는 단계는,
상기 가이드 정보에서 영상 신호를 추출할 영역을 설정하는 과정;
상기 설정된 영역에서 신호 패턴을 분석하는 과정; 및
상기 분석된 신호 패턴에 기반하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 과정을 구비하는 것을 특징으로 하는 장문 영상 처리 방법.
The method of claim 1, wherein determining whether a hand is located on the guide information comprises:
Setting an area from which an image signal is to be extracted from the guide information;
Analyzing a signal pattern in the set region; And
And determining whether a hand is located in the guide information based on the analyzed signal pattern.
제2항에 있어서, 상기 영역을 설정하는 과정은, 상기 가이드 정보내 손가락 영상의 관심 영역 또는 손가락 영상의 선분을 설정하는 것을 특징으로 하는 장문 영상 처리 방법.The method of claim 2, wherein the setting of the region comprises setting an ROI of the finger image or a line segment of the finger image in the guide information. 제3항에 있어서, 상기 손가락 영상의 선분을 설정하는 과정은, 정해진 손가락의 골점 상하 부분에 선분을 설정하고, 오른 손과 좌측 손에 대해 서로 대칭적으로 선분을 설정하는 것을 특징으로 하는 장문 영상 처리 방법.The long-print image of claim 3, wherein the setting of the line segment of the finger image comprises setting the line segment above and below the goal point of the predetermined finger, and setting the line segment symmetrically with respect to the right hand and the left hand. Processing method. 제2항에 있어서, 상기 신호 패턴을 분석하는 과정은,
상기 가이드 정보의 제1영역의 영상 신호 패턴과 상기 가이드 정보의 제2영역의 영상 신호 패턴을 비교하는 것을 특징으로 하는 장문 영상 처리 방법.
The method of claim 2, wherein the analyzing the signal pattern comprises:
And comparing the image signal pattern of the first region of the guide information and the image signal pattern of the second region of the guide information.
제2항에 있어서, 상기 신호 패턴을 분석하는 과정은,
제1영역의 전체 YCbCr의 평균값과 상기 가이드 정보의 제2영역에 해당하는 픽셀의 YCbCr 값 간의 차이를 산출하는 것을 특징으로 하는 장문 영상 처리 방법.
The method of claim 2, wherein the analyzing the signal pattern comprises:
And calculating a difference between an average value of all YCbCr in the first region and YCbCr values of pixels corresponding to the second region of the guide information.
제2항에 있어서, 상기 가이드 정보에 손이 위치하는 지를 판단하는 단계는 상기 가이드 정보의 제1영역의 영상 신호 패턴과 상기 가이드 정보의 제2영역의 영상 신호 패턴을 비교하여 손에 해당하는 전경인지 또는 손이 아닌 배경인지를 구분하는 것을 특징으로 하는 장문 영상 처리 방법.The foreground of the hand according to claim 2, wherein determining whether the hand is located in the guide information comprises comparing an image signal pattern of a first area of the guide information with an image signal pattern of a second area of the guide information. A method of processing a long text image, characterized in that it distinguishes whether it is a background or not a hand. 제2항에 있어서, 상기 가이드 정보에 손이 위치하는 지를 판단하는 단계는 카메라의 초점이 조절된 후 입력된 영상에 대해서 신호 패턴을 분석하는 것을 특징으로 하는 장문 영상 처리 방법.The method of claim 2, wherein the determining whether the hand is located in the guide information comprises analyzing a signal pattern for the input image after the focus of the camera is adjusted. 제1항에 있어서, 상기 가이드 정보의 정해진 영역의 칼라 정보에 기반하여 입력 영상에 손이 존재하는 지를 확인하는 단계를 더 포함하는 장문 영상 처리 방법. The method of claim 1, further comprising checking whether a hand exists in the input image based on color information of a predetermined area of the guide information. 삭제delete 손 모양의 가이드 정보를 표시하는 단계;
상기 가이드 정보의 미리 정해진 영역에서의 칼라 정보에 기반하여 입력 영상에 손이 존재하는 지를 확인하는 단계;
상기 확인 결과에 따라 상기 가이드 정보의 미리 정해진 영역에서의 영상 신호의 패턴에 기반하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 단계; 및
상기 판단 결과에 따라 입력된 영상을 캡쳐 하는 단계를 포함하며,
상기 손이 존재하는 지를 확인하는 단계는,
상기 가이드 정보에서 관심 영역을 설정하는 과정;
상기 관심 영역내의 평균 픽셀값이 미리 설정된 1차 바운더리에 포함되는 가를 판별하는 과정;
상기 관심 영역내의 모든 픽셀들중 미리 결정된 2차 바운더리에 포함되는 픽셀 비율을 획득하는 과정; 및
상기 픽셀 비율에 기반하여 입력 영상 내에 손이 존재하는 지를 판단하는 과정을 구비하는 것을 특징으로 하는 장문 영상 처리 방법.
Displaying hand-shaped guide information;
Checking whether a hand exists in the input image based on color information in a predetermined area of the guide information;
Determining whether a hand is located in the guide information based on a pattern of an image signal in a predetermined area of the guide information according to the confirmation result; And
And capturing the input image according to the determination result,
Checking whether the hand is present,
Setting a region of interest in the guide information;
Determining whether an average pixel value in the region of interest is included in a preset primary boundary;
Obtaining a pixel ratio included in a predetermined secondary boundary among all pixels in the ROI; And
And determining whether a hand exists in the input image based on the pixel ratio.
손 모양의 가이드 정보를 발생하는 가이드 정보 발생부;
상기 가이드 정보의 미리 정해진 영역에서의 칼라 정보에 기반하여 입력 영상에 손의 포함 여부를 판단하는 칼라 분석부;
상기 가이드 정보의 미리 정해진 영역에서의 영상 신호의 패턴에 기반하여 상기 가이드 정보에 손의 위치 여부를 판단하는 신호 패턴 분석부; 및
상기 칼라 분석부 및 신호 패턴 분석부의 판단 결과에 따라 입력 영상 신호를 캡쳐하는 영상 캡쳐부를 포함하며,
상기 칼라 분석부는,
상기 가이드 정보에서 관심 영역을 설정하고,
상기 관심 영역내의 평균 픽셀값이 미리 설정된 1차 바운더리에 포함되는 가를 판별하고,
상기 관심 영역내의 모든 픽셀들중 미리 결정된 2차 바운더리에 포함되는 픽셀 비율을 획득하고, 상기 픽셀 비율에 기반하여 입력 영상 내에 손이 존재하는 지를 판단하는 것을 특징으로 하는 장문 영상 처리 장치.
A guide information generator for generating hand-shaped guide information;
A color analysis unit determining whether a hand is included in the input image based on color information in a predetermined area of the guide information;
A signal pattern analysis unit determining whether a hand is positioned in the guide information based on a pattern of an image signal in a predetermined area of the guide information; And
An image capture unit for capturing an input image signal according to a determination result of the color analysis unit and the signal pattern analysis unit,
The color analysis unit,
Set a region of interest in the guide information,
It is determined whether the average pixel value in the region of interest is included in the preset primary boundary,
And obtaining a pixel ratio included in a predetermined secondary boundary among all the pixels in the region of interest, and determining whether a hand exists in the input image based on the pixel ratio.
영상을 촬영하는 카메라부;
손 모양의 가이드 정보를 표시하고, 상기 카메라부에서 영상이 입력되면 상기 가이드 정보의 미리 정해진 영역에서의 영상 신호를 분석하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 영상 처리부; 및
상기 가이드 정보 및 상기 카메라부에서 촬영된 영상을 표시하는 표시부를 포함하며,
상기 영상 처리부는,
손 모양의 가이드 정보를 발생하는 가이드 정보 발생부;
카메라에서 촬영된 영상을 입력하는 영상 입력부;
상기 가이드 정보의 미리 정해진 영역에서의 칼라 정보에 기반하여 입력 영상에 대해 손포함 여부를 판단하는 칼라 분석부;
상기 가이드 정보의 미리 정해진 영역에서의 영상 신호의 패턴에 기반하여 상기 가이드 정보에 손의 위치 여부를 판단하는 신호 패턴 분석부; 및
상기 칼라 분석부 및 신호패턴분석부의 판단 결과에 따라 입력 영상 신호를 캡쳐하는 영상 캡쳐부를 구비하며,
상기 칼라 분석부는,
상기 가이드 정보에서 관심 영역을 설정하고,
상기 관심 영역내의 평균 픽셀값이 미리 설정된 1차 바운더리에 포함되는 가를 판별하고,
상기 관심 영역내의 모든 픽셀들중 미리 결정된 2차 바운더리에 포함되는 픽셀 비율을 획득하고, 상기 픽셀 비율에 기반하여 입력 영상 내에 손이 존재하는 지를 판단하는 것을 특징으로 하는 단말기.
A camera unit for photographing an image;
An image processing unit that displays hand-shaped guide information and, when an image is input from the camera unit, analyzes an image signal in a predetermined area of the guide information to determine whether a hand is located in the guide information; And
And a display unit for displaying the guide information and the image captured by the camera unit,
The image processing unit,
A guide information generator for generating hand-shaped guide information;
An image input unit for inputting an image captured by the camera;
A color analysis unit determining whether a hand is included in the input image based on color information in a predetermined area of the guide information;
A signal pattern analysis unit determining whether a hand is positioned in the guide information based on a pattern of an image signal in a predetermined area of the guide information; And
And an image capture unit for capturing an input image signal according to a determination result of the color analysis unit and the signal pattern analysis unit,
The color analysis unit,
Set a region of interest in the guide information,
It is determined whether the average pixel value in the region of interest is included in the preset primary boundary,
And obtaining a pixel ratio included in a predetermined secondary boundary among all pixels in the region of interest, and determining whether a hand exists in the input image based on the pixel ratio.
삭제delete 제 1 항 내지 제9항 및 제 11항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.A computer-readable recording medium in which a program for implementing the method of any one of claims 1 to 9 and 11 is recorded.
KR1020130142335A 2013-11-21 2013-11-21 Method and apparatus for processing palm print image KR102166333B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130142335A KR102166333B1 (en) 2013-11-21 2013-11-21 Method and apparatus for processing palm print image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130142335A KR102166333B1 (en) 2013-11-21 2013-11-21 Method and apparatus for processing palm print image

Publications (2)

Publication Number Publication Date
KR20150059213A KR20150059213A (en) 2015-06-01
KR102166333B1 true KR102166333B1 (en) 2020-10-16

Family

ID=53490340

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130142335A KR102166333B1 (en) 2013-11-21 2013-11-21 Method and apparatus for processing palm print image

Country Status (1)

Country Link
KR (1) KR102166333B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102513468B1 (en) * 2021-12-03 2023-03-24 이상훈 Non contacttype palm print recognition method using mobile device installed camera

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206963A (en) * 2006-02-01 2007-08-16 Canon Inc Image processor, image processing method, program and storage medium
JP2010146158A (en) * 2008-12-17 2010-07-01 Fujitsu Ltd Biometric authentication device, biometric authentication method, and computer program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100326203B1 (en) * 1999-06-11 2002-02-27 김운용 Method and apparatus for face photographing and recognizing by automatic trading a skin color and motion
KR20110007806A (en) * 2009-07-17 2011-01-25 삼성전자주식회사 Apparatus and method for detecting hand motion using a camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206963A (en) * 2006-02-01 2007-08-16 Canon Inc Image processor, image processing method, program and storage medium
JP2010146158A (en) * 2008-12-17 2010-07-01 Fujitsu Ltd Biometric authentication device, biometric authentication method, and computer program

Also Published As

Publication number Publication date
KR20150059213A (en) 2015-06-01

Similar Documents

Publication Publication Date Title
KR102596897B1 (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
KR102587193B1 (en) System and method for performing fingerprint-based user authentication using images captured using a mobile device
EP2164027B1 (en) Object detecting device, imaging apparatus, object detecting method, and program
CN109858375B (en) Living body face detection method, terminal and computer readable storage medium
CN107483834B (en) Image processing method, continuous shooting method and device and related medium product
US9483680B2 (en) Method of recognizing contactless fingerprint and electronic device for performing the same
WO2019127262A1 (en) Cloud end-based human face in vivo detection method, electronic device and program product
CN107798279B (en) Face living body detection method and device
CN106056064A (en) Face recognition method and face recognition device
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP2012198781A (en) Information processing apparatus, information processing method, and program
CN110941992B (en) Smile expression detection method and device, computer equipment and storage medium
CN109410138B (en) Method, device and system for modifying double chin
JP2019048026A (en) Biological information analysis device and hand skin analysis method
JPWO2009004916A1 (en) Spoofing detection system, spoofing detection method, and spoofing detection program
US10395090B2 (en) Symbol detection for desired image reconstruction
KR101656212B1 (en) system for access control using hand gesture cognition, method thereof and computer recordable medium storing the method
CN112784786A (en) Human body posture recognition method and device
CN111144414A (en) Image processing method, related device and system
KR102166333B1 (en) Method and apparatus for processing palm print image
CN110852220B (en) Intelligent facial expression recognition method, terminal and computer readable storage medium
CN111182207B (en) Image shooting method and device, storage medium and electronic equipment
CN112149517A (en) Face attendance checking method and system, computer equipment and storage medium
KR102482841B1 (en) Artificial intelligence mirroring play bag
JP2018026012A (en) Palm detection device, palm print authentication device, palm detection method, and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right