KR20150059213A - Method and apparatus for processing palm print image - Google Patents

Method and apparatus for processing palm print image Download PDF

Info

Publication number
KR20150059213A
KR20150059213A KR1020130142335A KR20130142335A KR20150059213A KR 20150059213 A KR20150059213 A KR 20150059213A KR 1020130142335 A KR1020130142335 A KR 1020130142335A KR 20130142335 A KR20130142335 A KR 20130142335A KR 20150059213 A KR20150059213 A KR 20150059213A
Authority
KR
South Korea
Prior art keywords
guide information
hand
image
determining whether
signal pattern
Prior art date
Application number
KR1020130142335A
Other languages
Korean (ko)
Other versions
KR102166333B1 (en
Inventor
손병준
김재희
유진우
김진수
이근
Original Assignee
삼성전자주식회사
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 연세대학교 산학협력단 filed Critical 삼성전자주식회사
Priority to KR1020130142335A priority Critical patent/KR102166333B1/en
Publication of KR20150059213A publication Critical patent/KR20150059213A/en
Application granted granted Critical
Publication of KR102166333B1 publication Critical patent/KR102166333B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a method and an apparatus for processing a palm print image comprising: a step of displaying hand shape guide information; a step of determining whether or not a hand is located on the guide information based on a signal pattern in a predetermined area of the guide information when an image is inputted; and a step of capturing the inputted image according to the determination result.

Description

장문 영상 처리 방법 및 이를 위한 단말기{Method and apparatus for processing palm print image}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method,

본 발명은 장문 영상 처리 방법 및 이를 위한 단말기에 관한 것으로 보다 상세하게는, 가이드 정보를 이용하여 장문 영상을 취득하고 처리하는 장문 영상 처리 방법 및 이를 위한 단말기에 관한 것이다.The present invention relates to a long image processing method and a terminal for the same, and more particularly, to a long image processing method for acquiring and processing a long image using guide information and a terminal for the same.

통상적으로 장문 인식 시스템은 높은 인식률을 얻기 위하여 고해상도의 장문 이미지를 필요로 한다. 따라서 종래의 장문 인식 시스템은 일관된 고해상도의 장문 영상을 획득하기 위하여 고정된 막대 형태의 기둥 사이에 손가락을 끼우고 스캔하는 방식을 사용하거나 지문을 획득하는 것처럼 잉크를 손바닥에 발라 찍어내는 방식을 사용하였다.Generally, a long-range recognition system requires a high-resolution long-range image in order to obtain a high recognition rate. Therefore, in the conventional long-range recognition system, in order to obtain a consistent high-resolution long-range image, a method of inserting a finger between the fixed rod-shaped columns and scanning the finger or using a method of printing ink on the palm of the hand .

그러나 종래의 장문 인식 시스템은 장문을 스캔 하거나 잉크로 찍어내는 방식을 사용할 경우 모바일 기기와 같은 휴대 단말에서 실시간으로 장문 영상을 취득하기는 어렵다. 또한 모바일 기기에 내장된 카메라를 이용한 장문 영상은, 촬영되는 손바닥이 별도의 고정장치 없이 휴대폰과 거리를 두고 비 접촉식으로 취득된다. 따라서, 종래의 장문 인식 시스템은 사용자의 손 자세나 영상을 찍을 때의 카메라와 손 간의 거리 및 각도에 따라 동일한 손으로부터도 다른 영상이 획득될 수 있어, 손바닥의 장문 인식을 위한 특징 추출 시 일관된 특징을 얻을 수 없고, 이는 모바일 장문 인식의 성능 하락으로 이어지게 된다. However, in the conventional long-range recognition system, it is difficult to acquire a long-range image in real time from a portable terminal such as a mobile device by using a method of scanning a long-range or inking. In addition, a long-range image using a camera built in a mobile device is obtained in a non-contact manner with a distance from the mobile phone without a separate fixing device. Therefore, the conventional long-range recognition system can acquire different images from the same hand according to the distance and angle between the camera and the hand when the user takes the hand posture or the image, And this leads to a decrease in the performance of the mobile long-distance recognition.

본 발명은 손바닥 모양의 가이드 화면을 이용하여 장문 영상을 취득하고 처리하는 장문 영상 처리 방법 및 이를 위한 단말기를 제공하는 것을 목적으로 한다.An object of the present invention is to provide a long-range image processing method for acquiring and processing a long-range image using a palm-shaped guide screen and a terminal for the same.

상기 과제들을 달성하기 위한 본 발명의 실시 예에 따른 장문 영상 처리 방법은, 손 모양의 가이드 정보를 표시하는 단계; 영상이 입력되면 상기 가이드 정보의 미리 정해진 영역에서의 신호 패턴에 기반하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 단계; 및 상기 판단 결과에 따라 입력된 영상을 캡쳐 하는 단계를 포함한다.According to another aspect of the present invention, there is provided a long-distance image processing method including displaying hand-shaped guide information, Determining whether a hand is positioned on the guide information based on a signal pattern in a predetermined area of the guide information when an image is input; And capturing an input image according to the determination result.

상기 가이드 정보에 손이 위치하는 지를 판단하는 단계는, 상기 가이드 정보에서 영상 신호를 추출할 영역을 설정하는 과정; 상기 설정된 영역에서 신호 패턴을 분석하는 과정; 및 상기 분석된 신호 패턴에 기반하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 과정을 구비하는 것을 특징으로 한다.The step of determining whether a hand is positioned on the guide information includes the steps of: setting an area from which the video signal is extracted from the guide information; Analyzing a signal pattern in the set region; And determining whether the hand is positioned on the guide information based on the analyzed signal pattern.

상기 영역을 설정하는 과정은, 상기 가이드 정보 내 손가락 영상의 관심 영역 또는 손가락 영상의 선분을 설정하는 것을 특징으로 한다.The setting of the area may be performed by setting a line segment of a finger image or a region of interest of the finger image in the guide information.

상기 손가락 영상의 선분을 설정하는 과정은, 정해진 손가락의 골점 상하 부분에 선분을 설정하고, 오른 손과 좌측 손에 대해 서로 대칭적으로 선분을 설정하는 것을 특징으로 한다.The step of setting a line segment of the finger image is characterized in that a line segment is set in upper and lower parts of a point of a predetermined finger and a line segment is set symmetrically with respect to the right and left hands.

상기 신호 패턴을 분석하는 과정은, 상기 가이드 정보의 제1영역의 영상 신호 패턴과 상기 가이드 정보의 제2영역의 영상 신호 패턴을 비교하는 것을 특징으로 한다.Wherein the step of analyzing the signal pattern compares the video signal pattern of the first area of the guide information with the video signal pattern of the second area of the guide information.

상기 신호 패턴을 분석하는 과정은, 제1영역의 전체 YCbCr의 평균값과 상기 가이드 정보의 제2영역에 해당하는 픽셀의 YCbCr 값 간의 차이를 산출하는 것을 특징으로 한다.Wherein the step of analyzing the signal pattern calculates a difference between an average value of all YCbCr of the first area and a YCbCr value of a pixel corresponding to the second area of the guide information.

상기 가이드 정보에 손이 위치하는 지를 판단하는 단계는 상기 가이드 정보의 제1영역의 영상 신호 패턴과 상기 가이드 정보의 제2영역의 영상 신호 패턴을 비교하여 손에 해당하는 전경인지 또는 손이 아닌 배경인지를 구분하는 것을 특징으로 한다.Wherein the step of determining whether the hand is positioned on the guide information comprises comparing the video signal pattern of the first area of the guide information with the video signal pattern of the second area of the guide information, And the like.

상기 가이드 정보에 손이 위치하는 지를 판단하는 단계는 카메라의 초점이 조절된 후 입력된 영상에 대해서 신호 패턴을 분석하는 것을 특징으로 한다.Wherein the step of determining whether the hand is positioned on the guide information includes analyzing a signal pattern of the input image after the focus of the camera is adjusted.

상기 가이드 정보의 정해진 영역의 칼라 정보에 기반하여 입력 영상에 손이 존재하는 지를 확인하는 단계를 더 포함한다. And checking whether the hand exists in the input image based on the color information of the predetermined area of the guide information.

상기 입력 영상에 손이 존재하는 지를 확인하는 단계는, 상기 가이드 정보에서 관심 영역을 설정하는 과정; 상기 관심 영역내의 평균 픽셀값이 미리 설정된 1차 바운더리에 포함되는 가를 판별하는 과정; 상기 설정된 관심 영역내의 모든 픽셀들중 미리 결정된 2차 바운더리에 포함되는 픽셀을 비율을 획득하는 과정; 및 상기 픽셀 비율에 기반하여 입력 영상 내에 손이 존재하는 지를 판단하는 과정을 구비하는 것을 특징으로 한다.Wherein the step of verifying whether a hand is present in the input image comprises: Setting a region of interest in the guide information; Determining whether an average pixel value in the ROI is included in a preset primary boundary; Obtaining a ratio of pixels included in a predetermined second boundary among all the pixels within the set region of interest; And determining whether a hand exists in the input image based on the pixel ratio.

상기 과제들을 달성하기 위한 본 발명의 다른 실시 예에 따른 장문 영상 처리 방법은, 손 모양의 가이드 정보를 표시하는 단계; 상기 가이드 정보의 미리 정해진 영역에서의 칼라 정보에 기반하여 입력 영상에 손이 존재하는 지를 확인하는 단계; 상기 확인 결과에 따라 상기 가이드 정보의 미리 정해진 영역에서의 영상 신호의 패턴에 기반하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 단계; 및 상기 판단 결과에 따라 입력된 영상을 캡쳐 하는 단계를 포함한다.   According to another aspect of the present invention, there is provided a long-range image processing method including displaying hand-shaped guide information, Confirming whether a hand exists in the input image based on color information in a predetermined area of the guide information; Determining whether a hand is positioned on the guide information based on a pattern of a video signal in a predetermined area of the guide information according to the check result; And capturing an input image according to the determination result.

상기 과제들을 달성하기 위한 본 발명의 일 실시 예에 따른 장문 영상 처리 장치는, 손 모양의 가이드 정보를 발생하는 가이드 정보 발생부; 상기 가이드 정보의 미리 정해진 영역에서의 칼라 정보에 기반하여 입력 영상에 손의 포함 여부를 판단하는 칼라 분석부; 상기 가이드 정보의 미리 정해진 영역에서의 영상 신호의 패턴에 기반하여 상기 가이드 정보에 손의 위치 여부를 판단하는 신호 패턴 분석부; 및 상기 칼라 분석부 및 신호 패턴 분석부의 판단 결과에 따라 입력 영상 신호를 캡쳐하는 영상 캡쳐부를 포함한다.According to an aspect of the present invention, there is provided a long-range image processing apparatus including a guide information generator for generating hand-shaped guide information; A color analyzer for determining whether a hand is included in an input image based on color information in a predetermined area of the guide information; A signal pattern analyzer for determining whether or not a hand is positioned on the guide information based on a pattern of a video signal in a predetermined area of the guide information; And a video capturing unit capturing an input video signal according to a determination result of the color analyzer and the signal pattern analyzer.

상기 과제들을 달성하기 위한 본 발명의 일 실시 예에 따른 단말기는, 영상을 촬영하는 카메라부; 손 모양의 가이드 정보를 표시하고, 상기 카메라부에서 영상이 입력되면 상기 가이드 정보의 미리 정해진 영역에서의 영상 신호를 분석하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 영상 처리부; 및 상기 가이드 정보 및 상기 카메라부에서 촬영된 영상을 표시하는 표시부를 포함한다.According to an aspect of the present invention, there is provided a terminal comprising: a camera unit for capturing an image; An image processor for displaying hand guide information and analyzing a video signal in a predetermined area of the guide information when an image is input from the camera unit to determine whether a hand is positioned on the guide information; And a display unit for displaying the guide information and the image photographed by the camera unit.

상기 영상 처리부는, 손 모양의 가이드 정보를 발생하는 가이드 정보 발생부; 카메라에서 촬영된 영상을 입력하는 영상 입력부; 상기 가이드 정보의 미리 정해진 영역에서의 칼라 정보에 기반하여 입력 영상에 대해 손포함 여부를 판단하는 칼라 분석부; 상기 가이드 정보의 미리 정해진 영역에서의 영상 신호의 패턴에 기반하여 상기 가이드 정보에 손의 위치 여부를 판단하는 신호 패턴 분석부; 및 상기 칼라 분석부 및 신호패턴분석부의 판단 결과에 따라 입력 영상 신호를 캡쳐하는 영상 캡쳐부를 구비한다.Wherein the image processing unit comprises: a guide information generating unit for generating hand guide information; An image input unit for inputting an image photographed by a camera; A color analyzer for determining whether the input image is included in a hand based on color information in a predetermined area of the guide information; A signal pattern analyzer for determining whether or not a hand is positioned on the guide information based on a pattern of a video signal in a predetermined area of the guide information; And an image capturing unit capturing an input image signal according to a determination result of the color analyzer and the signal pattern analyzer.

도 1은 본 발명의 일 실시예에 따른 단말기의 블록도이다.
도 2는 도 1의 영상 처리부의 상세 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 장문 영상 처리 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 다른 실시 예에 따른 장문 영상 처리 방법을 설명하기 위한 흐름도이다.
도 5a 및 도 5b는 본 발명의 일 실시 예에 따른 왼손 및 오른손 가이드 정보를 도시한 것이다.
도 6은 본 발명의 일 실시 예에 따른 가이드 정보의 설정 영역에서의 칼라 신호 분석을 설명하는 흐름도이다.
도 7은 본 발명의 일 실시 예에 따른 신호 패턴 분석을 설명하는 흐름도이다.
도 8은 본 발명의 일 실시 예에 따른 칼라 신호 분석을 위한 관심 영역의 설정 예를 도시한 것이다.
도 9는 본 발명의 일 실시 예에 따라 장문 영상의 적합성 검증을 위한 오른손 선분들의 설정 예를 도시한 것이다.
도 10은 본 발명의 일 실시 예에 따라 가이드 영상내 손의 존재 여부를 판단하는 데 사용되는 YCbCr 칼라 공간에서의 피부색 분포를 설정하는 예를 도시한 것이다.
도 11은 본 발명의 일 실시 예에 따라 장문 영상 확인을 위한 골점 상단에 위치한 선분의 신호 패턴의 예를 도시한 것이다.
도 12는 본 발명의 일 실시 예에 따라 장문 영상 확인을 위한 골점 하단에 위치한 선분의 신호 패턴의 예를 도시한 것이다.
1 is a block diagram of a terminal according to an embodiment of the present invention.
2 is a detailed block diagram of the image processing unit of FIG.
3 is a flowchart for explaining a long-range image processing method according to an embodiment of the present invention.
4 is a flowchart illustrating a method of processing a long image according to another embodiment of the present invention.
5A and 5B show left and right hand guide information according to an embodiment of the present invention.
6 is a flowchart illustrating color signal analysis in a setting area of guide information according to an embodiment of the present invention.
7 is a flowchart illustrating signal pattern analysis according to an embodiment of the present invention.
FIG. 8 shows an example of setting a region of interest for color signal analysis according to an embodiment of the present invention.
FIG. 9 shows an example of setting right-hand lines for verifying suitability of a long-length image according to an embodiment of the present invention.
FIG. 10 illustrates an example of setting a skin color distribution in a YCbCr color space used for determining whether a hand exists in a guide image according to an embodiment of the present invention.
11 is a diagram illustrating an example of a signal pattern of a line segment located at the uppermost point of a mark for verifying a long image according to an embodiment of the present invention.
12 shows an example of a signal pattern of a line segment located at the lower end of a point of the longbow for confirming a long image according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 본 출원에서 사용한 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나 이는 당 분야에 종사하는 기술자의 의도, 판례, 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the invention. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

도 1은 본 발명의 일 실시예에 따른 단말기의 블록도이다. 1 is a block diagram of a terminal according to an embodiment of the present invention.

도 1의 단말기는 카메라부(110), 영상 처리부(120), 제어부(130), 표시부(140), 메모리(150), 통신 인터페이스부(160), 키입력부(170), 오디오 처리부(180)를 포함한다.1 includes a camera unit 110, an image processing unit 120, a control unit 130, a display unit 140, a memory 150, a communication interface unit 160, a key input unit 170, an audio processing unit 180, .

카메라부(110)는 이미지를 촬영하며, 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 영상 프레임을 얻을 수 있다. 이때 이미지 센서를 통해 캡쳐된 영상은 영상 처리부(120)를 통해 원하는 신호로 처리될 수 있다. The camera unit 110 captures an image, and can obtain an image frame such as a still image or a moving image through the image sensor in a video communication mode or a photographing mode. At this time, the image captured through the image sensor can be processed as a desired signal through the image processing unit 120. [

카메라부(120)에서 처리된 영상 프레임은 메모리(150)에 저장되거나 통신 인터페이스부(160)를 통하여 외부로 전송될 수 있다. The image frame processed by the camera unit 120 may be stored in the memory 150 or may be transmitted to the outside through the communication interface unit 160.

영상 처리부(120)는 장문 인식 기능이 시작되면 표시부(140)에 손 바닥 모양의 가이드 정보를 표시하고, 카메라부(120)에서 촬영 영상이 입력되면 가이드 정보의 미리 정해진 영역에서의 영상 신호를 분석하여 입력된 영상이 장문 인식에 적합한지 검증한다.When the long text recognition function is started, the image processing unit 120 displays guide information in the form of a hand floor on the display unit 140. When the captured image is input in the camera unit 120, the image processing unit 120 analyzes And verifies that the input image is suitable for long-range recognition.

제어부(130)는 각 블록을 제어하며, 특히 카메라부(110)의 렌즈의 포커스를 제어하거나 영상 처리부(120)에 포커스 조정에 따른 새로운 프레임의 영상 신호를 입력하도록 한다.The control unit 130 controls each block, and in particular, controls the focus of the lens of the camera unit 110 or inputs a video signal of a new frame according to focus adjustment to the image processing unit 120. [

표시부(140)는 영상 처리부(120)에서 처리되는 프레임 영상이나 각종 정보를 화면으로 표시하고, 제어부(130)에서 출력되는 사용자 데이터를 표시한다. 특히, 표시부(140)는 가이드 정보 및 카메라부(110)에서 촬영된 영상을 표시한다.The display unit 140 displays a frame image or various information processed by the image processing unit 120 on a screen and displays user data output from the control unit 130. [ In particular, the display unit 140 displays the guide information and the image photographed by the camera unit 110.

메모리(150)는 제어부(130)에 의해 실행되는 명령들을 저장하거나 각종 정보 데이터를 임시로 저장한다. 메모리(150)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 150 stores instructions executed by the control unit 130 or temporarily stores various information data. The memory 150 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., SD or XD memory), a RAM (Random Access Memory) SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) , An optical disc, and the like.

통신 인터페이스부(160)는 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The communication interface unit 160 transmits and receives a radio signal to at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data depending on a voice call signal, a video call signal, or a text / multimedia message transmission / reception.

키 입력부(170)는 터치 스크린이나 입력 키등을 통해 사용자로부터 제어 명령을 입력 받는다.The key input unit 170 receives a control command from a user through a touch screen or an input key.

오디오 처리부(180)는 제어부(130)에서 발생되는 오디오 신호를 스피커를 통해 재생하거나 마이크로부터 발생되는 오디오 신호를 제어부(130)로 입력한다.The audio processor 180 reproduces the audio signal generated by the controller 130 through a speaker or inputs an audio signal generated from the microphone to the controller 130.

도 2는 도 1의 영상 처리부(120)의 상세 블록도이다.2 is a detailed block diagram of the image processing unit 120 of FIG.

도 2의 영상 처리부(120)는 가이드정보발생부(210), 영상 입력부(220), 칼라 분석부(220), 신호 패턴 분석부(240), 영상 캡쳐부(250))를 구비한다.2 includes a guide information generating unit 210, an image input unit 220, a color analyzing unit 220, a signal pattern analyzing unit 240, and an image capturing unit 250.

가이드정보발생부(210)는 화면에 장문 영상 취득을 위한 손 바닥 모양의 가이드 정보를 발생한다The guide information generating unit 210 generates guide information in the form of a hand bottom for acquiring a long image on the screen

영상 입력부(220)는 카메라부(110)에서 촬영된 영상을 입력한다.The image input unit 220 inputs images photographed by the camera unit 110.

칼라 분석부(230)는 가이드 정보의 미리 정해진 영역에서의 칼라 정보에 기반하여 입력 영상에 대해 손 포함 여부를 분석한다.The color analyzer 230 analyzes whether the hand is included in the input image based on the color information in the predetermined area of the guide information.

신호 패턴 분석부(240)는 가이드 정보의 미리 정해진 영역에서의 영상 신호의 패턴에 기반하여 가이드 정보에 손의 위치 여부를 분석한다.The signal pattern analyzing unit 240 analyzes whether or not the hand is positioned on the guide information based on the pattern of the video signal in the predetermined area of the guide information.

영상 캡쳐부(250)는 칼라 분석부(230) 및 신호 패턴 분석부(240)의 분석 결과에 따라 입력 영상 신호를 캡쳐한다.        The image capturing unit 250 captures an input image signal according to an analysis result of the color analyzing unit 230 and the signal pattern analyzing unit 240.

도 3은 본 발명의 일 실시 예에 따른 장문 영상 처리 방법을 설명하기 위한 흐름도이다. 3 is a flowchart for explaining a long-range image processing method according to an embodiment of the present invention.

이 방법은 단계 310에서 시작한다.The method begins at step 310.

단계 320에서, 장문 인식 기능이 시작되면 단말기는 화면에 장문 영상 취득을 위한 손 바닥 모양의 가이드 정보를 표시한다.In step 320, when the long-range recognition function is started, the terminal displays guide information in the form of a hand bottom for acquiring a long-distance image on the screen.

일실시예로, 단말기는 사용자가 손 바닥 장문 영상을 비교적 동일한 손 자세와 카메라까지의 거리를 유지하면서 편리하게 입력할 수 있도록 화면에 손 바닥 모양의 가이드 화면을 제공한다. 단말기는 카메라의 초점이 맞는 범위 내에서 인식에 사용되는 장문 영역이 최대한 크게 얻어지도록 손 바닥 모양으로 가이드 정보를 표시한다. 이 때, 손 바닥 모양의 가이드 정보는 사용자의 편의를 고려하여 왼손의 경우에는 도 5a과 같이 시계 방향으로, 오른손의 경우에는 도 5b와 같이 반 시계 방향으로 약간 기울여 표시된다. 장문 영역은 검지와 중지 사이의 골점과 약지와 소지 사이의 골점을 기준으로 이와 평행한 아래 부분에서 추출된다. 따라서 단말기는 두 골점 위치에 손이 맞춰지도록 유도하기 위하여 검지와 중지 사이의 골점(502a, 502b), 중지와 약지 사이의 골점(503a, 503b), 약지와 소지 사이의 골점(504a, 504b) 부분을 실선으로 강조하여 그린다. 또한 단말기는 상기 언급한 3개의 골점을 기준으로 자연스럽게 사용자의 손이 유도되도록 엄지와 검지 사이의 손바닥 경계(501a, 501b)와 아래쪽 손바닥 경계(505a, 505b)를 점선으로 그린다. 손 모양의 가이드를 표현하는데 있어서 상기 두 골점을 포함하여 비스듬히 기울어진 형태의 가이드 정보는 일정한 장문 취득을 가능하게 함으로써 높은 수준의 장문인식 성능을 보장할 뿐만 아니라 사용자의 편의성을 높이는데 중요한 요소로 작용한다.In one embodiment, the terminal provides a hand floor-shaped guide screen on the screen so that the user can conveniently input the hand-held long-distance image while maintaining a relatively same hand posture and a distance to the camera. The terminal displays the guide information in the shape of the hand so that the long-range area used for recognition can be maximized within the range where the camera is in focus. At this time, the guide information of the bottom of the hand is displayed in a clockwise direction in the case of the left hand in the counterclockwise direction as shown in FIG. The long field area is extracted from the lower part parallel to the point between the index finger and the stop point and the point between the finger and the finger. Therefore, in order to guide the hands to be aligned at the positions of the two score points, the terminal points 502a and 502b between the index finger and the stop, the score points 503a and 503b between the stop and the finger, the score points 504a and 504b With a solid line. In addition, the terminal draws the palm boundary 501a, 501b and the lower palm boundary 505a, 505b between the thumb and index finger in a dotted line so that the user's hand is naturally guided based on the three points mentioned above. In the case of representing a hand shaped guide, the inclined oblique guide information including the above two point marks is an important factor for not only ensuring a high level of long-range recognition performance but also enhancing the convenience of the user by making it possible to acquire a certain long- do.

단계 330에서, 단말기는 카메라에서 촬영된 영상을 입력한다.In step 330, the terminal inputs an image photographed by the camera.

단계 340에서, 영상이 입력되면, 단말기는 가이드 정보의 미리 설정된 영역 예를 들면 손가락 영상에서 미리 설정된 영역 또는 선분의 신호 패턴을 분석하여 가이드 정보에 손이 위치하는 지를 판단한다. 단말기는 가이드 정보에 손이 위치하는 것으로 판단하면 다음 단계 350으로 패스(PASS)하고, 그렇지 않으면(NON-PASS) 단계 330을 수행한다. In operation 340, when the image is input, the terminal analyzes the signal pattern of the predetermined area or line segment in the predetermined area of the guide information, for example, the finger image to determine whether the hand is located in the guide information. If it is determined that the hand is positioned on the guide information, the terminal PASSes to the next step 350, otherwise performs step 330 (NON-PASS).

단계 350에서, 단말기는 가이드 정보에 손이 위치하는 것으로 판단하면 입력 영상을 인식에 적합한 영상으로 판단하여 캡쳐한다.If it is determined in step 350 that the hand is positioned on the guide information, the terminal determines that the input image is an image suitable for recognition and captures the input image.

이 방법은 단계 360에서 종료한다.The method ends at step 360.

결국, 단말기는 인증에 적합한 것으로 확인된 캡쳐 영상을 장문 인식에 이용한다.As a result, the terminal uses the captured image which is confirmed to be suitable for authentication to recognize the long text.

도 4는 본 발명의 다른 실시 예에 따른 장문 영상 처리 방법을 설명하기 위한 흐름도이다. 4 is a flowchart illustrating a method of processing a long image according to another embodiment of the present invention.

이 방법은 단계 405에서 시작한다.The method starts at step 405.

단계 410에서, 단말기는 장문 인식 기능이 시작되면 단말기는 화면에 장문 영상 취득을 위한 손 바닥 모양의 가이드 정보를 표시한다.In step 410, when the terminal starts the long text recognition function, the terminal displays guide information in the form of a hand bottom for capturing a long text image on the screen.

단계 415에서, 단말기는 카메라에서 촬영된 영상을 입력한다.In step 415, the terminal inputs the image photographed by the camera.

단계 420에서, 단말기는 카메라로부터 포커스 조정 중인가를 체크한다. 포커스 조정 중인 것으로 체크되면, 단말기는 새로운 프레임의 영상을 연속적으로 입력한다. In step 420, the terminal checks whether the focus is being adjusted from the camera. If it is checked that the focus adjustment is being performed, the terminal continuously inputs an image of a new frame.

단계 425에서, 포커스 조정 중이 아닌 것으로 체크 되면, 단말기는 가이드 정보의 특정 영역, 예를 들면 가이드 정보의 손가락 영상에서 미리 설정된 영역의 칼라 정보를 분석하여 입력 영상에 손이 포함되어 있는지를 확인한다. 단말기는 입력 영상에 손이 포함되어 있는지를 확인하면 다음 단계 430으로 패스(PASS)하고, 그렇지 않으면(NON-PASS) 단계 415를 수행한다.If it is determined in step 425 that the focus adjustment is not being performed, the terminal analyzes the color information of a predetermined area of the guide information, for example, the finger image of the guide information, and confirms whether or not the hand is included in the input image. If it is determined that the hand is included in the input image, the terminal PASSes to the next step 430, otherwise, it performs step 415 (NON-PASS).

입력 영상에 손의 포함 여부는 상기 언급한 컬러정보를 분석하는 방법에 국한되지는 않으며, AAM(Active appearance model), ASM(Active shape model)과 같이 손을 모델링하여 손의 모양 또는 텍스쳐 정보를 사용하는 방법들이나 체온 감지 센서와 같이 인체의 온도를 감지하는 별도의 센서를 사용할 수도 있다.Whether or not the hand is included in the input image is not limited to the method of analyzing the above-mentioned color information. The model of the hand such as the active appearance model (AAM) and the active shape model (ASM) Or a separate sensor that senses the temperature of the body, such as a body temperature sensor, may be used.

단계 430에서, 입력 영상에 손이 존재하는 것으로 확인되지 않으면 단말기는 새로운 영상을 입력 받아 415 단계부터 다시 영상을 처리한다. 그러나 입력 영상에 손이 존재하는 것으로 확인되면, 단말기는 가이드 정보의 미리 설정된 영역 예를 들면 손가락 영상에서 미리 설정된 영역 또는 선분의 신호 패턴을 분석하여 가이드 정보에 손이 위치하는 지를 판단한다. 단말기는 가이드 정보에 손이 위치하는 것으로 판단하면 다음 단계 435로 패스(PASS)하고, 그렇지 않으면(NON-PASS) 장문 인식에 적합한 손 영상이 아닌 것으로 판단하고 415 단계에서 다시 새로운 프레임의 영상을 입력 받는다.In step 430, if it is not confirmed that a hand exists in the input image, the terminal receives the new image and processes the image again in step 415. However, if it is determined that a hand is present in the input image, the terminal analyzes the signal pattern of the predetermined area or line segment in the predetermined area of the guide information, e.g., the finger image, to determine whether the hand is located in the guide information. If it is determined that the hand is positioned on the guide information, the terminal PASSes to the next step 435. Otherwise, the terminal determines that it is not a hand image suitable for recognizing the long pass (NON-PASS). In step 415, Receive.

단계 435에서, 단말기는 가이드 정보에 손이 위치하는 것으로 확인하면 인식에 적합한 손 영상으로 판단하고 포커스 조정이 완료되었나를 체크한다. If it is determined in step 435 that the hand is located in the guide information, the terminal determines that the hand image is suitable for recognition and checks whether the focus adjustment is completed.

단계 440에서, 포커스 조정이 미 완료된 상태로 체크되면 단말기는 포커스 조정을 시작하고 단계 415에서 프레임의 영상을 입력한다.If it is checked in step 440 that the focus adjustment is not completed, the terminal starts focus adjustment and inputs an image of the frame in step 415.

단계 445에서, 포커스 조정이 완료된 상태로 체크되면 단말기는 입력 영상을 인식에 적합한 영상으로 판단하여 캡쳐 한다.If it is checked in step 445 that the focus adjustment is completed, the terminal determines that the input image is suitable for recognition and captures it.

이 방법은 단계 450에서 종료한다.The method ends at step 450.

도 6은 도 4의 가이드 정보의 설정 영역에서 칼라 신호 분석을 설명하는 흐름도이다.6 is a flowchart for explaining the color signal analysis in the setting area of the guide information of FIG.

이 방법은 단계 610에서 시작한다. The method begins at step 610.

단계 620에서, 단말기는 칼라 신호 분석을 위해 가이드 정보에서 중심 관심 영역을 설정한다.In step 620, the terminal sets the center of interest area in the guide information for color signal analysis.

일 실시 예로, 컬러 분석을 위한 중심 관심 영역(ROI: Region Of Interest) 은 도 8에 도시된 바와 같이 검지와 중지 사이의 골점(801)과 약지와 소지 사이의 골점(802)을 잇는 선분(803)의 길이를 L 이라고 할 때, 이로부터 적절히 떨어져 있는 영역(804)으로 정의한다. 일 예로, 중심 관심 영역은 0.3L 만큼 수직으로 떨어져 있는 가로 길이 L, 세로 길이 0.3L 인 직사각형의 영역(804)이다.As shown in FIG. 8, the center of interest (ROI) for color analysis is divided into a line segment 801 connecting between a point of intersection 801 between the detection and the stop and a point of intersection 802 between the fingerprint and the ground, ) Is defined as a region 804 which is appropriately separated from this. In one example, the central region of interest is a rectangular region 804 with a horizontal length L and a vertical length of 0.3L that is vertically separated by 0.3L.

단계 630에서, 단말기는 중심 관심 영역내의 평균 픽셀 값이 미리 설정된 1차 바운더리(boundary)에 포함되는 가를 판별한다. 일 실시 예로, 단말기는 직사각형 영역 내의 평균 Cb, Cr값을 측정하여, 이 값이 피부색이 가질 수 있는 Cb, Cr의 범위에 대응하는 1차 바운더리(boundary)에 포함되는가를 판별한다. 이 때에 사용되는 칼라 정보에 해당하는 Cb, Cr의 범위는 다양한 인종, 연령대의 학습 데이터를 통하여 대부분의 손 영상을 수용할 수 있도록 크게 설정 된다. In step 630, the terminal determines whether the average pixel value in the central region of interest is included in the preset primary boundary. In one embodiment, the terminal measures the average Cb and Cr values in a rectangular area and determines whether the values are contained in a first boundary corresponding to the range of Cb and Cr that the skin color may have. The range of Cb and Cr corresponding to the color information used at this time is set to be large enough to accommodate most hand images through learning data of various races and ages.

단계 640에서, 단말기는 중심 관심 영역내의 모든 픽셀들중 미리 결정된 2차 바운더리에 포함되는 픽셀 비율을 판별한다. 일 실시 예로, 단말기는 학습 데이터를 통하여 한 장의 손 영상이 가질 수 있는 최대 Cb, Cr의 범위에 대응하는 2차 바운더리를 설정하고, 중심 관심 영역내의 모든 픽셀들 중 2차 바운더리내에 포함되는 픽셀의 비율을 측정하여 영상 내 손 존재 여부를 판단한다. 도 10를 참조하면, x좌표는 Cr 범위이고, y축은 Cb 범위이고, 101은 1차 바운더리 이고, 102는 2차 바운더리 이고, 103은 중심 관심 영역의 각 픽셀의 분포를 나타낸다.In step 640, the terminal determines the ratio of pixels included in the predetermined secondary boundary among all the pixels within the central region of interest. In one embodiment, the terminal sets a secondary boundary corresponding to a range of maximum Cb and Cr that a hand image can have through learning data, and sets a secondary boundary corresponding to a range of pixels included in the secondary boundary among all pixels in the central region of interest The ratio is measured to determine the presence of a hand in the image. 10, the x-coordinate is in the Cr range, the y-axis is in the Cb range, 101 is the first-order boundary, 102 is the second-order boundary, and 103 is the distribution of each pixel in the central region of interest.

단계 650에서, 단말기는 판별된 픽셀 비율에 기반하여 입력 영상 내에 손이 존재하는 지를 판단한다.In step 650, the terminal determines whether a hand exists in the input image based on the determined pixel ratio.

이 방법은 단계 660에서 종료한다.The method ends at step 660.

도 7은 도 3 및 도 4의 신호 패턴 분석을 설명하는 흐름도이다. FIG. 7 is a flowchart illustrating the signal pattern analysis of FIGS. 3 and 4. FIG.

이 방법은 단계 710에서 시작한다.The method begins at step 710.

단계 720에서, 단말기는 가이드 정보에서 영상 신호를 추출할 손가락의 영역 또는 손가락의 선분을 설정한다. 일 실시 예로, 손가락의 영역 또는 선분은 실제 촬영되는 손의 각 골점들이 상기 언급한 가이드의 각 골점 부근에 적절하게 들어왔는지를 확인할 수 있도록 설정된다. 즉, 영상의 신호를 추출할 선분들의 위치는 도 5a 및 5b에 도시된 바와 같이 가이드의 검지와 중지 사이의 골점(502a, 502b), 약지와 소지 사이의 골점(504a, 504b) 부분의 위, 아래에 설정된다. 도 9에 도시된 바와 같이 선분들의 위치는 검지와 중지 사이의 골점(901)과 약지와 소지 사이의 골점(902)을 잇는 선분(903)의 길이를 L 이라고 할 때, 이에 대한 적절한 비율, 예로써 0.44L 길이의 선분 위치를 검지와 중지 사이의 골점(901)을 중심으로 위(904)와 아래(905)에 설정되고, 약지와 소지 사이의 골점(902)을 중심으로도 위(906)와 아래(907)에 설정된다. 왼손의 경우, 신호 추출을 위한 선분들의 위치는 도 9로부터 설정한 선분들의 위치를 대칭적으로 도 5a에 도시된 바와 같은 모양으로 설정된다.In step 720, the terminal sets an area of a finger or a segment of a finger to extract a video signal from the guide information. In one embodiment, the area or line segment of the finger is set so that each point of the hand actually photographed can appropriately come in the vicinity of each point of the above-mentioned guide. That is, the positions of the line segments for extracting the image signal are determined by the points 502a and 502b between the detection and the stop of the guide and the positions of the points 504a and 504b between the ring finger and the finger as shown in FIGS. 5A and 5B , Below. 9, when the length of the line segment 903 connecting the point of intersection 901 between the detection and the stop and the point of intersection 902 between the fingerprint and the substrate is L, For example, the position of a line segment with a length of 0.44L is set at 904 and 905 around a point 901 between a detection and a stop, and a point 906 And 907, respectively. In the case of the left hand, the positions of the line segments for signal extraction are set symmetrically to the positions shown in FIG. 5A.

도 9를 참조하면, 손 영상이 가이드 모양에 맞게 획득되었다면, 상기 설정한 골점 위의 선분(904, 906)에서는 1차원 영상신호가 손 -> 배경-> 손의 패턴을 보일 것이고, 골점 아래의 선분(905, 907)에서는 전부 손의 패턴을 보일 것이다. Referring to FIG. 9, if a hand image is acquired according to a guide shape, a one-dimensional image signal will show a hand-> background-> hand pattern at the set line segments 904 and 906 above the set point, All of the line segments 905 and 907 will show the pattern of the hand.

단계 730에서, 단말기는 손가락의 미리 설정된 선분 또는 영역에서 영상 신호 패턴을 분석한다. 단말기는 상기 언급한 검지 및 약지 측 골점 주위 2개 선분 쌍들의 신호 패턴을 분석하여 인식에 적합한 장문 영상이 취득되었는지를 검증한다. 일 실시 예로, 선분에 있는 신호 패턴을 파악하기 위해서 단말기는 손의 피부색 영역인 중심 관심 영역과 선분에 위치하는 점에서의 패턴 정보 차이를 이용한다. 선분 위 한 점에서의 신호 패턴 값은 수학식 1을 적용하여 중심 ROI 영역의 전체 YCbCr 평균값과 이 점에 해당하는 픽셀의 YCbCr 값과의 차이로 구해진다.In step 730, the terminal analyzes the video signal pattern in a predetermined segment or region of the finger. The terminal analyzes signal patterns of the pair of two line segments around the finger and the finger point side to thereby verify whether or not a long image suitable for recognition is acquired. In one embodiment, in order to grasp a signal pattern in a line segment, the terminal uses a pattern information difference at a point located in a line segment and a central region of interest, which is a skin color region of a hand. The signal pattern value at a point on the line segment is obtained by the difference between the average value of the YCbCr of the central ROI region and the YCbCr value of the pixel corresponding to the center ROI region using Equation (1).

Figure pat00001
Figure pat00001

여기서, YROI, CbROI, CrROI는 중심 ROI 영역의 YCbCr 평균값이고, YiN, CbiN, CriN는 선분 위의 한 점에 있는 YCbCr 값이고, WI는 Y 값 가중치이고, Dist 는 신호 패턴 차이 값을 나타낸다.Here, Y ROI, Cb ROI, Cr ROI is YCbCr average value of the center ROI areas, and Y iN, Cb iN, Cr iN is a YCbCr value in a point on the line segment, WI is a Y value weight, Dist is a signal pattern Represents the difference value.

손 영상이 가이드 모양에 맞게 취득되었을 때에는, 상기 언급한 골점 상단(904, 906)에 위치한 선분의 패턴 값은 도 11과 같은 신호 파형으로 나타낼 수 있다. 도 11을 참조하면, 중앙은 배경에 해당하는 큰 값의 거리를 갖는 반면 선분 양 끝은 피부 전경에 해당하는 작은 값의 거리를 갖는다(1101). 이때, 도 11의 x축은 선분 길이(L)이고, y축은 신호 패턴 차이값이고, 1103은 골점에 해당하고, 1102는 기준치에 해당한다. 도 11에 도시된 신호 파형은 선분이 손 영역, 배경 영역, 손 영역으로 구분되고 있음을 나타낸다. 반면, 도 9의 골점 하단(905, 907)에 위치한 선분은 도 12와 같이 선분 패턴 신호 전체가 손 영역에 해당되므로, 기준치(1202) 이하의 작은 값(1201)들을 갖는다. When the hand image is acquired in conformity with the guide shape, the pattern values of the line segments located at the above-mentioned punctum marks 904 and 906 can be represented by a signal waveform as shown in FIG. Referring to FIG. 11, the center has a large distance corresponding to the background, and the ends of the line segment have a small distance corresponding to the foreground of the skin (1101). In this case, the x-axis in FIG. 11 is a line segment length (L), the y-axis is a signal pattern difference value, 1103 corresponds to a punctual point, and 1102 corresponds to a reference value. The signal waveform shown in FIG. 11 indicates that the line segment is divided into a hand region, a background region, and a hand region. On the other hand, as shown in FIG. 12, the line segment located at the lower end points 905 and 907 of FIG. 9 has a small value 1201 below the reference value 1202 because the line segment pattern signal corresponds to the hand region.

단계 740에서, 단말기는 분석된 영상 신호 패턴에 기반하여 가이드 정보에 손이 위치하는 지를 판단한다. 도 11에 도시된 바와 같이 골점 상단 선분에서 임계 값과의 교차점 개수 및 골점 하단 선분 위치에서 임계 값과의 교차점 개수가 각각 2개 및 0개의 조건을 모두 만족한다면 단말기는 가이드 정보에 인식에 적합한 손 영상이 입력된 것으로 판단한다.  In step 740, the terminal determines whether the hand is positioned on the guide information based on the analyzed video signal pattern. As shown in FIG. 11, if the number of intersections with the threshold value and the number of intersections with the threshold value at the positions of the intersection points with the threshold value and the threshold value at the position of the bottom point of the goal point satisfy both 2 and 0 conditions, It is determined that the image is input.

상기 실시 예에서 손 영상이 가이드 모양에 맞게 획득되었는지를 판단하기 위하여 손가락에서의 선분을 분석하였지만 선분에 국한되지 않고 손가락에서의 미리 설정된 관심 영역에 해당하는 픽셀들을 분석할 수 있다.In the above embodiment, the line segment in the finger is analyzed to determine whether the hand image is acquired according to the guide shape, but the pixels corresponding to the predetermined region of interest in the finger can be analyzed without being limited to the line segment.

본 발명의 일 실시 예에 따른 장문 영상 처리 방법은 별도의 전용센서를 사용하지 않고 모바일 기기에 장착된 카메라를 이용하여 가이드 화면의 필요한 부분에서만 장문인식을 수행할 수 있으므로 비용적 측면과 보안 측면에서 사용자에게 많은 이점을 가져다 줄 수 있으며, 또한 자동으로 영상의 품질을 평가하여 장문 영상을 획득 함으로써 사용자의 편의성도 높일 수 있다.The long-range image processing method according to an embodiment of the present invention can perform long-range recognition only in a necessary portion of a guide screen using a camera mounted on a mobile device without using a separate dedicated sensor, It can bring a lot of advantages to the user, and it can also automatically improve the convenience of the user by acquiring a long image by automatically evaluating the quality of the image.

본 발명의 실시 예들에 따른 장문 영상 처리 방법을 컴퓨터로 구현하는 방법을 수행하도록 하는 명령어들을 포함하는 하나 이상의 프로그램은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로써 기록되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로써 저장되고 실행될 수 있다. One or more programs including instructions for performing a method of implementing a long image processing method according to embodiments of the present invention may be recorded in a computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like. The computer readable recording medium may also be distributed over a networked computer system and stored and executed as computer readable code in a distributed manner.

이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다. The present invention has been described with reference to the preferred embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

Claims (15)

손 모양의 가이드 정보를 표시하는 단계;
영상이 입력되면 상기 가이드 정보의 미리 정해진 영역에서의 신호 패턴에 기반하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 단계; 및
상기 판단 결과에 따라 입력된 영상을 캡쳐 하는 단계를 포함하는 장문 영상 처리 방법.
Displaying hand-shaped guide information;
Determining whether a hand is positioned on the guide information based on a signal pattern in a predetermined area of the guide information when an image is input; And
And capturing an input image according to the determination result.
제1항에 있어서, 상기 가이드 정보에 손이 위치하는 지를 판단하는 단계는,
상기 가이드 정보에서 영상 신호를 추출할 영역을 설정하는 과정;
상기 설정된 영역에서 신호 패턴을 분석하는 과정; 및
상기 분석된 신호 패턴에 기반하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 과정을 구비하는 것을 특징으로 하는 장문 영상 처리 방법.
2. The method of claim 1, wherein the step of determining whether a hand is positioned on the guide information comprises:
Setting an area to extract a video signal from the guide information;
Analyzing a signal pattern in the set region; And
And determining whether a hand is positioned on the guide information based on the analyzed signal pattern.
제2항에 있어서, 상기 영역을 설정하는 과정은, 상기 가이드 정보내 손가락 영상의 관심 영역 또는 손가락 영상의 선분을 설정하는 것을 특징으로 하는 장문 영상 처리 방법.3. The method as claimed in claim 2, wherein the setting of the area comprises setting a line segment of a finger image or a region of interest of the finger image in the guide information. 제3항에 있어서, 상기 손가락 영상의 선분을 설정하는 과정은, 정해진 손가락의 골점 상하 부분에 선분을 설정하고, 오른 손과 좌측 손에 대해 서로 대칭적으로 선분을 설정하는 것을 특징으로 하는 장문 영상 처리 방법.4. The method according to claim 3, wherein the step of setting a line segment of the finger image sets a line segment in upper and lower portions of a point of a predetermined finger, and sets a line segment symmetrically with respect to the right and left hands, Processing method. 제2항에 있어서, 상기 신호 패턴을 분석하는 과정은,
상기 가이드 정보의 제1영역의 영상 신호 패턴과 상기 가이드 정보의 제2영역의 영상 신호 패턴을 비교하는 것을 특징으로 하는 장문 영상 처리 방법.
3. The method of claim 2, wherein analyzing the signal pattern comprises:
The video signal pattern of the first area of the guide information is compared with the video signal pattern of the second area of the guide information.
제2항에 있어서, 상기 신호 패턴을 분석하는 과정은,
제1영역의 전체 YCbCr의 평균값과 상기 가이드 정보의 제2영역에 해당하는 픽셀의 YCbCr 값 간의 차이를 산출하는 것을 특징으로 하는 장문 영상 처리 방법.
3. The method of claim 2, wherein analyzing the signal pattern comprises:
Calculating a difference between an average value of all YCbCr of the first area and a YCbCr value of a pixel corresponding to the second area of the guide information.
제2항에 있어서, 상기 가이드 정보에 손이 위치하는 지를 판단하는 단계는 상기 가이드 정보의 제1영역의 영상 신호 패턴과 상기 가이드 정보의 제2영역의 영상 신호 패턴을 비교하여 손에 해당하는 전경인지 또는 손이 아닌 배경인지를 구분하는 것을 특징으로 하는 장문 영상 처리 방법.3. The method according to claim 2, wherein the step of determining whether the hand is positioned on the guide information comprises comparing the video signal pattern of the first area of the guide information with the video signal pattern of the second area of the guide information, Or whether the background is not a hand or a background. 제2항에 있어서, 상기 가이드 정보에 손이 위치하는 지를 판단하는 단계는 카메라의 초점이 조절된 후 입력된 영상에 대해서 신호 패턴을 분석하는 것을 특징으로 하는 장문 영상 처리 방법.3. The method as claimed in claim 2, wherein the step of determining whether the hand is positioned on the guide information comprises analyzing a signal pattern of the input image after the focus of the camera is adjusted. 제1항에 있어서, 상기 가이드 정보의 정해진 영역의 칼라 정보에 기반하여 입력 영상에 손이 존재하는 지를 확인하는 단계를 더 포함하는 장문 영상 처리 방법. The long image processing method according to claim 1, further comprising checking whether a hand exists in an input image based on color information of a predetermined area of the guide information. 제9항에 있어서, 상기 입력 영상에 손이 존재하는 지를 확인하는 단계는,
상기 가이드 정보에서 관심 영역을 설정하는 과정;
상기 관심 영역내의 평균 픽셀값이 미리 설정된 1차 바운더리에 포함되는 가를 판별하는 과정;
상기 설정된 관심 영역내의 모든 픽셀들중 미리 결정된 2차 바운더리에 포함되는 픽셀을 비율을 획득하는 과정; 및
상기 픽셀 비율에 기반하여 입력 영상 내에 손이 존재하는 지를 판단하는 과정을 구비하는 것을 특징으로 하는 장문 영상 처리 방법.
10. The method of claim 9, wherein the step of determining whether a hand is present in the input image comprises:
Setting a region of interest in the guide information;
Determining whether an average pixel value in the ROI is included in a preset primary boundary;
Obtaining a ratio of pixels included in a predetermined second boundary among all the pixels within the set region of interest; And
And determining whether a hand exists in the input image based on the pixel ratio.
손 모양의 가이드 정보를 표시하는 단계;
상기 가이드 정보의 미리 정해진 영역에서의 칼라 정보에 기반하여 입력 영상에 손이 존재하는 지를 확인하는 단계;
상기 확인 결과에 따라 상기 가이드 정보의 미리 정해진 영역에서의 영상 신호의 패턴에 기반하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 단계; 및
상기 판단 결과에 따라 입력된 영상을 캡쳐 하는 단계를 포함하는 장문 영상 처리 방법.
Displaying hand-shaped guide information;
Confirming whether a hand exists in the input image based on color information in a predetermined area of the guide information;
Determining whether a hand is positioned on the guide information based on a pattern of a video signal in a predetermined area of the guide information according to the check result; And
And capturing an input image according to the determination result.
손 모양의 가이드 정보를 발생하는 가이드 정보 발생부;
상기 가이드 정보의 미리 정해진 영역에서의 칼라 정보에 기반하여 입력 영상에 손의 포함 여부를 판단하는 칼라 분석부;
상기 가이드 정보의 미리 정해진 영역에서의 영상 신호의 패턴에 기반하여 상기 가이드 정보에 손의 위치 여부를 판단하는 신호 패턴 분석부; 및
상기 칼라 분석부 및 신호 패턴 분석부의 판단 결과에 따라 입력 영상 신호를 캡쳐하는 영상 캡쳐부를 포함하는 장문 영상 처리 장치.
A guide information generator for generating hand guide information;
A color analyzer for determining whether a hand is included in an input image based on color information in a predetermined area of the guide information;
A signal pattern analyzer for determining whether or not a hand is positioned on the guide information based on a pattern of a video signal in a predetermined area of the guide information; And
And an image capturing unit capturing an input image signal according to a determination result of the color analysis unit and the signal pattern analysis unit.
영상을 촬영하는 카메라부;
손 모양의 가이드 정보를 표시하고, 상기 카메라부에서 영상이 입력되면 상기 가이드 정보의 미리 정해진 영역에서의 영상 신호를 분석하여 상기 가이드 정보에 손이 위치하는 지를 판단하는 영상 처리부; 및
상기 가이드 정보 및 상기 카메라부에서 촬영된 영상을 표시하는 표시부를 포함하는 단말기.
A camera unit for capturing an image;
An image processor for displaying hand guide information and analyzing a video signal in a predetermined area of the guide information when an image is input from the camera unit to determine whether a hand is positioned on the guide information; And
And a display unit for displaying the guide information and the image photographed by the camera unit.
제13항에 있어서, 상기 영상 처리부는
손 모양의 가이드 정보를 발생하는 가이드 정보 발생부;
카메라에서 촬영된 영상을 입력하는 영상 입력부;
상기 가이드 정보의 미리 정해진 영역에서의 칼라 정보에 기반하여 입력 영상에 대해 손포함 여부를 판단하는 칼라 분석부;
상기 가이드 정보의 미리 정해진 영역에서의 영상 신호의 패턴에 기반하여 상기 가이드 정보에 손의 위치 여부를 판단하는 신호 패턴 분석부; 및
상기 칼라 분석부 및 신호패턴분석부의 판단 결과에 따라 입력 영상 신호를 캡쳐하는 영상 캡쳐부를 구비하는 것을 특징으로 하는 단말기.
14. The apparatus of claim 13, wherein the image processing unit
A guide information generator for generating hand guide information;
An image input unit for inputting an image photographed by a camera;
A color analyzer for determining whether the input image is included in a hand based on color information in a predetermined area of the guide information;
A signal pattern analyzer for determining whether or not a hand is positioned on the guide information based on a pattern of a video signal in a predetermined area of the guide information; And
And an image capturing unit capturing an input image signal according to a determination result of the color analysis unit and the signal pattern analysis unit.
제 1 항 내지 제 11항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.12. A computer-readable recording medium on which a program for implementing the method of any one of claims 1 to 11 is recorded.
KR1020130142335A 2013-11-21 2013-11-21 Method and apparatus for processing palm print image KR102166333B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130142335A KR102166333B1 (en) 2013-11-21 2013-11-21 Method and apparatus for processing palm print image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130142335A KR102166333B1 (en) 2013-11-21 2013-11-21 Method and apparatus for processing palm print image

Publications (2)

Publication Number Publication Date
KR20150059213A true KR20150059213A (en) 2015-06-01
KR102166333B1 KR102166333B1 (en) 2020-10-16

Family

ID=53490340

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130142335A KR102166333B1 (en) 2013-11-21 2013-11-21 Method and apparatus for processing palm print image

Country Status (1)

Country Link
KR (1) KR102166333B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102513468B1 (en) * 2021-12-03 2023-03-24 이상훈 Non contacttype palm print recognition method using mobile device installed camera

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010002097A (en) * 1999-06-11 2001-01-05 김운용 Method and apparatus for face photographing and recognizing by automatic trading a skin color and motion
JP2007206963A (en) * 2006-02-01 2007-08-16 Canon Inc Image processor, image processing method, program and storage medium
JP2010146158A (en) * 2008-12-17 2010-07-01 Fujitsu Ltd Biometric authentication device, biometric authentication method, and computer program
KR20110007806A (en) * 2009-07-17 2011-01-25 삼성전자주식회사 Apparatus and method for detecting hand motion using a camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010002097A (en) * 1999-06-11 2001-01-05 김운용 Method and apparatus for face photographing and recognizing by automatic trading a skin color and motion
JP2007206963A (en) * 2006-02-01 2007-08-16 Canon Inc Image processor, image processing method, program and storage medium
JP2010146158A (en) * 2008-12-17 2010-07-01 Fujitsu Ltd Biometric authentication device, biometric authentication method, and computer program
KR20110007806A (en) * 2009-07-17 2011-01-25 삼성전자주식회사 Apparatus and method for detecting hand motion using a camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102513468B1 (en) * 2021-12-03 2023-03-24 이상훈 Non contacttype palm print recognition method using mobile device installed camera

Also Published As

Publication number Publication date
KR102166333B1 (en) 2020-10-16

Similar Documents

Publication Publication Date Title
CN110232311B (en) Method and device for segmenting hand image and computer equipment
KR102587193B1 (en) System and method for performing fingerprint-based user authentication using images captured using a mobile device
US9483680B2 (en) Method of recognizing contactless fingerprint and electronic device for performing the same
CN106228168B (en) The reflective detection method of card image and device
CN107609489B (en) Handwriting writing path evaluation device and method and electronic equipment
EP3007100B1 (en) Biometric information correcting apparatus and biometric information correcting method
KR101603469B1 (en) Biometric authentication device, biometric authentication method, and biometric authentication computer program
US11657644B2 (en) Automatic ruler detection
CN111307039A (en) Object length identification method and device, terminal equipment and storage medium
US10395090B2 (en) Symbol detection for desired image reconstruction
CN109948630B (en) Target paper image identification method, device and system and storage medium
JP2019040472A (en) Image processing device, image processing method, and image processing program
US20150138088A1 (en) Apparatus and Method for Recognizing Spatial Gesture
US20180225438A1 (en) Biometric authentication apparatus, biometric authentication method, and non-transitory computer-readable storage medium for storing program for biometric authentication
CN110852220B (en) Intelligent facial expression recognition method, terminal and computer readable storage medium
JP5796523B2 (en) Biological information acquisition apparatus, biological information acquisition method, and biological information acquisition control program
KR101909485B1 (en) Program, information storage medium and recognition device
KR20150059213A (en) Method and apparatus for processing palm print image
US10140509B2 (en) Information processing for detection and distance calculation of a specific object in captured images
JP6631736B1 (en) Biometric authentication device, biometric authentication system and program
US11908214B2 (en) Object management system
CN117065310B (en) Action evaluation method and device, heterogeneous AI chip, equipment and storage medium
JP6631737B1 (en) Biometric authentication device and program
KR101506614B1 (en) Mobile apparatus for recognizing a music score image and control method thereof
CN116778374A (en) Text content recognition method, device, electronic equipment and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right