KR101601187B1 - Device Control Unit and Method Using User Recognition Information Based on Palm Print Image - Google Patents

Device Control Unit and Method Using User Recognition Information Based on Palm Print Image Download PDF

Info

Publication number
KR101601187B1
KR101601187B1 KR1020140162001A KR20140162001A KR101601187B1 KR 101601187 B1 KR101601187 B1 KR 101601187B1 KR 1020140162001 A KR1020140162001 A KR 1020140162001A KR 20140162001 A KR20140162001 A KR 20140162001A KR 101601187 B1 KR101601187 B1 KR 101601187B1
Authority
KR
South Korea
Prior art keywords
palm
control
image data
user
control pattern
Prior art date
Application number
KR1020140162001A
Other languages
Korean (ko)
Inventor
이민호
김종홍
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020140162001A priority Critical patent/KR101601187B1/en
Application granted granted Critical
Publication of KR101601187B1 publication Critical patent/KR101601187B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

The present invention relates to a device for controlling another device by using user recognition information based on the palm-print. The device includes: a palm-print sensor which senses the contact of a palm and records a palm-print image to obtain palm-print image data; an image processing unit which filters the obtained palm-print image data to execute a pre-process; a palm-print feature area detecting unit which analyzes the preprocessed palm-print image data to extract the feature point data of the palm-print image data; a user recognition unit which matches the extracted feature point data and feature point data of registered palm-print image data to execute a user authentication operation through similarity comparison; and a learning/setting control pattern database unit which receives a control signal from a device input unit and user information related to the user authentication from the user recognition unit, generates an output signal for controlling control target devices according to a control pattern set by learning the user information, and transmits the output signal to at least one of the control target devices.

Description

손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치 및 그 방법{Device Control Unit and Method Using User Recognition Information Based on Palm Print Image}Technical Field [0001] The present invention relates to a device control apparatus using palm-based user recognition information,

본 발명은 기기 컨트롤 장치 및 그 방법에 관한 것으로서, 더욱 상세하게는 손바닥의 이미지를 획득할 수 있는 센서를 통해 손금 정보를 분석하여 손금 정보에 해당하는 사용자 정보를 판별하고 사용자 정보에 대응하는 기기 조작 제어를 수행하는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치 및 그 방법에 관한 것이다.More particularly, the present invention relates to a device control device and method thereof, and more particularly, to a device control device and a method thereof, and more particularly to a device control device and method thereof that analyze palmation information through a sensor capable of acquiring an image of a palm to discriminate user information corresponding to palm- And more particularly, to a device control apparatus using palm-based user identification information and a method thereof.

오늘날 컴퓨터의 발달과 인터넷을 이용한 전자뱅킹 서비스, 전자 상거래, 스마트 카드 등의 발달에 따라 여러 가지 데이터베이스에 저장된 정보의 보안과 인증에 대한 수단으로 바이오 매트릭스가 각광을 받고 있다.Today, the development of computers and electronic banking services using the Internet, electronic commerce, smart cards, etc., have attracted attention as a means of security and authentication of information stored in various databases.

바이오 매트릭스는 개인의 신체적 특성(얼굴, 지문, 홍채 등)에 기초한 것으로 이 중에서 지문에 기초한 신분 확인이 가장 발달되고 효과가 증명된 기술로 알려져 있다.The biomatrix is based on individual physical characteristics (face, fingerprint, iris, etc.), among which fingerprint-based identification is the most developed and proven technology.

지문 인식 기술은 지금까지 오랜도안 가장 효율적인 개인 식별 수단으로 출입 관리, 범죄 수사, 주민 등록증 등 다양한 분야에 적용되어 왔다.Fingerprint recognition technology has been applied to various fields such as access control, crime investigation and resident registration certificate as the most effective personal identification method for a long time.

지문 인식 방법은 크게 빛을 사용하는 광학 감지 방식과 빛을 사용하지 않는 비광학 감지 방식으로 구분된다.The fingerprint recognition method is largely classified into an optical sensing method using light and a non-optical sensing method using no light.

광학 감지 방식을 사용하는 지문 감지 센서는 손가락이 밀착되는 표면에 코팅이 필요 없고, 표면의 긁힘이 거의 없으며, 부식이 없고, 제조 원가 및 유지 보수가 용이하다는 장점이 있다.The fingerprint detection sensor using the optical sensing method has advantages that the surface on which the finger is closely attached is not coated, the surface is scarcely scratched, there is no corrosion, and the manufacturing cost and maintenance are easy.

손가락 끝부분의 표피의 지문 해석 방법은 이미 등록시킨 지문이 어떠한 사정으로 인해 상처 혹은 손상을 입은 경우 지문의 특징점 해석이 틀려지므로 다른 사람의 지문으로 해석하여 인증을 실패 할 수 있다.Fingerprint interpretation method of the fingertip part may fail authentication if the already registered fingerprint is scratched or damaged due to any reason, and interpretation of fingerprint of the fingerprint is interpreted as another person's fingerprint.

또한, 지문 해석 방법은 어린 아이와 노인과 같이 지문이 극히 엷은 사람들의 지문 해석 인증률이 떨어지고, 기온이 떨어지는 겨울철이 되면 손가락 표피의 수축 현상에 의해 특징점들이 기하학적 구조가 틀어지기 때문에 인증률이 떨어지는 문제점을 발생시키고 있다.In addition, the fingerprint interpretation method has a problem that the authentication rate of the fingerprint analysis of people who have extremely thin fingerprints such as a child and the elderly falls, and when the temperature falls in the winter, the authentication points are lowered due to the contouring of the feature points due to the contraction phenomenon of the finger skin. I have to.

현대의 스마트 폰을 대표되는 다양한 스마트 기기들에 있어서 사용자 인식 기능이 필수적인 기능이 되고 있다.The user recognition function is becoming an indispensable function in various smart devices representing modern smart phones.

그러나 기존의 사용자 인식 기술은 지문을 주로 이용하며 스마트 폰의 경우 얼굴 인식을 이용하는 경우도 있다.However, existing user recognition technology mainly uses fingerprint, and smartphone uses face recognition.

스마트 폰과 웨어러블 디바이스를 넘어 IT 기업들은 스마트 홈 시장을 두고 경쟁하고 있다.Beyond smartphones and wearable devices, IT companies are competing for the smart home market.

현대의 스마트 홈은 유무선 네트워크를 기반으로 가정 내의 다양한 가전기기 및 센서의 구성을 통해 다양한 서비스 제공이 가능한 환경을 의미하고 언제 어디서나 안전하고 자동화 서비스의 제공이 가능하며 홈 서버를 통해 집안 전체의 관리가 가능한 환경을 의미한다.Hyundai's smart home means an environment where various services can be provided through the configuration of various home appliances and sensors based on wired and wireless networks, and it is possible to provide safe and automated services anytime and anywhere. Through the home server, It means possible environment.

이러한 스마트 홈 환경에서는 리모컨으로 대표되는 컨트롤 장치가 고도의 보안의 요구하는 경우를 제외하면 사용자 인식 기능이 아직 포함되어 있지 않다.In such a smart home environment, the user recognition function is not yet included unless the control device represented by the remote control requires a high degree of security.

스마트 홈은 사용자 인식 기술이 주로 보안의 목적으로 지문을 이용하며 허가된 사용자에게만 서비스를 제공하기 위해 사용되었을 뿐, 아직까지 효과적인 사용자 인식 기술 방법이 정해지지 않은 상태이다.The smart home has been used to provide services only to authorized users, with fingerprinting mainly for security purposes, but no effective user recognition technology has yet been established.

이러한 문제점을 해결하기 위하여, 본 발명이 해결하고자 하는 과제는 손바닥의 이미지를 획득할 수 있는 센서를 통해 손금 정보를 분석하여 손금 정보에 해당하는 사용자 정보를 판별하고 사용자 정보에 대응하는 기기 조작 제어를 수행하는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치 및 그 방법을 제공하는데 그 목적이 있다.In order to solve these problems, a problem to be solved by the present invention is to provide a method and apparatus for analyzing palmation information by using a sensor capable of acquiring an image of a palm to discriminate user information corresponding to palmization information, And to provide a device control apparatus and method using palm-based user recognition information to be performed.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치는,According to an aspect of the present invention, there is provided a device control apparatus using palm-based user identification information,

손바닥의 접촉을 감지하여 손금 영상을 촬영하여 손금 영상 데이터를 획득하는 손금감지센서;A palm detection sensor for sensing the touch of the palm and capturing the palm image to acquire palm image data;

획득한 손금 영상 데이터를 필터링하여 전처리하는 영상 처리부;An image processor for filtering and processing the obtained palm image data;

전처리된 손금 영상 데이터를 분석하여 손금 영상 데이터의 특징점 데이터를 추출하는 손금 특징 영역 검출부;A palm feature region detection unit for extracting the feature point data of the palm image data by analyzing the preprocessed palm image data;

추출한 특징점 데이터와 등록된 손금 영상 데이터의 특징점 데이터를 매칭하여 유사도 비교를 통해 사용자 인증을 수행하는 사용자 인식부; 및A user recognition unit for matching the extracted feature point data with the feature point data of the registered palm image data and performing user authentication through comparison of similarity; And

사용자 인식부로부터 사용자 인증을 수행한 사용자 정보와 장치 입력부로부터 조작 제어 신호를 수신하고, 사용자 정보에 학습되어 설정된 컨트롤 패턴에 따라 컨트롤 대상 기기를 제어하는 출력 신호를 생성하여 하나 이상의 컨트롤 대상 기기로 전송하는 학습/설정 컨트롤 패턴 데이터베이스부를 포함한다.Receiving an operation control signal from the device input unit, and generating an output signal for controlling the control target device in accordance with the control pattern learned in the user information and transmitting the control signal to at least one control target device And a learning / setting control pattern database unit.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 방법은,According to another aspect of the present invention, there is provided a device control method using palm-based user identification information,

손바닥의 접촉을 감지하여 손금 영상을 촬영하여 손금 영상 데이터를 획득하는 단계;Detecting palm contact and capturing palm image to obtain palm image data;

획득한 손금 영상 데이터를 필터링하여 전처리하는 단계;Filtering and processing the obtained palm image data;

전처리된 손금 영상 데이터를 분석하여 손금 영상 데이터의 특징점 데이터를 추출하는 단계;Extracting feature point data of the palm image data by analyzing the preprocessed palm image data;

추출한 특징점 데이터와 등록된 손금 영상 데이터의 특징점 데이터를 매칭하여 유사도 비교를 통해 사용자 인증을 수행하는 단계;Matching the extracted feature point data with the feature point data of the registered palm image data and performing user authentication through comparison of similarity;

사용자 인증을 수행한 사용자 정보와 장치 입력부로부터 조작 제어 신호를 수신하는 단계; 및Receiving user information on user authentication and an operation control signal from a device input unit; And

사용자 정보에 학습되어 설정된 컨트롤 패턴에 따라 컨트롤 대상 기기를 제어하는 출력 신호를 생성하여 하나 이상의 컨트롤 대상 기기로 전송하는 단계를 포함한다.And generating an output signal for controlling the control target device according to the control pattern learned in the user information and transmitting the output signal to at least one control target device.

전술한 구성에 의하여, 본 발명은 손금감지센서를 기기 컨트롤 장치의 손바닥 접촉 위치에 설치하여 사용자 인식을 위한 제반의 노력없이 사용자별로 다른 형태의 기기 콘트롤 서비스를 제공하는 효과가 있다.According to the above-described configuration, the present invention provides a device control service of different types for each user without any effort for user recognition by installing the hand-held sensor at the palm-contacting position of the device control device.

본 발명은 스마트 홈 환경에서 하나의 컨트롤 장치가 다양한 기기를 제어하여 사용자에 따라 다양한 서비스를 제공하여 사용자 인식 기반 기기 컨트롤 장치 시장의 발전에 도움이 되는 효과가 있다.In the smart home environment, one control device controls various devices to provide a variety of services according to the user, thereby contributing to the development of a user-based device control device market.

도 1은 본 발명의 실시예에 따른 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치의 구성을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 학습/설정 컨트롤 패턴 데이터베이스부의 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 손금 기반 사용자 인식 과정을 나타낸 개념도이다.
도 4는 본 발명의 실시예에 따른 사용자 인식 기반 기기 컨트롤 모듈을 나타낸 개념도이다.
도 5는 본 발명의 실시예에 따른 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 방법을 나타낸 순서도이다.
도 6은 본 발명의 실시예에 따른 윤곽선 추출 과정을 나타낸 도면이다.
도 7은 본 발명의 실시예에 따른 3*3 마스크 적용시 결과 영상을 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 잡선 제거 과정을 나타낸 도면이다.
도 9는 본 발명의 실시예에 따른 잡선 제거 과정을 설명하기 위한 도면이다.
1 is a block diagram of a device control apparatus using palm-based user recognition information according to an embodiment of the present invention.
2 is a block diagram showing a configuration of a learning / setting control pattern database unit according to an embodiment of the present invention.
3 is a conceptual diagram illustrating a palm-based user recognition process according to an embodiment of the present invention.
4 is a conceptual diagram illustrating a user recognition-based device control module according to an embodiment of the present invention.
5 is a flowchart illustrating a method of controlling a device using palm-based user recognition information according to an embodiment of the present invention.
6 is a flowchart illustrating an outline extraction process according to an embodiment of the present invention.
FIG. 7 is a diagram showing a resultant image when a 3 * 3 mask according to an embodiment of the present invention is applied.
8 is a view illustrating a barge removing process according to an embodiment of the present invention.
9 is a view for explaining a barge removing process according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계 및 동작은 하나 이상의 다른 구성요소, 단계 및 동작의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. It is noted that the terms " comprises "and / or" comprising ", as used herein, do not exclude the presence or addition of one or more other elements, steps and operations.

도 1은 본 발명의 실시예에 따른 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치의 구성을 나타낸 도면이고, 도 2는 본 발명의 실시예에 따른 학습/설정 컨트롤 패턴 데이터베이스부의 구성을 나타낸 블록도이고, 도 3은 본 발명의 실시예에 따른 손금 기반 사용자 인식 과정을 나타낸 개념도이고, 도 4는 본 발명의 실시예에 따른 사용자 인식 기반 기기 컨트롤 모듈을 나타낸 개념도이고, 도 5는 본 발명의 실시예에 따른 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 방법을 나타낸 순서도이다.FIG. 1 is a block diagram of a device control apparatus using palm-based user recognition information according to an embodiment of the present invention. FIG. 2 is a block diagram showing a configuration of a learning / setting control pattern database unit according to an embodiment of the present invention FIG. 3 is a conceptual diagram illustrating a palm-based user recognition process according to an embodiment of the present invention, FIG. 4 is a conceptual diagram illustrating a user recognition-based device control module according to an embodiment of the present invention, FIG. 2 is a flowchart illustrating a device control method using palm-based user recognition information according to FIG.

본 발명의 실시예에 따른 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치(100)는 손금감지센서(110), 영상 처리부(120), 저장부(130), 손금 특징 영역 검출부(140), 사용자 인식부(150) 및 학습/설정 컨트롤 패턴 데이터베이스부(170)를 포함한다.The device control apparatus 100 using the palm-based user recognition information according to the embodiment of the present invention includes a palm detection sensor 110, an image processing unit 120, a storage unit 130, a palm feature region detection unit 140, Unit 150 and a learning / setting control pattern database unit 170.

손금감지센서(110)는 손바닥의 접촉을 감지하여 광원을 투사하고 광원으로부터 투사된 광원의 반사광을 촬상부를 통해 수집하여 저장한다(S100, S110).The palm detection sensor 110 detects the touch of the palm and projects the light source, and collects and stores the reflected light of the light source projected from the light source through the image sensing unit (S100, S110).

촬상부는 광원 수단 및 CMOS 이미지 센서인 광학 센서 수단을 포함한다.The imaging section includes light source means and optical sensor means which is a CMOS image sensor.

CMOS 이미지 센서는 각 픽셀마다 증폭기를 달아서 손금 화상의 신호를 높은 신호 대 잡음비(SNR)를 갖는 신호로 읽어낸다.A CMOS image sensor reads an image of a palm image with a signal having a high signal-to-noise ratio (SNR) by attaching an amplifier to each pixel.

손금감지센서(110)는 손바닥 전체 이미지를 촬영하여 획득하거나 손금의 분할 지정에 따라 소정의 순서로 부위를 지정하여 특정 부위의 위치의 손금 영상을 촬영하여 획득한다.The palm detection sensor 110 captures and acquires a palm image at a specific position by capturing and acquiring an entire palm image or specifying a region in a predetermined order according to division designation of palmprint.

즉, 손금감지센서(110)는 손금 영상의 촬영시 손금 영상을 서로 다른 크기와 위치를 갖는 다수개의 영역으로 분할하여 촬영한다.That is, the palm detection sensor 110 divides the palm image into a plurality of regions having different sizes and positions at the time of capturing the palm image, and photographs the palm image.

영상 처리부(120)는 손금 영상 이미지를 흑백 영상 데이터로 변환하고 흑백 영상 데이터의 선명도 향상을 위해 히스토그램 스트레칭(Histogram Stretching) 알고리즘을 이용하여 선명도를 향상시킨다(S130).The image processor 120 converts the palm image into the monochrome image data and improves the sharpness of the monochrome image data by using a histogram stretching algorithm to improve the sharpness of the monochrome image data at step S130.

영상 처리부(120)는 도 6에 도시된 바와 같이, 선명도가 향상된 흑백 영상 데이터의 윤곽선을 추출하기 위하여 프리윗(Prewitt) 마스크를 적용하여 손금 영상 데이터의 윤곽선을 추출한다(S140).6, the image processing unit 120 extracts the outline of the palm image data by applying a pre-beat mask in order to extract the outline of the black and white image data with improved sharpness (S140).

영상 처리부(120)는 저장부(130)에 저장된 손금 영상 데이터를 리드하고 도 6 및 도 7에 도시된 바와 같이, 윤곽선 추출을 위한 프리윗 마스크를 3*3 마스크 또는 5*5 마스크를 원 영상에 적용 시 마스크의 값과 손금 영상의 각 픽셀 값을 곱하여 더한 값을 저장부(130)에 저장한다(S142, S144, S146).6 and 7, the image processing unit 120 reads the palm image data stored in the storage unit 130 and converts the 3 * 3 mask or the 5 * 5 mask into the original image for the contour extraction, The mask value is multiplied by each pixel value of the palmprint image, and the sum is stored in the storage unit 130 (S142, S144, and S146).

영상 처리부(120)는 마스크가 적용된 손금 영상 데이터의 중심 픽셀(a5)의 값으로 할당하고 윤곽선이 검출된 손금 영상을 저장부(130)에 저장된다(S148, S149).The image processing unit 120 allocates the center pixel a5 of the palm image data to which the mask is applied, and stores the palm image in which the outline is detected in the storage unit 130 (S148 and S149).

영상 처리부(120)는 손금 이외의 잡선을 제거하기 위한 필터링 과정을 수행하게 되는데 잡선 제거를 위해 메디안 필터링(Median Filtering)을 수행한다(S150).The image processing unit 120 performs a filtering process to remove a hull other than the palm, and performs median filtering to remove the hull (S150).

도 8 및 도 9에 도시된 바와 같이, 영상 처리부(120)는 저장부(130)에 저장된 손금 영상 데이터를 리드한 후, 손금 영상 데이터를 3*3 블록 크기로 분리하고 분리된 3*3 블록을 9 블록의 크기로 나열한 후 나열된 9블록의 픽셀 값들을 오름차순으로 정렬한다(S151, S152, S153, S154).8 and 9, the image processing unit 120 reads the palmprint image data stored in the storage unit 130, separates the palmprint image data into 3 * 3 block sizes, Are arranged in the size of 9 blocks, and then the pixel values of the 9 blocks arranged are sorted in ascending order (S151, S152, S153, and S154).

영상 처리부(120)는 오름차순으로 정렬된 픽셀 값 중 중간 값인 5번째 블록의 픽셀 값을 3*3으로 분리한 블록 영역의 중심 값으로 할당한다(S155).The image processor 120 allocates the pixel value of the 5th block, which is an intermediate value among the pixel values sorted in the ascending order, as the center value of the block area divided by 3 * 3 (S155).

도 9의 (a)와 같이, 3*3블록을 9블록의 크기로 나열하여 각 픽셀들의 값을 오름차순으로 정렬하면 '2,2,2,2,4,4,4,5,10' 이 된다. 정렬된 픽셀들의 값 중간 값인 4를 3*3 블록의 중심 값에 할당하면 도 9의(b)과 같으며, 잡음성분인 픽셀 값 '10'을 제거하게 된다(S156).As shown in FIG. 9A, when 3 * 3 blocks are arranged in the size of 9 blocks and the values of the pixels are sorted in ascending order, '2,2,2,2,4,4,4,5,10' do. If the intermediate value 4 of the aligned pixels is assigned to the center value of the 3 * 3 block, the pixel value '10', which is a noise component, is removed as shown in (b) of FIG. 9 (S156).

영상 처리부(120)는 메디안 필터링으로 주 손금이 명확해지고 잡선이 제거된 손금 영상 데이터를 저장부(130)에 저장한다.The image processing unit 120 stores the palm image data in which the main palm becomes clear by the median filtering and the bar code is removed in the storage unit 130. [

영상 처리부(120)는 손금 영상 데이터의 잡음을 없애고 픽셀의 연결성을 향상시키기 위하여 이진화 과정을 수행한다(S160).The image processing unit 120 performs a binarization process to remove noise of the palm image data and improve connectivity of the pixels (S160).

영상 처리부(120)는 손금의 강한 에지를 더욱 강하게 약한 부분을 더욱 약화시키기는 이중 임계 처리 방법을 수행하는 것으로 두 개의 임계값을 통해 손금 주변의 잡음을 제거한다.The image processing unit 120 performs a dual critical processing method for further weakening the stronger edge of the palm stronger, thereby removing the noise around the palm through two threshold values.

영상 처리부(120)는 손금 영상 데이터를 리드한 후 히스토그램을 분석하여 손금 영상의 명도값을 추출한다.The image processing unit 120 reads the palm image data, analyzes the histogram, and extracts the brightness value of the palm image.

영상 처리부(120)는 T1, T2라는 두 개의 임계값을 설정하고, 손금 영상의 명도 값에 따라 0,1(T1), 2(T2)로 분류하고 '1'과 연결된 '2'의 픽셀을 전부 '1'로 바꾸어 256의 그레이 영상을 0 과 1의 바이너리(Binary) 이미지로 처리한다.The image processing unit 120 sets two threshold values of T1 and T2 and classifies the pixels of '2' connected to '1' by classifying them as 0,1 (T1) and 2 (T2) All of them are converted into '1', and 256 gray images are processed as binary images of 0 and 1.

영상 처리부(120)는 손금 영상 데이터를 이진화한 후 손금의 잔주름을 없애고 상대적으로 굵은 손금을 강조하면서 라인이 끊어지지 않도록 손금 영상 데이터를 세선화(Thinning)하여 저장부(130)에 저장한다.After the binocular image data is binarized, the image processor 120 eliminates the fine lines of the binoculars and emphasizes the relatively thick binoculars, and stores the binocular image data in the binarizing unit 130 so as not to break the line.

손금 특징 영역 검출부(140)는 영상 처리부(120)에서 이진화된 손금 영상 데이터를 다수의 블록으로 분할한 후, 2차 이진화 과정을 수행하고 세선화된 손금 영상 데이터를 분석하여 손금의 분기점, 절단점, 방향, 개수, 가지 등의 특징점을 추출하고 그 특징점에 대한 위치좌표, 굵기, 명도에 대한 특징값을 측정한다(S170). 이러한 특징점과 특징값을 추출하는 방법은 SIFT(Scale Invariant Feature Transform) 기반의 특징점 추출 알고리즘을 기반으로 한다.The palm feature region detecting unit 140 divides the palm image data binarized in the image processing unit 120 into a plurality of blocks, performs a secondary binarization process, and analyzes the thinned palm image data, , Direction, number, branch, and the like are extracted and feature values of position coordinates, thickness, and brightness of the feature points are measured (S170). The method of extracting these feature points and feature values is based on a feature extraction algorithm based on SIFT (Scale Invariant Feature Transform).

손금 특징 영역 검출부(140)는 손금 영상 데이터의 특징점과 특징값들에 대한 특징 벡터를 생성하게 된다.The palm feature region detection unit 140 generates a feature vector for the feature points and the feature values of the palm image data.

사용자 인식부(150)는 저장부(130)에 등록된 손금의 특징점들에 대한 제1 부분 특징 벡터를 계산하고, 손금 영상 데이터의 특징점과 특징값들을 이용하여 제2 부분 특징 벡터를 계산한다.The user recognition unit 150 calculates a first partial feature vector for feature points of the palm registered in the storage unit 130 and calculates a second partial feature vector using feature points and feature values of the palm image data.

사용자 인식부(150)는 제1 부분 특징 벡터에서 제2 부분 특징 벡터를 서로 빼어 그 차이값이 허용 오차 범위 내에 있는 경우 유사도를 보이는 것으로 결정하도록 벡터 유사도를 계산하여 사용자 손금 매칭을 수행한다(S180).The user recognition unit 150 calculates the vector similarity degree so as to determine the degree of similarity when the second partial feature vectors are subtracted from each other and the difference value is within the tolerance range, thereby performing user's palm matching (S180 ).

도 3과 같이, 사용자의 손금 매칭을 이용하여 사용자 인증 과정을 완료한다.As shown in FIG. 3, the user authentication process is completed using the palm matching of the user.

학습/설정 컨트롤 패턴 데이터베이스부(170)는 신호 처리부(172), 사용자 프로파일부(174) 및 출력 신호 처리부(176)를 포함한다.The learning / setting control pattern database unit 170 includes a signal processing unit 172, a user profile unit 174, and an output signal processing unit 176.

신호 처리부(172)는 사용자 인식부(150)로부터 사용자 손금 매칭을 통해 사용자 인증이 완료된 사용자 정보를 수신하며, 장치 입력부(160)로부터 기기 컨트롤 장치(100)의 조작 제어 신호를 수신한다(S190).The signal processor 172 receives user authentication information from the user recognition unit 150 through user palm matching and receives an operation control signal of the device control device 100 from the device input unit 160 in operation S190, .

사용자 프로파일부(174)는 신호 처리부(172)로부터 수신한 사용자 정보와 조작 제어 신호를 기초로 학습되어 설정된 컨트롤 패턴을 검색한다.The user profile unit 174 searches the control pattern set by learning based on the user information received from the signal processor 172 and the operation control signal.

출력 신호 처리부(176)는 신호 처리부(172)의 제어로 검색된 컨트롤 패턴에 따라 하나 이상의 컨트롤 대상 기기(180)를 제어하는 출력 신호를 생성하여 컨트롤 대상 기기(180)로 전송하여 해당 컨트롤 대상 기기(180)를 자동적으로 조작하게 된다(S192). 여기서, 컨트롤 대상 기기(180)는 스마트 홈 환경에서의 스마트 TV, 이동 단말, 테블릿 PC, 오디오기기, 에어컨, 세탁기 등 전자기기를 모두 포함한다.The output signal processing unit 176 generates an output signal for controlling one or more control target devices 180 according to the control pattern detected by the control of the signal processing unit 172 and transmits the output signal to the control target device 180, 180 are automatically operated (S192). Here, the control target device 180 includes all electronic devices such as a smart TV, a mobile terminal, a tablet PC, an audio device, an air conditioner, and a washing machine in a smart home environment.

도 4와 같이, 사용자의 기기 컨트롤 장치(100)의 조작과 학습/설정 컨트롤 패턴 데이터베이스부(170) 간의 컨트롤 패턴의 학습과 예측을 수행하게 된다.The control pattern learning and prediction between the operation of the user's device control apparatus 100 and the learning / setting control pattern database unit 170 are performed as shown in FIG.

사용자 프로파일부(174)는 사용자 인식부(150)의 사용자 정보와, 장치 입력부(160)의 조작 제어 신호를 입력으로 설정하고, 출력 신호 처리부(176)의 장치 출력 신호를 출력으로 설정한 후, 일반적인 오류 역전파 알고리즘을 이용하여 컨트롤 대상 기기(180)의 컨트롤 패턴을 학습하게 된다.The user profile unit 174 sets the user information of the user recognition unit 150 and the operation control signal of the device input unit 160 as input and sets the device output signal of the output signal processing unit 176 as output, The control pattern of the control target device 180 is learned using a general error back propagation algorithm.

사용자 프로파일부(174)는 신경 회로망 알고리즘이 적용된 것으로 수많은 컨포넌트들이 연결된 구조를 가지고 입력되는 데이터의 패턴 인식에 기반하여 출력을 산출한다.The user profile unit 174 calculates an output based on pattern recognition of input data having a structure in which a plurality of components are connected with a neural network algorithm.

다시 말해, 학습/설정 컨트롤 패턴 데이터베이스부(170)는 특정 손금을 가진 사용자를 인식하여 해당 사용자가 기기 컨트롤 장치(100)에서 어떤 하드웨어 조작을 수행했는지 학습하고, 이와 같은 학습 과정을 반복하여 기기 컨트롤 장치(100)에 대한 사용자의 조작 패턴을 학습하게 되는 것이다.In other words, the learning / setting control pattern database unit 170 recognizes a user who has a specific palm and learns what hardware operation the user has performed in the device control apparatus 100, repeats the learning process, The user's operation pattern for the device 100 is learned.

사용자 프로파일부(174)는 사용자 정보에 따라 각각 다른 컨트롤 패턴이 생성된다.The user profile unit 174 generates different control patterns according to the user information.

사용자는 컨트롤 패턴에 의해 제어되는 컨트롤 대상 기기(180)의 자동 조작이 원하지 않는 조작이 이루어진 경우, 장치 입력부(160)를 통해 새로운 조작 신호를 생성하도록 입력한다.The user inputs to generate a new operation signal through the device input unit 160 when the automatic operation of the control target device 180 controlled by the control pattern is not desired.

학습/설정 컨트롤 패턴 데이터베이스부(170)는 새로운 조작 제어 신호에 따라 새로운 컨트롤 패턴이 학습되어 사용자 프로파일부(174)에 저장된다.The learning / setting control pattern database unit 170 learns a new control pattern according to a new operation control signal and stores the new control pattern in the user profile unit 174.

사용자 프로파일부(174)는 장치 입력부(160)로부터 수신한 조작 제어 신호를 사용자 정보에 대응되는 컨트롤 패턴으로 설정하여 저장한다.The user profile unit 174 sets the operation control signal received from the device input unit 160 as a control pattern corresponding to the user information and stores the control pattern.

사용자 프로파일부(174)는 사용자 정보와 장치 입력부(160)로부터 수신한 조작 제어 신호에 대해 복수의 출력 신호가 존재하는 경우, 복수의 출력 신호 중 출력 신호가 생성된 빈도수를 나타내는 발생값이 높은 순서에 따라 컨트롤 대상 기기(180)를 선택한다.When a plurality of output signals are present for the user information and the operation control signal received from the device input unit 160, the user profile unit 174 outputs the generated output values The control target device 180 is selected.

사용자 프로파일부(174)는 사용자 정보와 장치 입력부(160)로부터 조작 제어 신호를 수신하는 경우 기설정된 컨트롤 패턴에 따라 컨트롤 대상 기기(180)를 제어하는 출력 신호를 생성한 후, 기설정된 시간동안 장치 입력부(160)로부터 새로운 조작 제어 신호를 수신하지 않는 경우, 즉 사용자가 원하는 조작이 이루어졌다고 판단하고 보상값을 적용하여 해당 출력 신호의 발생값을 재계산하여 갱신한다.When receiving the user information and the operation control signal from the device input unit 160, the user profile unit 174 generates an output signal for controlling the control target device 180 according to a predetermined control pattern, If a new operation control signal is not received from the input unit 160, that is, the user determines that a desired operation has been performed, the generated value of the output signal is recalculated and updated by applying the compensation value.

발생값은 컨트롤 패턴의 발생이 정상적으로 이루어지고 사용자가 원하는 조작으로 판단되면 아래의 [수학식 1]과 같이 보상값을 삽입하여 발생값을 높여서 적합도를 나타낼 수 있다.If the generation of the control pattern is normally performed and it is determined that the operation is desired by the user, the generated value can be expressed by increasing the generated value by inserting the compensation value as shown in Equation (1) below.

Figure 112014111746717-pat00001
Figure 112014111746717-pat00001

여기서, O'는 발생값, O는 기존의 발생값, a는 가중치, r는 보상값을 의미한다.Here, O 'denotes an occurrence value, O denotes an existing occurrence value, a denotes a weight value, and r denotes a compensation value.

예를 들면, 컨트롤 패턴이 TV의 MBC 채널을 온시키는 동작 제어의 발생값이 4, KBS 채널을 온시키는 동작 제어의 발생값이 3인 경우, 발생값이 높은 동작을 수행하게 된다.For example, when the generation value of the operation control for turning on the MBC channel of the TV is 4, and the generation value of the operation control for turning on the KBS channel is 3, the generated value is high.

사용자 프로파일부(174)는 신호 처리부(172)를 통해 컨트롤 대상 기기(180)를 등록하고 사용자가 컨트롤 대상 기기(180)를 이용하는 동안 컨트롤 대상 기기(180)의 사용 시간, 입출력 명령 종류, 다른 컨트롤 대상 기기(180)와의 상호 관계를 포함한 사용자의 컨트롤 패턴을 학습하여 저장하고, 컨트롤 패턴이 기설정된 횟수 이상으로 발생하는 경우, 컨트롤 패턴에 가중치를 부여할 수 있다.The user profile unit 174 registers the control target device 180 through the signal processing unit 172 and controls the use time of the control target device 180, The control pattern of the user including the correlation with the target device 180 is learned and stored. If the control pattern occurs more than a predetermined number of times, the control pattern can be weighted.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

100: 기기 컨트롤 장치
110: 손금감지센서
120: 영상 처리부
130: 저장부
140: 손금 특징 영역 검출부
150: 사용자 인식부
160: 장치 입력부
170: 학습/설정 컨트롤 패턴 데이터베이스부
172: 신호 처리부
174: 사용자 프로파일부
176: 출력 신호 처리부
180: 컨트롤 대상 기기
100: Device control device
110: Hand detection sensor
120:
130:
140: palm feature region detecting section
150:
160:
170: learning / setting control pattern database part
172: Signal processor
174:
176: Output signal processor
180: Control target device

Claims (15)

손바닥의 접촉을 감지하여 손금 영상을 촬영하여 손금 영상 데이터를 획득하는 손금감지센서;
상기 획득한 손금 영상 데이터를 필터링하여 전처리하는 영상 처리부;
상기 전처리된 손금 영상 데이터를 분석하여 상기 손금 영상 데이터의 특징점 데이터를 추출하는 손금 특징 영역 검출부;
상기 추출한 특징점 데이터와 등록된 손금 영상 데이터의 특징점 데이터를 매칭하여 유사도 비교를 통해 사용자 인증을 수행하는 사용자 인식부; 및
상기 사용자 인식부로부터 사용자 인증을 수행한 사용자 정보와 장치 입력부로부터 조작 제어 신호를 수신하고, 상기 사용자 정보에 학습되어 설정된 컨트롤 패턴에 따라 컨트롤 대상 기기를 제어하는 출력 신호를 생성하여 하나 이상의 컨트롤 대상 기기로 전송하는 학습/설정 컨트롤 패턴 데이터베이스부를 포함하며,
상기 학습/설정 컨트롤 패턴 데이터베이스부는,
상기 출력 신호가 생성된 빈도수를 나타내는 발생값을 산출하는 사용자 프로파일부를 포함하며,
상기 사용자 프로파일부는 상기 사용자 정보와 상기 조작 제어 신호를 수신하여 기설정된 컨트롤 패턴에 따라 컨트롤 대상 기기를 제어하는 출력 신호를 생성한 후, 기설정된 시간 동안 상기 장치 입력부로부터 새로운 조작 제어 신호를 수신하지 않는 경우, 상기 발생값에 보상값을 적용하고, 상기 컨트롤 패턴에 따른 컨트롤 대상 기기를 제어하는 출력 신호가 기설정된 횟수 이상으로 발생하는 경우, 상기 발생값에 가중치를 적용하여, 기존의 발생값에 가중치와 보상값을 모두 적용하여 계산하는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치.
A palm detection sensor for sensing the touch of the palm and capturing the palm image to acquire palm image data;
An image processor for filtering and pre-processing the palm image data;
A palm feature region detecting unit for analyzing the preprocessed palm image data and extracting the feature point data of the palm image data;
A user recognition unit for matching the extracted feature point data with the feature point data of the registered palm image data and performing user authentication through comparison of similarity; And
And an output signal for controlling the control target device in accordance with the control pattern learned in the user information and generating the output signal for controlling the control target device, And a learning / setting control pattern database unit for transmitting the learning /
The learning / setting control pattern database unit,
And a user profile section for calculating an occurrence value indicating the frequency at which the output signal is generated,
Wherein the user profile unit receives the user information and the operation control signal to generate an output signal for controlling the control target device according to a predetermined control pattern and then receives a new operation control signal from the device input unit for a predetermined time A control unit configured to apply a compensation value to the generated value and to apply a weight to the generated value when an output signal for controlling the control target device according to the control pattern occurs more than a predetermined number of times, Based on user identification information, which is calculated by applying both the compensation value and the compensation value.
제1항에 있어서,
상기 학습/설정 컨트롤 패턴 데이터베이스부는 상기 사용자 정보에 따라 각각 다른 컨트롤 패턴이 생성되며, 상기 컨트롤 대상 기기의 조작이 사용자가 원하지 않는 조작이 이루어진 경우, 상기 장치 입력부로부터 새로운 조작 제어 신호를 수신하며, 상기 새로운 조작 제어 신호에 따라 새로운 컨트롤 패턴이 학습되어 설정되는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치.
The method according to claim 1,
Wherein the learning / setting control pattern database unit receives a new operation control signal from the device input unit when different control patterns are generated according to the user information and the operation of the control target device is performed by an operation that the user does not want, A device control device using palm-based user recognition information in which a new control pattern is learned and set according to a new operation control signal.
제1항에 있어서,
상기 학습/설정 컨트롤 패턴 데이터베이스부는 상기 장치 입력부로부터 수신한 조작 제어 신호를 상기 사용자 정보에 대응되는 컨트롤 패턴으로 설정하여 저장하는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치.
The method according to claim 1,
Wherein the learning / setting control pattern database unit sets and stores an operation control signal received from the device input unit in a control pattern corresponding to the user information.
제1항에 있어서,
상기 학습/설정 컨트롤 패턴 데이터베이스부는 상기 사용자 정보와 상기 장치 입력부로부터 수신한 조작 제어 신호에 대해 복수의 출력 신호가 존재하는 경우, 상기 복수의 출력 신호 중 상기 발생값이 높은 순서에 따라 상기 컨트롤 대상 기기를 선택하는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치.
The method according to claim 1,
Wherein the learning / setting control pattern database unit is configured to control the learning / setting control pattern database unit based on the user information and the operation control signal received from the device input unit, when a plurality of output signals exist, A device control device using palm-based user identification information.
삭제delete 제1항에 있어서,
상기 손금감지센서는 상기 손금 영상의 촬영시 상기 손금의 분할 지정에 따라 소정의 순서로 부위를 지정하여 특정 부위의 위치의 손금 영상을 촬영하여 획득하고, 상기 손금 특징 영역 검출부는 상기 특정 부위의 위치의 손금 영상 데이터의 특징점 데이터를 추출하는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치.
The method according to claim 1,
Wherein the palm detection sensor captures and acquires a palm image at a position of a specific region by designating the region in a predetermined order in accordance with the division designation of the palm when photographing the palm image, A device control device using palm-based user recognition information for extracting minutia data of palm image data.
제1항에 있어서,
상기 학습/설정 컨트롤 패턴 데이터베이스부는 상기 사용자 정보에 매칭되도록 상기 컨트롤 대상 기기를 등록하고, 상기 컨트롤 대상 기기의 사용 시간, 입출력 명령 종류, 다른 컨트롤 대상 기기와의 상호 관계를 포함한 사용자의 컨트롤 패턴을 학습하여 저장하는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치.
The method according to claim 1,
The learning / setting control pattern database unit registers the control target device to match the user information, and learns the control pattern of the user including the use time of the control target device, the type of input / output command, Device control device using palm-based user identification information.
제1항에 있어서,
상기 영상 처리부는 상기 손금 영상 데이터를 흑백 영상 데이터로 변환하고 상기 흑백 영상 데이터의 윤곽선을 추출하기 위하여 프리윗(Prewitt) 마스크를 적용하여 손금 영상 데이터의 윤곽선을 추출하고, 손금 이외의 잡선을 제거하는 메디안 필터링(Median Filtering)을 수행하며, 상기 필터링된 손금 영상 데이터를 이진화 과정을 수행하는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치.
The method according to claim 1,
The image processor converts the palm image data into monochrome image data, extracts the contour of the palm image data by applying a prewitt mask to extract the contour of the monochrome image data, Based user identification information for performing median filtering and binarizing the filtered palm image data.
손금감지센서가 손바닥의 접촉을 감지하여 손금 영상을 촬영하여 손금 영상 데이터를 획득하는 단계;
영상처리부가 상기 획득한 손금 영상 데이터를 필터링하여 전처리하는 단계;
손금 특징 영역 검출부가 상기 전처리된 손금 영상 데이터를 분석하여 상기 손금 영상 데이터의 특징점 데이터를 추출하는 단계;
사용자 인식부가 상기 추출한 특징점 데이터와 등록된 손금 영상 데이터의 특징점 데이터를 매칭하여 유사도 비교를 통해 사용자 인증을 수행하는 단계;
학습/설정 컨트롤 패턴 데이터베이스부가 상기 사용자 인증을 수행한 사용자 정보와 장치 입력부로부터 조작 제어 신호를 수신하는 단계;
학습/설정 컨트롤 패턴 데이터베이스부가 상기 사용자 정보에 학습되어 설정된 컨트롤 패턴에 따라 컨트롤 대상 기기를 제어하는 출력 신호를 생성하여 하나 이상의 컨트롤 대상 기기로 전송하는 단계; 및
학습/설정 컨트롤 패턴 데이터베이스부가 상기 출력 신호가 생성된 빈도수를 나타내는 발생값을 산출하는 단계를 포함하며,
상기 발생값은 상기 사용자 정보와 상기 조작 제어 신호를 수신하여 기설정된 컨트롤 패턴에 따라 컨트롤 대상 기기를 제어하는 출력 신호를 생성한 후, 기설정된 시간 동안 상기 장치 입력부로부터 새로운 조작 제어 신호를 수신하지 않는 경우, 보상값이 적용되고, 상기 컨트롤 패턴에 따른 컨트롤 대상 기기를 제어하는 출력 신호가 기설정된 횟수 이상으로 발생하는 경우, 가중치가 적용되어, 기존의 발생값에 가중치와 보상값을 모두 적용하여 계산되는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 방법.
Detecting a palm contact by the palm detection sensor and capturing a palm image to obtain palm image data;
Filtering the obtained palm image data and preprocessing the palm image data;
Extracting feature point data of the palm image data by analyzing the preprocessed palm image data by a palm feature region detecting unit;
The user recognition unit matching the extracted feature point data with the feature point data of the registered palm image data and performing user authentication through the similarity comparison;
The learning / setting control pattern database receiving the user information that has performed the user authentication and the operation control signal from the device input unit; And
Generating and outputting an output signal for controlling the control target device in accordance with the control pattern set by the learning / setting control pattern database learned in the user information, and transmitting the output signal to at least one control target device; And
The learning / setting control pattern database unit calculating an occurrence value indicating the frequency at which the output signal is generated,
Wherein the generated value is generated by receiving the user information and the operation control signal and generating an output signal for controlling the control target device according to a predetermined control pattern and then not receiving a new operation control signal from the device input unit for a predetermined time The compensation value is applied, and when an output signal for controlling the control target device according to the control pattern occurs more than a preset number of times, a weight is applied, and both the weight and the compensation value are applied to the existing generated value A device control method using palm-based user identification information.
제9항에 있어서,
상기 컨트롤 대상 기기로 전송하는 단계는,
상기 사용자 정보에 따라 각각 다른 컨트롤 패턴이 생성되며, 상기 컨트롤 대상 기기의 조작이 사용자가 원하지 않는 조작인 경우, 상기 장치 입력부로부터 새로운 조작 제어 신호를 수신하며, 상기 새로운 조작 제어 신호에 따라 새로운 컨트롤 패턴이 학습되어 설정되는 단계
를 더 포함하는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 방법.
10. The method of claim 9,
The method of claim 1,
And a control unit configured to receive a new operation control signal from the device input unit when the operation of the control target apparatus is an operation that is not desired by the user and to generate a new control pattern according to the new operation control signal, The step of learning and setting
Based user identification information, which further comprises a palm-based user identification information.
제9항에 있어서,
상기 컨트롤 대상 기기로 전송하는 단계는,
상기 사용자 정보와 상기 장치 입력부로부터 수신한 조작 제어 신호에 대해 복수의 출력 신호가 존재하는 경우, 상기 복수의 출력 신호 중 상기 발생값이 높은 순서에 따라 상기 컨트롤 대상 기기를 선택하는 단계
를 포함하는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 방법.
10. The method of claim 9,
The method of claim 1,
When the plurality of output signals exist for the user information and the operation control signal received from the device input unit, selecting the control target device in the ascending order of the generated values of the plurality of output signals
A device control method using palm-based user identification information.
삭제delete 제9항에 있어서,
상기 손금 영상의 촬영시 상기 손금의 분할 지정에 따라 소정의 순서로 부위를 지정하여 상기 손금 영상을 서로 다른 크기와 위치를 갖는 다수개의 영역으로 분할하여 촬영하는 단계; 및
상기 분할된 영역별 각각의 손금 영상 데이터의 특징점을 추출하는 단계
를 포함하는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 방법.
10. The method of claim 9,
Dividing the palm image into a plurality of regions having different sizes and positions and designating the region in a predetermined order in accordance with the division designation of the palm when photographing the palm image; And
Extracting minutiae points of each palm image data for each of the divided regions
A device control method using palm-based user identification information.
제9항에 있어서,
상기 컨트롤 대상 기기로 전송하는 단계는,
상기 장치 입력부로부터 수신한 조작 제어 신호를 상기 사용자 정보에 대응되는 컨트롤 패턴으로 설정하여 저장하는 단계
를 포함하는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 방법.
10. The method of claim 9,
The method of claim 1,
Setting an operation control signal received from the apparatus input unit as a control pattern corresponding to the user information and storing
A device control method using palm-based user identification information.
제9항에 있어서,
상기 컨트롤 대상 기기로 전송하는 단계는,
상기 사용자 정보에 매칭되도록 상기 컨트롤 대상 기기를 등록하고, 상기 컨트롤 대상 기기의 사용 시간, 입출력 명령 종류, 다른 컨트롤 대상 기기와의 상호 관계를 포함한 사용자의 컨트롤 패턴을 학습하여 저장하는 단계
를 포함하는 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 방법.
10. The method of claim 9,
The method of claim 1,
Registering the control target device so as to match the user information and learning and storing a control pattern of the user including the use time of the control target device, the type of input / output command, and the relationship with other control target devices
A device control method using palm-based user identification information.
KR1020140162001A 2014-11-19 2014-11-19 Device Control Unit and Method Using User Recognition Information Based on Palm Print Image KR101601187B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140162001A KR101601187B1 (en) 2014-11-19 2014-11-19 Device Control Unit and Method Using User Recognition Information Based on Palm Print Image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140162001A KR101601187B1 (en) 2014-11-19 2014-11-19 Device Control Unit and Method Using User Recognition Information Based on Palm Print Image

Publications (1)

Publication Number Publication Date
KR101601187B1 true KR101601187B1 (en) 2016-03-08

Family

ID=55534629

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140162001A KR101601187B1 (en) 2014-11-19 2014-11-19 Device Control Unit and Method Using User Recognition Information Based on Palm Print Image

Country Status (1)

Country Link
KR (1) KR101601187B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599575A (en) * 2016-12-13 2017-04-26 江苏富士通通信技术有限公司 Medical service identity authentication method, device and system
CN110456927A (en) * 2019-08-13 2019-11-15 腾讯科技(深圳)有限公司 Operation mapping method, device and the computer equipment of equipment room
CN112017350A (en) * 2020-08-28 2020-12-01 广东电网有限责任公司 Access control system and access control equipment
CN113052154A (en) * 2019-12-26 2021-06-29 京东方科技集团股份有限公司 Skin texture data acquisition device and acquisition method and display device thereof
KR102577276B1 (en) * 2022-03-16 2023-09-08 한국교통대학교산학협력단 Palm information-based multi dimensional biometric authentification apparatus, and control, method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140055239A (en) * 2012-10-31 2014-05-09 삼성전자주식회사 Agent apparatus, electrical apparatus and method for controlling the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140055239A (en) * 2012-10-31 2014-05-09 삼성전자주식회사 Agent apparatus, electrical apparatus and method for controlling the same

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
손덕진, 장문인식을 위한 영상처리 및 특징 추출 방법, 전자컴퓨터공학 석사학위 논문, 고려대학교 공학대학원, 2005.8.* *
전선배, 個人識別을 위한 손바닥의 映像處理와 패턴認識, 전자공학 박사학위 논문, 동아대학교 대학원, 1993.2.* *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599575A (en) * 2016-12-13 2017-04-26 江苏富士通通信技术有限公司 Medical service identity authentication method, device and system
CN110456927A (en) * 2019-08-13 2019-11-15 腾讯科技(深圳)有限公司 Operation mapping method, device and the computer equipment of equipment room
CN113052154A (en) * 2019-12-26 2021-06-29 京东方科技集团股份有限公司 Skin texture data acquisition device and acquisition method and display device thereof
CN112017350A (en) * 2020-08-28 2020-12-01 广东电网有限责任公司 Access control system and access control equipment
KR102577276B1 (en) * 2022-03-16 2023-09-08 한국교통대학교산학협력단 Palm information-based multi dimensional biometric authentification apparatus, and control, method thereof

Similar Documents

Publication Publication Date Title
US11188734B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10339362B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
CN110326001B (en) System and method for performing fingerprint-based user authentication using images captured with a mobile device
US11263432B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US9633269B2 (en) Image-based liveness detection for ultrasonic fingerprints
KR101601187B1 (en) Device Control Unit and Method Using User Recognition Information Based on Palm Print Image
Kumar Can we use minor finger knuckle images to identify humans?
Hemalatha A systematic review on Fingerprint based Biometric Authentication System
JP2009523265A (en) Method for extracting iris features in an image
Rahman et al. Person identification using ear biometrics
JP2007188504A (en) Method for filtering pixel intensity in image
Sagayam et al. Authentication of biometric system using fingerprint recognition with euclidean distance and neural network classifier
KR20160037305A (en) Method for User Authentication using Fingerprint Recognition
Donida Labati et al. A scheme for fingerphoto recognition in smartphones
Carney et al. A multi-finger touchless fingerprinting system: Mobile fingerphoto and legacy database interoperability
Oblak et al. Fingermark quality assessment framework with classic and deep learning ensemble models
Panetta et al. LQM: Localized quality measure for fingerprint image enhancement
KR101767051B1 (en) Method and apparatus for extracting finger vein image based on fuzzy inference
Hasan et al. Dual iris matching for biometric identification
KR101603890B1 (en) Device Control Unit and Method Using User Recognition Information Based on Hand Grip Shape Image
Palma et al. A dynamic algorithm for palmprint recognition
Indi et al. Person identification based on multi-biometric characteristics
Sahu et al. Fingerprint Identification System using Tree based Matching
Ibrahim et al. Evaluation on palm-print ROI selection techniques for smart phone based touch-less biometric system
Talele et al. Study of local binary pattern for partial fingerprint identification

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190304

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200302

Year of fee payment: 5