KR100706000B1 - 장문인증방법 및 그 장치 - Google Patents

장문인증방법 및 그 장치 Download PDF

Info

Publication number
KR100706000B1
KR100706000B1 KR1020050108476A KR20050108476A KR100706000B1 KR 100706000 B1 KR100706000 B1 KR 100706000B1 KR 1020050108476 A KR1020050108476 A KR 1020050108476A KR 20050108476 A KR20050108476 A KR 20050108476A KR 100706000 B1 KR100706000 B1 KR 100706000B1
Authority
KR
South Korea
Prior art keywords
image
main line
gray
length
main
Prior art date
Application number
KR1020050108476A
Other languages
English (en)
Inventor
고한석
손덕진
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020050108476A priority Critical patent/KR100706000B1/ko
Application granted granted Critical
Publication of KR100706000B1 publication Critical patent/KR100706000B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 발명은 장문인증 방법 및 그 장치에 관한 것이다.
본 발명에 따른 장문인증방법은 (a) 소정의 손바닥을 촬영한 칼라영상을 입력받은 단계, (b) 상기 칼라영상으로 부터 알지비(RGB) 영상을 분리하고, 상기 알지비(RGB) 영상으로부터 블루(BLUE) 영상을 분리하는 단계, (c) 상기 블루영상으로부터 주선의 길이, 방향, 개수 중 어느 하나를 포함하는 주선정보를 추출하는 단계, (d) 상기 주선정보를 길이 순으로 정렬시키는 단계 및 (e) 상기 주선정보를 저장하는 단계를 포함하는 것을 특징으로 한다.
본 발명에 따르면 사람마다 다양한 모양을 갖는 여러 형태의 주선 모양에도 영향을 받지 않으며, 손바닥을 촬영한 영상의 이동, 회전 및 조명 등의 주위환경에 영향을 받지 않고 신뢰성있는 장문인증이 가능하도록 하는 효과가 있다.

Description

장문인증방법 및 그 장치{Hand Geometry Recognition method and apparatus therefor}
도 1은 일반적인 장문등록 및 인증시스템의 개염을 설명하는 참고도이다.
도 2는 종래의 장문에서 3개의 주선을 추출하는 방법을 설명하는 참고도이다.
도 3은 장문의 여러 유형을 보이는 참고도이다.
도 4는 종래의 장문의 주선을 추출하는 위치를 설명하는 참고도이다.
도 5는 본 발명에 따른 장문의 주선을 추출하는 과정을 설명하는 참고도이다.
도 6은 본 발명에서 명암 및 색상을 채취하는 주선 및 주선주변의 채취점을 설명하는 참고도이다.
도 7은 본 발명에 따라 채취한 주선 및 주선주변의 확대된 영상 및 상기 영상들의 명암 및 색분포를 보이고 있다.
도 8은 본 발명에 따른 주선추출 방법을 설명하는 참고도이다.
도 9는 본 발명에 따라 주선을 추적하는 필터를 보이고 있다.
도 10은 본 발명에 따른 주선 검색의 예를 보이고 있다.
도 11은 그레이 영상을 이용한 주선추출실험을 설명하는 참고도이다.
도 12는 레드 영상을 이용한 주선추출 실험을 설명하는 참고도이다.
도 13은 그린 영상을 이용한 주선추출 실험을 설명하는 참고도이다.
도 14는 블루 영상을 이용한 주선추출 실험을 설명하는 참고도이다.
도 15는 그레이, 레드, 그린 및 블루 영상을 이용한 주선추출 실험결과를 비교하여 보여주는 참고도이다.
도 16은 그레이 영상을 이용한 다른 주선추출실험을 설명하는 참고도이다.
도 17은 본 발명에 따른 블루-그레이 영상을 이용한 주선추출 실험을 설명하는 참고도이다.
도 18은 그레이 영상과 블루-그레이 영상을 이용한 주선추출 실험결과를 비교하여 보여주고 있다.
도 19는 본 발명에 따른 표준영상에서의 주선검색 실험의 참고도이다.
도 20은 본 발명에 따른 X축 및 Y축으로 이동된 영상에서의 주선검색 실험의 참고도이다.
도 21은 본 발명에 따른 장문의 주선추출 및 그 인증방법의 바람직한 실시예의 순서도이다.
도 22는 본 발명에 따른 도 21의 블루영상을 전처리하는 과정의 바람직한 실시예의 순서도이다.
도 23은 본 발명에 따른 주선검출 과정의 바람직한 실시예의 순서도이다.
도 24는 본 발명에 따른 장문인증장치의 바람직한 실시예의 블록구성도이다.
본 발명은 장문인증 방법 및 그 장치에 관한 것이다.
도 1은 일반적인 장문등록 및 인증 시스템으로, 인증을 위하여 사전에 손 모양과 장문을 추출하여 정보를 조합 후 DB에 등록하고, 인증을 필요로 하는 상황에서 인증대상자의 손 모양 및 장문을 추출하여 정보를 조합 후 DB에 등록되어 있는 데이터와 비교를 하여 인증을 처리하는 알고리즘을 보여주고 있다.
그런데 사전에 등록된 DB값과 비교하는 알고리즘은 다른 생체인식에서 일반적으로 사용하는 방식과 유사하므로, 종래의 장문인식이 다른 생체인식( 예를 들면 지문 등 )보다 오인식율이 높은 것은 결국 DB값을 비교하는 알고리즘에서 발생하는 문제라기보다는 장문을 인식하고 처리하는 과정에서의 문제라고 할 수 있다.
지금까지는 생체인식을 하는 과정에서(특히 지문이나 장문 추출에서) 특징 추출과 빠른 전처리 과정을 위하여 보통은 24bit 칼라(Color) 영상을 8bit 그레이(gray)로 처리를 하게 되는데, 이것은 어떤 영상( 지문영상 또는 장문영상 등)의 주요 특징을 추출하는데 있어서 색 분포 자체가 가지는 의미가 크지 않는 것으로 판단이나, 이는 칼라영상이 가지는 특성을 무시한 잘못된 것이었다.
인간의 손바닥은 3개의 주선(생명선, 두뇌선, 성격선)이 있으며, 그 외에 사람에 따라서 운명선, 태양선, 건강선 등 많은 선들이 존재한다. 기존의 방법에서는 3개의 주선을 추출하는 방법을 사용하였는데, 이러한 경우 개인의 특성에 따라 성격선 등의 일부가 추출이 않되거나 또는 태양선 등 개인차의 주선이 빠져서, 본인을 타인으로 인식하거나 타인을 본인으로 인식하는 오인식율이 높은 문제점이 있었다.
도 2는 기존 방법인 3개의 주선추출 방법을 보이고 있다.
도 2에서 A는 생명선으로 P1에서 시작하여 P2에서 끝나는 선으로 좌측 및 상측 방향성분이고, B는 두뇌 선으로 P4에서 시작하여 P3에서 끝나는 선으로 좌측 및 상측 방향성분이 있으며, C는 성격 선으로 P6에서 시작하여 P5에서 끝나는 선으로 좌측 및 상측 방향성분이 있다.
도 3은 사람들의 여러 가지 장문의 유형을 보이고 있다. 여기서 (a)는 성격선은 희미하게 존재하고 두뇌선이 확장되어 우측 중앙으로 이어져 일반적인 특징인 성격선 시작점으로 이어져 있는 유형, (b)는 두뇌선과 성격선이 생명선과 분기점이 없이 중앙에 미약하게 나타나 있는 유형, (c)는 생명선, 두뇌선, 성격선과 대각선 혹은 나란히 하는 방향으로 운명선이 나타나 있는 유형, (d)는 일반적인 형태의 장문이지만, 생명선과 두뇌선이 같이 작하여 분기되는 형태가 아니라 각기 독립적으로 시작하는 특징을 보이고 있는 유형을 보이고 있다. 뒤 도 3의 장문모양을 분석하여 보면, 장문들의 그 시작점과 끝나는 위치나 크기, 주선의 갯수, 분기점 등이 조금씩 모두 다른 특성을 보인다. 따라서 도 4와 같은 기존의 방법인 손바닥의 우측중앙과 좌측 중앙에서 시작하여 3개의 주선(생명선, 두뇌선, 성격선)을 추출한다는 것은 잘못된 것임을 알 수가 있었다.
본 발명이 이루고자 하는 기술적 과제는 장문인증 방법 및 그 장치를 제공하는데 있다.
상기 문제점을 해결하기 위한 본 발명에 따른 장문인증방법은 (a) 소정의 손바닥을 촬영한 칼라영상을 입력받은 단계, (b) 상기 칼라영상으로 부터 알지비(RGB) 영상을 분리하고, 상기 알지비(RGB) 영상으로부터 블루(BLUE) 영상을 분리하는 단계, (c) 상기 블루영상으로부터 주선의 길이, 방향, 개수 중 어느 하나를 포함하는 주선정보를 추출하는 단계, (d) 상기 주선정보를 길이 순으로 정렬시키는 단계 및 (e) 상기 주선정보를 저장하는 단계를 포함하는 것을 특징으로 한다.
또한 상기 본 발명에 따른 장문인증방법은 (f) 소정의 다른 손바닥을 촬영한 칼라영상을 입력받아 상기 (b) 단계 내지 (d) 단계를 수행하는 단계 및 (g) 상기 다른 손바닥을 촬영한 칼라영상으로부터 추출된 주선정보와 미리 저장되어 있던 주선정보가 일치하는지 여부를 확인하여 일치하는 경우 이를 인증하는 단계를 더 포함하는 것을 특징으로 할 수 있다.
또한 상기 본 발명에 따른 장문인증방법의 상기 (c) 단계는 (c1) 상기 블루영상을 그레이 처리하여 그레이 영상으로 변환시키는 단계, (c2) 상기 그레이 영상의 밝기를 상기 칼라영상을 곧바로 그레이 처리한 경우의 그레이 영상의 밝기로 변환시키는 단계, (c3) 상기 그레이 영상을 프리윗 마스크 필터 처리하는 단계, (c4) 상기 프리윗 마스크 필터 처리된 영상을 이중임계처리하여 상기 그레이 영상의 주선의 끊김을 방지하는 단계, (c5) 상기 이중임계처리된 영상을 클로징 처리하는 단계, (c6) 상기 클로징 처리된 영상을 중간값 필터링( Median filtering ) 하여 상기 주선을 부드럽게 하는 단계 및 (c7) 상기 중간값 필터링된 영상을 세선화( thinning ) 처리하는 단계를 포함하는 것을 특징으로 할 수 있다.
또한 상기 본 발명에 따른 장문인증방법의 상기 (c5)의 이중임계처리는 다음 수학식
Figure 112007003442767-pat00030
에 의하되, f(x,y)는 이중임계처리 전 영상의 각 좌표에 해당하는 명암값을 의미하며, g(x,y)는 이중임계처리 후 영상의 각 좌표에 해당하는 이중임계처리값을 의미하고, t0, t1 및 t2는 각각 이중임계처리에 필요한 임계값을 나타낸다.
또한 상기 본 발명에 따른 장문인증방법은 (c8) 상기 세선화 처리된 영상의 좌측하단지점부터 우측상단의 방향으로 이동하면서 주선을 검색하는 단계, (c9) 상기 검색결과 주선이 검색되었으면, 상기 주선이 검색된 지점으로부터 상기 영상의 좌측상단 방향의 끝까지 상기 주선을 추적하는 단계, (c10) 상기 좌측상단 방향의 주선의 방향 및 길이를 계산하여 이를 저장하는 단계, (c11) 상기 주선이 검색된 지점으로부터 상기 영상의 우측하단 방향의 끝까지 상기 주선을 추적하는 단계, (c12) 상기 우측하단 방향의 주선의 방향 및 길이를 계산하여 이를 저장하는 단계 및 (c13) 상기 좌측상단방향의 주선의 방향 및 길이 정보와 상기 우측하단방향의 주선의 방향 및 길이 정보를 기초로 주선 전체의 방향 및 길이정보를 생성시켜 이를 저장하는 단계를 포함하는 것을 특징으로 할 수 있다.
또한 상기 본 발명에 따른 장문인증방법은 (c14) 주선검색이 완료되었는지 여부를 판단하여 그렇지 않은 경우에는 상기 (c8) 단계로 이동하는 단계를 더 포함하는 것을 특징으로 할 수 있으며, 상기 (c8) 단계에서 주선을 검색하는 방향은 다음 수학식 T = [(Xn+1, Y), (X, Yn-1)]에 의하되, X 및 Xn은 상기 영상의 가로축 방향의 픽셀번호를, Y 및 Yn은 세로축 방향의 픽셀번호를 의미하는 것을 특징으로 할 수 있고, 상기 (c9) 단계는 다음 수학식 P°(X, Y) = P(Xc, Yc) 이고, P(Xc, Yc) = I(x,y)·F 이며, F = [f(x-1,y-1), f(x-1,y), f(x, y-1)]에 의하되, 여기서, P°(X, Y)는 다음 추적에 필요한 초기좌표 이며, P(Xc, Yc)는 새로운 이동 좌표이고, I는 입력영상이며, F는 검색필터(Filter)를 의미하고, F는 방향값인 것을 특징으로 할 수도 있다.
또한 상기 본 발명에 따른 장문인증방법의 상기 (c10) 단계는 상기 좌측상향 방향의 주선의 길이는 상기 주선을 구성하는 픽셀수의 합이며, 상기 주선의 방향은 추적의 초기좌표로부터 주선을 구성하는 픽셀의 위치가 좌측 45도 대각선 방향인 경우에는 135도, 좌측 수평방향인 경우는 180도, 수직상부방향인 경우에는 90도로 하되 각 방향의 픽셀의 숫자 중 가장 많은 수의 픽셀의 방향을 상기 주선의 방향으로 하는 것을 특징으로 할 수 있다.
상기 문제점을 해결하기 위한 본 발명에 따른 장문인증장치는 소정의 손바닥을 촬영한 칼라영상을 입력받은 칼라영상 입력부, 상기 칼라영상 입력부로부터 상기 칼라영상을 제공받아, 상기 칼라영상으로 부터 알지비(RGB) 영상을 분리하고, 상기 알지비(RGB) 영상으로부터 블루(BLUE) 영상을 분리하는 블루영상 분리부, 상기 블루영상 분리부로부터 상기 블루영상을 제공받아, 상기 블루영상으로부터 주선의 길이, 방향, 개수 중 어느 하나를 포함하는 주선정보를 추출하는 주선추출부, 상기 주선정보를 길이 순으로 정렬시키는 주선정보 정렬부 및 상기 주선정보를 저장하는 주선정보 관리부를 포함하는 것을 특징으로 한다.
또한 상기 본 발명에 따른 장문인증장치는 상기 주선추출부로부터 소정의 주 선정보를 제공받고, 미리 저장되어 있던 주선정보와 상기 제공받은 주선정보가 일치하는지 여부를 확인하여 일치하는 경우 이를 인증하는 장문인증부를 더 포함하는 것을 특징으로 할 수 있으며, 상기 주선추출부는 상기 블루영상을 그레이 처리하여 그레이 영상으로 변환시킨 후 상기 그레이 영상의 밝기를 상기 칼라영상을 곧바로 그레이 처리한 경우의 그레이 영상의 밝기로 변환시키는 그레이 영상부, 상기 그레이 영상부로부터 상기 그레이 영상을 제공받아, 상기 그레이 영상을 프리윗 마스크 필터 처리한 후, 상기 프리윗 마스크 필터 처리된 영상을 이중임계처리하여 상기 그레이 영상의 주선의 끊김을 방지하고, 상기 이중임계처리된 영상을 클로징 처리하고, 상기 클로징 처리된 영상을 중간값 필터링( Median filtering ) 하여 상기 주선을 부드럽게 한 후 상기 중간값 필터링된 영상을 세선화( thinning ) 처리하는 세선화 처리부를 포함하는 것을 특징으로 할 수 있다.
또한 상기 본 발명에 따른 장문인증장치의 상기 세선화 처리부의 이중임계처리는 다음 수학식
Figure 112007003442767-pat00031
에 의하되, 여기서 f(x,y)는 이중임계처리 전 영상의 각 좌표에 해당하는 명암값을 의미하며, g(x,y)는 이중임계처리 후 영상의 각 좌표에 해당하는 이중임계처리값을 의미하고, t0, t1 및 t2는 각각 이중임계처리에 필요한 임계값을 의미한다. 그리고, 세선화 처리부로부터 상기 세선화 처리된 영상을 제공받고, 상기 세선화 처리된 영상의 좌측하단지점부터 우측상단의 방향으로 이동하면서 주선을 검색하는 주선 검출부, 상기 주선 검출부로부터 상기 주선이 검색된 지점을 제공받고, 상기 주선이 검색된 지점으로부터 상기 영상의 좌측상단 방향의 끝까지 상기 주선을 추적한 후, 상기 좌측상단 방향의 주선의 방향 및 길이를 계산하여 이를 저장하는 좌측상단 주선 검색부, 상기 주선 검출부로부터 상기 주선이 검색된 지점을 제공받고, 상기 주선이 검색된 지점으로부터 상기 영상의 우측하단 방향의 끝까지 상기 주선을 추적한 후, 상기 우측하단 방향의 주선의 방향 및 길이를 계산하여 이를 저장하는 우측하단 주선 검색부 및 상기 좌측상단 주선검색부로부터 상기 좌측상단방향의 주선의 방향 및 길이를 제공받고, 상기 우측하단 주선검색부로부터 상기 우측하단방향의 주선의 방향 및 길이를 제공받은 후, 상기 좌측상단방향의 주선의 방향 및 길이 정보와 상기 우측하단방향의 주선의 방향 및 길이 정보를 기초로 주선 전체의 방향 및 길이정보를 생성시켜 이를 저장하는 주선정보 생성부를 포함하는 것을 특징으로 할 수도 있다.
또한 상기 본 발명에 따른 장문인증장치의 상기 좌측상단 주선 검색부가 주선을 검색하는 방향은 다음 수학식 T = [(Xn+1, Y), (X, Yn-1)]에 의하되, X 및 Xn은 상기 영상의 가로축 방향의 픽셀번호를, Y 및 Yn은 세로축 방향의 픽셀번호를 의미하는 것을 특징으로 할 수 있으며, 상기 좌측상단 주선검색부의 주선 검색은 다음 수학식 P°(X, Y) = P(Xc, Yc) 이고, P(Xc, Yc) = I(x,y)·F 이며, F = [f(x-1,y-1), f(x-1,y), f(x, y-1)]에 의하되, 여기서, P°(X, Y)는 다음 추적에 필요한 초기좌표 이며, P(Xc, Yc)는 새로운 이동 좌표이고, I는 입력영상이며, F는 검색필터(Filter)를 의미하고, F는 방향값인 것을 특징으로 할 수 있고, 상기 좌측상단 주선검색부가 상기 주선의 길이 및 방향을 계산하는 것은 상기 좌측상향 방향의 주선의 길이는 상기 주선을 구성하는 픽셀수의 합으로 하며, 상기 주선의 방향은 추 적의 초기좌표로부터 주선을 구성하는 픽셀의 위치가 좌측 45도 대각선 방향인 경우에는 135도, 좌측 수평방향인 경우는 180도, 수직상부방향인 경우에는 90도로 하되 각 방향의 픽셀의 숫자 중 가장 많은 수의 픽셀의 방향을 상기 주선의 방향으로 하는 것을 특징으로 할 수도 있다.
이하에서는 본 발명의 원리를 상세히 설명한다.
앞서 논한 바와 같이 생체인식시스템은 DB화하고 추출정보를 비교하는 알고리즘은 대부분 동일하므로 DB화하기 이전에 대한 시스템 처리 과정이 중요하다.
도 5는 본 발명에 따른 손바닥의 영상처리를 통한 주선추출 과정을 설명하는 참고도이다. 손바닥의 영상에서 손금으로 구분되는 성분은 밝기보다는 알지비(RGB)로 분리하였을 때의 색 농도의 차가 더 큰 결과에 의하여 손바닥 영상을 획득 후 블루(BLUE)영상만을 분리하여 그레이(GRAY)영상으로 변환을 하고 다시 주선추출을 위한 과정을 거처 주선만 추출된 영상을 얻는다. 다음으로 획득된 주선에서 인증에 필요한 데이터만을 검색하여 DB화하는 과정을 보이고 있다.
손바닥 영상에서 인간의 눈으로 주선주변과 주선이 구분되어 보여 지는 이유를 찾기 위하여 도 6의 주선 및 주선주변의 명암과 색 분포에 대하여 분석을 하였다.
주선주변과 주선의 채취된 영상을 확대하여 명암 및 각각의 칼라(Color)별 8 bit 색 분포를 도 7의 (a)와 같이 측정하였고, 8bit로 측정된 명암 및 칼라(Color)별 색 분포를 도 7의 (b)와 같이 분석한 결과 단순히 그레이(Gray)영상처리를 하였을 때 명암의 차이보다는 블루(BLUE) 색 분포에 의한 차이가 큰 것으로 나타났다.( 여기서 변화량 = A - B, 변화율 = ( 변화량 / A ) * 100 이다.)
그리고 주선주변과 주선에 대한 알지비(RGB) 및 그레이(GRAY)에 대하여 색 성분 및 명암분석을 하는 방법을 이용하여 도 7의 (c)와 같은 결과를 얻을 수 있었다. 도 7의 (c)의 결과에 의하여 주선과 주선주변에 대한 변화량의 크기는 블루(BLUE), 그린(GREEN), 그레이(GRAY), 레드(RED)의 순으로 나타났다. 또한 그레이(GRAY) 성분 값은 각각의 알지비(RGB)의 명암 성분이 더해진 것을 알 수 있었다.
수학식 1은 이를 계산식으로 표현한 것이다.
G = R + Gr + Bl
여기서 G는 그레이 명암성분, R은 레드 명암성분, Gr은 그린 명암성분, Bl은 블루 명암성분을 나타낸다.
따라서 그레이 영상을 분석할 때에는 각각의 알지비(RGB)명암성분을 이용하고, 특징 값 추출을 위하여 그레이(GRAY)보다는 블루(BLUE)영상을 이용하는 것이 유리한 것을 알 수 있었다. 그러나 블루(BLUE)영상은 주선주변의 밝은 부분의 명암 값은 16, 주선의 어두운 부분의 명암 값은 8로 너무 어두워 명암 값으로 주선추출이 곤란한 경우가 발생한다. 따라서 블루(BLUE)영상의 색 성분 값 자체를 명암 값으로 변환하면 이러한 문제를 해결할 수 있다.
이하에서는 본 발명에 따른 주선추출 방법의 개념을 설명한다.
위에서 살펴본 바와 같이 사람마다 손바닥의 장문 유형이 매우 다르다는 것을 알 수 있었다. 따라서 3가지의 주선이 손바닥의 좌측과 우측의 끝에서 작한다는 개 념으로 하면 손바닥 영상의 취득 시 조금의 위치가 틀어지거나 또는 주선이 검색영역 외에서 시작하면 주선추출이 곤란한 것이다. 이러한 문제를 해결하기 위하여 주선추출 방법을 달리 하여야 좀 더 정확하고 많은 주선을 추출하여 장문인식의 문제점인 오인식율을 낮출 수 있다고 하겠다. 따라서 보다 많은 주선의 추출과 손바닥 위치가 다소 다르더라도 주선추출의 오차가 적게 발생하는 방법을 도 8의 (a)에서 보이고 있다.
이는 주요한 주선의 대부분은 영상의 왼쪽 하단부에서 오른쪽 상단부로 45° 각도 범위를 지나기 때문이 이러한 특성을 이용하여 검색 후 각각을 DB화하는 것이다. 최종적으로 보면 주선의 개수 정보와 각각의 주선의 길이 및 방향성분을 저장하고 이를 인증데이터로 활용하는 것이다.
앞서 논한 바와 같이 장문에는 생명선, 두뇌선, 성격선외에도 많은 주선들이 존재할 수 있으므로 사전에 3개의 선만을 추출한다는 가정 하에 검색을 한다면 문제가 있을 수 있다. 따라서 도 8의 (b)와 같이 주선검색 시작점에서 출발하여 주선검색 끝점까지 검색을 진행하면서 선이 나타나면 우측하향과 좌측상향으로 주선추적을 하는 것이다.
검색진행방향을 수식으로 표현하면 다음 수학식 2와 같다.
T = [(Xn+1, Y), (X, Yn-1)]
위 수학식 2의 의미는 검색초기 좌표에서 X축으로 1을 이동하여 주선발견점이 존재하는지 판단하고, 다시 Y축으로 1을 이동하여 주선발견점이 존재하는지 판단하 는 방식이다.
그리고 주선이 발견되면 먼저 좌측상향으로 주선을 추적하는데, 이는 주선발견 점에서 좌측상향 방향으로 진행을 하면 된다.
도 9의 (a)는 좌측상향 주선 경로추적 필터를 보이고 있다. 1은 135°, 2는 180°, 3은 90°이고, X로 표시된 방향은 검색을 하지 않는다. 경로추적 방향에 더이상의 픽셀(Pixel)이 존재하지 않으면 주선 경로추적을 중단하고 검색된 데이터를 DB에 저장한다.
좌측상향 주선 경로추적 필터를 수식으로 표현하면 수학식 3과 같다.
P°(X, Y) = P(Xc, Yc) 이고,
P(Xc, Yc) = I(x,y)· F 이며,
F = [f(x-1,y-1), f(x-1,y), f(x, y-1)]이다.
여기서, P°(X, Y)는 다음 추적에 필요한 초기좌표 이며, P(Xc, Yc)는 주선추적 필터(Filter)에 의하여 검색된 이동 좌표이다. 이 값은 방향 성분으로도 사용되는데, I는 입력영상이며, F는 검색필터(Filter)를 의미하고, F는 좌측상향선 검출필터(Filter)의 방향 값이다.
좌측하향 주선 경로추적은 f(x-1,y-1)부터 f(x,y-1)까지 검출하며 f(x-1,y-1)의 값을 최우선 값으로 한다. f(x-1,y-1)의 값에 입력영상이 존재하면 f(x-1,y-1)로 이동하여 검출을 다시 할 것이고, 없으면 f(x-1,y)와 f(x,y-1)를 순차적으로 검색하여 입력영상이 존재하면 이동을 하고 없으면 검출을 종료하고 데이터를 DB에 저장한다.
좌측상향 길이 계산은 검출필터(Filter)에 의하여 검색된 픽셀(Pixel)수의 합을 길이 값으로 활용하며, 좌측상향 방향 계산은 방향 1부터 3까지의 방향 누적 값으로 하며, 가장 누적 값이 큰 것이 전체 방향을 주도하는 방향성분이다.
도 9의 (b)는 우측하향 주선 경로 추적의 필터를 보이고 있다. 우측하향 주선 경로 추적은 주선발견 점에서 우측하향 방향으로 진행을 하면 된다. 우측하향 경로추적 값과 좌측상향 경로 추적 값을 더하면 주선의 전체 길이와 방향성분 값이 된다. 따라서 우측하향 경로추적으로 얻은 방향성분 값을 좌측상향 경로추적으로 얻은 값으로 변환하여야 한다. 변환방법은 1의 원래 방향 값(325°)을 135°, 2의 원래 방향 값(0°)을 180°, 3의 원래 방향 값(270°)을 90°로 하면 된다. X로 표시된 방향은 검색을 하지 않는다. 경로추적 방향에 더 이상의 픽셀(Pixel)이 존재하지 않으면 경로추적을 중단하고 검색된 데이터를 DB에 저장한다.
우측하향 경로추적 Filter를 수식으로 표현하면 다음 수식 4와 같다.
P°(X, Y) = P(Xc, Yc)이고,
P(Xc, Yc) = I(x,y) · F이며,
F = [f(x+1,y+1), f(x+1,y), f(x, y+1)]이다.
여기서 P°(X, Y)는 다음 추적에 필요한 초기좌표 이며, P(Xc, Yc)는 성격선 추적 필터(Filter)에 의하여 검색된 이동 좌표이다. 이 값은 방향 성분으로도 사용되는데, I는 입력영상이며, F는 검색필터(Filter)를 의미하고, F는 좌측상향선 검출필터(Filter)의 방향 값이다.
f(x+1,y+1)부터 f(x,y+1)까지 검출하며 f(x+1,y+1)의 값을 최우선 값으로 한다. f(x+1,y+1)의 값에 입력영상이 존재하면 f(x+1,y+1)로 이동하여 검출을 다시 할 것이고, 없으면 f(x+1,y)와 f(x,y+1)를 순차적으로 검색하여 입력영상이 존재하면 이동을 하고 없으면 검출을 종료하고 데이터를 DB에 저장한다.
우측하향 길이 계산은 검출필터(Filter)에 의하여 검색된 픽셀(Pixel)수의 합을 길이 값으로 활용하며, 우측하향 방향 계산은 방향 1부터 3까지의 방향 누적 값으로 하며, 가장 누적 값이 큰 것의 180°반대 방향이 전체방향을 주도하는 방향성분이다.
본 발명의 주선추출 방법에 따르면, 도 10에서 보이는 바와 같이 좌측 하단에서 45°각도로 우측상단으로 주선 검색 선을 따라 이동하며 주선을 검출하게 된다.
손바닥의 영상을 획득 하는 과정에서 손바닥의 위치가 좌측 혹은 우측이나 상측 또는 하측방향으로 약간씩 변경되어 검출되는 경우가 발생한다. 이러한 경우에도 주요한 주선은 항시 검출되어야 한다. 손바닥 영상을 이동한 것과 마찬가지 상황인 주선 검색 선을 우측에서 좌측으로 이동하면서 손바닥 영상의 위치가 변동되는 경우에도 주선이 잘 검출되는지 실험을 한다. 주선 검출결과는 가장 긴 주선부터 순차적으로 1주선, 2주선, 3주선,.....과 같이 순서를 붙여 DB저장을 하고, 인증 시 획득된 영상의 주선추출 데이터를 저장된 DB와 비교하여 인증을 하면 된다. 손바닥의 영상이 위치가 변동되어서 노이즈 성분이 검출되어도 그 길이가 주선의 길이보다 짧으므로 가장 긴 주선부터 순서대로 데이터화 하면 노이즈 주선이 아무 리 많이 검출되어도 인증에 문제가 되지 않는다.
이하에서는 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.
도 21은 본 발명에 따른 장문의 주선추출 및 그 인증방법의 바람직한 실시예의 순서도이다. 먼저 손바닥을 촬영한 칼라영상을 입력(2101)받는다. 그 후 칼라영상으로부터 알지비(RGB) 영상을 분리(2102)한 후 위 알지비 영상으로부터 블루영상을 분리(2103)한다. 그 후 위 블루영상을 전처리(2104)한 후 위 전처리된 영상으로부터 위 손바닥의 장문의 주선을 추출(2105)한다.
그 후 추출된 주선정보를 길이순으로 재정렬(2106)시킨 후 위 장문이 갖는 상기 주선정보( 주선의 길이, 방향, 개수 등 )의 특징을 추출한다. 그 후 위 장문을 등록할 것인지 여부를 판단( 미리 사용자로부터 입력받을 수 있다 )(2107)하여 등록할 경우에는 위 주선정보의 특징을 저장(2108)하고 그렇지 않을 경우에는 장문을 인증하는 경우로 판단하여 위 추출된 주선정보의 특징과 일치하는 주선정보가 미리 등록되어 있는지 여부룰 확인하여 위 장문을 인증(2109)한다.
도 22는 본 발명에 따른 도 21의 블루영상을 전처리하는 과정의 바람직한 실시예의 순서도이다.
먼저 블루영상을 입력(2201)받고, 위 블루영상을 그레이 처리(2202)하여 흑백영상으로 변환시킨다. 그 후 위 손바닥을 촬영한 칼라영상을 그레이 처리한 경우의 흑백영상(그레이 영상)과 같은 밝기로 위 그레이 처리한 흑백영상의 밝기를 변환(2203)시킨다.
그 후 위 그레이 영상(흑백영상)을 프리윗 마스크 필터처리(2204)한 후 이중 임계처리(2205)한다. 여기서 이중임계처리 하는 방법은 이후에서 설명하는 수학식 6에 의한다.
그 후 클로징 처리(2206)한 후 중간값 필터링( Median filtering ) 하여 상기 주선을 부드럽게 한 후 세선화 처리( Thinning ) (2208)하게 된다.
도 23은 본 발명에 따른 주선검출 과정(도 21의 2105 단계)의 바람직한 실시예의 순서도로, 자세한 내용은 도 8을 참조하여 위에서 설명하였다.
먼저 도 22의 과정을 통하여 세선화된 영상을 입력(2301)받고, 상기 영상의 좌측하단부터 우측상단방향으로 주선을 검색(2302)한다. 그 후 주선이 검색되었는지 여부를 판단(2303)하여, 참인 경우에는 주선이 검색된 지점에서 상기 영상의 좌측상향의 끝까지 주선을 검색(2304)한다. 그 후 좌측상향방향의 주선의 방향 및 길이를 계산하여 이를 저장(2305)한다.
그 후 주선이 검색된 지점에서 상기 영상의 우측하단 방향의 끝까지 주선을 검색(2306)한 후, 우측하향방향의 주선의 방향 및 길이를 계산하여 저장(2307)한다.
그 후 좌측상향의 주선의 방향 및 길이 정보와 우측하향 방향의 주선의 길이 및 방향 정보를 기초로 전체 주선의 길이 및 방향정보를 생성시켜 이를 저장(2308)한다.
그 후 주선검색이 완료되었는지 여부를 판단(2309)하여 참이 아닌 경우에는 위 2303 단계로 이동하여 계속 주선을 검색하게 된다.
도 24는 본 발명에 따른 장문인증장치의 바람직한 실시예의 블록구성도이다. 본 발명에 따른 장문인증장치는 칼라영상 입력부(110), 블루영상 분리부(120), 주선추출부(130), 주선정보 정렬부(140), 주선정보 관리부(150)을 포함하며, 장문인증부(160)을 더 포함할 수 있다. 또한 위 주선추출부는 그레이 영상부(131), 세선화 처리부(132)를 포함하며, 주선검출부(133), 좌측상단 주선검색부(134), 우측하단 주선검출부(135) 및 주선정보 생성부(136)를 더 포함할 수 있다.
칼라영상 입력부(110)는 소정의 손바닥을 촬영한 칼라영상을 입력받은 기능을 수행한다.
블루영상 분리부(120)는 상기 칼라영상 입력부로부터 상기 칼라영상을 제공받아, 상기 칼라영상으로 부터 알지비(RGB) 영상을 분리하고, 상기 알지비(RGB) 영상으로부터 블루(BLUE) 영상을 분리하는 기능을 수행한다.
주선추출부(130)는 상기 블루영상 분리부로부터 상기 블루영상을 제공받아, 상기 블루영상으로부터 주선의 길이, 방향, 개수 중 어느 하나를 포함하는 주선정보를 추출하는 기능을 수행한다.
주선정보 정렬부(140)는 상기 주선정보를 길이 순으로 정렬시키는 기능을 수행한다.
주선정보 관리부(150)는 상기 주선정보를 저장하여 관리하는 기능을 수행한다.
장문인증부(160)는 상기 주선추출부로부터 소정의 주선정보를 제공받고, 미리 저장되어 있던 주선정보와 상기 제공받은 주선정보가 일치하는지 여부를 확인하여 일치하는 경우 이를 인증하는 기능을 수행한다.
그레이 영상부(131)는 상기 블루영상을 그레이 처리하여 그레이 영상으로 변환시킨 후 상기 그레이 영상의 밝기를 상기 칼라영상을 곧바로 그레이 처리한 경우의 그레이 영상의 밝기로 변환시키는 기능을 수행하며,
세선화 처리부(132)는 상기 그레이 영상부로부터 상기 그레이 영상을 제공받아, 상기 그레이 영상을 프리윗 마스크 필터 처리한 후, 상기 프리윗 마스크 필터 처리된 영상을 이중임계처리하여 상기 그레이 영상의 주선의 끊김을 방지하고, 상기 이중임계처리된 영상을 클로징 처리하고, 상기 클로징 처리된 영상을 중간값 필터링( Median filtering ) 하여 상기 주선을 부드럽게 한 후 상기 중간값 필터링된 영상을 세선화( thinning ) 처리하는 기능을 수행한다.
주선검출부(133)는 상기 세선화 처리부로부터 상기 세선화 처리된 영상을 제공받고, 상기 세선화 처리된 영상의 좌측하단지점부터 우측상단의 방향으로 이동하면서 주선을 검색하는 기능을 수행하며,
좌측상단 주선검색부(134)는 상기 주선 검출부로부터 상기 주선이 검색된 지점을 제공받고, 상기 주선이 검색된 지점으로부터 상기 영상의 좌측상단 방향의 끝까지 상기 주선을 추적한 후, 상기 좌측상단 방향의 주선의 방향 및 길이를 계산하여 이를 저장하는 기능을 수행하며,
우측하단 주선검출부(135)는 상기 주선 검출부로부터 상기 주선이 검색된 지점을 제공받고, 상기 주선이 검색된 지점으로부터 상기 영상의 우측하단 방향의 끝까지 상기 주선을 추적한 후, 상기 우측하단 방향의 주선의 방향 및 길이를 계산하여 이를 저장하는 기능을 수행하며,
주선정보 생성부(136)는 상기 좌측상단 주선검색부로부터 상기 좌측상단방향의 주선의 방향 및 길이를 제공받고, 상기 우측하단 주선검색부로부터 상기 우측하단방향의 주선의 방향 및 길이를 제공받은 후, 상기 좌측상단방향의 주선의 방향 및 길이 정보와 상기 우측하단방향의 주선의 방향 및 길이 정보를 기초로 주선 전체의 방향 및 길이정보를 생성시켜 이를 저장하는 기능을 수행한다.
한편, 상기 세선화 처리부(132)의 이중임계처리, 상기 좌측상단 주선 검색부(134)가 주선을 검색하는 방향, 상기 좌측상단 주선검색부의 주선 검색, 상기 좌측상단 주선검색부가 상기 주선의 길이 및 방향을 계산하는 것에 관하여는 이후의 설험결과를 설명하면서 자세히 설명한다.
이하에서는 본 발명에 따른 실험결과를 상세히 설명한다.
1. 주선주변과 주선의 GRAY 및 RGB분포 분석 실험
위 실험대상자 이외의 다른 사람의 경우에서도 위와 동일한 주선주변과 주선의 GRAY 및 RGB분포 결과가 나오는지 확인을 위하여 불특정 13인에 대한 영상분석을 하였다. 먼저 카메라의 종류에 따른 영향과 관련성을 위하여 2개사 제품으로 영상을 13명의 영상을 나누어 획득 하였으며, 카메라는 국내 유명사 제품 1종과 외산(일본) 1종을 이용하였다.
아래의 표 1은 국산 A사 카메라 이용 불특정 5명의 GRAY 및 RGB 영상을 획득한 후 분석한 결과이고, 표 2는 B사 카메라 이용 불특정 8명의 GRAY 및 RGB 영상을 획득한 후 분석한 결과이다.
실험대상자 구분 GRAY RED GREEN BLUE
1 주선주변(A) 213 254 202 163
주선(B) 176 237 156 111
변화량(율) 37 17 46 52
2 주선주변(A) 223 248 216 178
주선(B) 197 236 189 135
변화량(율) 26 12 27 43
3 주선주변(A) 178 204 174 148
주선(B) 155 199 145 117
변화량(율) 23 5 29 31
4 주선주변(A) 204 236 199 154
주선(B) 174 215 166 110
변화량(율) 30 21 33 44
5 주선주변(A) 172 213 160 128
주선(B) 129 189 110 77
변화량(율) 43 24 50 51
평균 주선주변(A) 198 231 190.2 154.2
주선(B) 166.2 215.2 153.2 110
변화량(율) 31.8 15.8 37 44.2
실험대상자 구분 GRAY RED GREEN BLUE
6 주선주변(A) 167 192 162 128
주선(B) 144 181 135 99
변화량(율) 23 11 27 29
7 주선주변(A) 176 190 173 157
주선(B) 132 169 121 98
변화량(율) 44 21 52 59
8 주선주변(A) 154 187 145 120
주선(B) 139 180 127 96
변화량(율) 15 7 18 24
9 주선주변(A) 169 198 160 141
주선(B) 141 185 128 99
변화량(율) 28 13 32 45
10 주선주변(A) 176 204 167 151
주선(B) 146 179 136 117
변화량(율) 30 25 31 34
11 주선주변(A) 180 211 170 152
주선(B) 145 186 133 101
변화량(율) 35 25 47 53
12 주선주변(A) 174 199 166 151
주선(B) 144 178 133 112
변화량(율) 30 11 33 39
13 주선주변(A) 164 198 152 136
주선(B) 133 170 123 93
변화량(율) 31 28 29 43
평균 주선주변(A) 170 197 162 142
주선(B) 141 179 130 102
변화량(율) 29 18 34 41
위 분석한 결과에 따르면 주선을 추출하는데 있어서 칼라(Color)영상을 바로 그레이(GRAY) 영상으로 변환하였을 경우의 명암 차이보다는 알지비(RGB)로 분리하여 주선과 주선주변의 영상차이가 가장 크게 발생하는 블루(BLUE) 성분을 이용할 경우 무작위 5명의 장문추출 분석결과 그레이(GRAY)로 처리하는 것보다 약 30% 이상의 개선효과를 나타났다. 또한 블루(BLUE) 단일색 만으로 처리시는 8bit이므로 그레이(GRAY)로 처리 하였을 때와 처리속도면에서 차이가 없어 매우 유용한 방법이라 할 것이다.
2. 그레이 영상 및 RGB 영상간의 주선추출 비교 실험
(1) 그레이 영상을 이용한 주선추출 실험
디지털카메라를 이용하여 배경은 검정색으로 하였고 조명 빛의 영향을 최소화하기 위하여 맑은 날의 태양빛에 손바닥을 비추어 도 11의 (a)와 같이 영상을 획득하였다. 사이즈는 1.466(Inch) X 1.466(Inch) 이고 픽셀(Pixel)수는 256 X 256으로 하였다.
획득된 손바닥 영상을 바로 그레이(GRAY)처리를 하면 도 11의 (b)와 같은 영상을 얻을 수 있다. 일반적으로 칼라(Color)영상은 알지비(RGB) 3가지 색의 팩터(Factor)별로 8bit씩 총 24bit로 구성되어 있다. 이를 그레이(GRAY)처리 하게 되면 각각의 색에 대한 팩터(Factor)는 사라지고 각각의 알지비(RGB)가 합성 되었을 때의 8bit(0~255) 명암 성분만을 가지게 된다.
그레이(GRAY) 영상의 명암대비를 좀 더 명확히 하기 위하여 히스토그램 평활화를 수행하여 도 11의 (c)와 같은 영상을 얻었으며, 히스토그램 평활화 방법은 다음과 같다.
1) 입력영상의 밝기값에 대한 히스토그램 생성
2) 정규화합 히스토그램으로 변형
3) 정규화합 히스토그램을 이용하여 입력영상을 다음 수학식 5를 이용하여 다시 맵핑
h(i) = ( Gmax / Nt ) x H(i)
여기서 h(i)는 정규화합 히스토그램, Gmax는 영상의 최대 밝기값 (일반적으 로 흑백 영상에서 255 임), Nt는 입력영상 내에 존재하는 픽셀의 개수, H(i)는 원본 입력영상의 누적 히스토그램을 의미한다.
히스토그램 평활화 후 주선 주변의 노이즈와 주선의 끊김을 줄이기 위하여 주변 값의 평균값으로 처리하는 작업을 수행하여 도 11의 (d)와 같은 영상을 얻었으며, 이러한 작업을 하는데는 Box-Mask, Gaussian-Mask 등의 Filter를 사용할 수 있다.
그리고 노이즈와 추출하기 위한 주선의 끊김을 감소시키기 위하여 Gaussian-Mask로 처리한 결과에 대하여 특징선 추출을 위한 작업을 수행하여 도 11의 (e)와 같은 영상을 얻었으며, 이러한 작업을 하는 필터(Filter)로는 Prewitt-Mask , Sobel-Mask 등의 필터(Filter)가 있으며, 밝기가 변하는 지점만을 나타내어 아래와 같이 특징선의 추출이 가능하다.
(2) RGB 영상을 이용한 주선추출 실험
앞서 실험대상의 손바닥과 불특정 5명의 손바닥 영상을 분석한 결과 레드(RED)가 주선과 주선주변의 명암 변화가 가장 적고 블루(BLUE)가 가장 명암 변화가 높은 것으로 나타났다. 실험대상 손바닥사진 칼라(Color)영상을 RGB로 분리하여 보면 레드(RED)가 주선이 잘 구분이 안갈 정도로 명암비가 적은 것이 유관으로 확인이 될 정도로 알 수 있다. 또한 앞서의 도표에서와 같이 레드(RED)에 비하여 그린(GREEN), 블루(BLUE)는 주선이 시각적으로 잘 나타나고 있다.
따라서 이번에는 각각의 칼라(Color)별로 앞서의 그레이(GRAY)영상처리와 같은 방법을 사용하였을 경우의 주선 추출을 하여 그레이(GRAY)로 처리하였을 때와 어떤 차이점이 있는지 실험하여 보고자 한다. 실험과정에서는 Visual C++로 처리하는 과정에서 각각의 칼라(Color)는 0~255까지의 8bit성분을 명암처리(GRAY변환)하여 실험을 하였다.
도 12는 레드(RED) 영상을 이용하여 주선을 추출하는 실험을 설명하는 참고도이다.
(a)는 최초 칼라영상으로부터 레드(RED) 성분만을 추출한 영상이며, (b)는 이를 그레이 처리하여 얻은 영상과 그 히스토그램이다.
(c)는 (b)의 영상을 히스토그램 평활화 후의 영상과 그 히스토그램을 보이고 있으며, (d)는 (c)를 가우신안 마스크 처리하여 얻은 영상 및 그 히스토그램이며, (e)는 좌측으로부터 (d) 영상을 Prewitt-Mask 처리하여 얻은 영상이고 그 우측 영상은 이를 Sobel-Mask 처리하여 얻은 영상이다.
도 13은 그린 영상을 이용한 주선추출 실험을 설명하는 참고도이다.
여기서 (a)는 최초 영상으로부터 그린 성분만을 추출한 영상이며, (b)는 위 (a) 영상을 그레이 처리한 영상이고, (c)는 위 (b) 영상을 히스토그램 평활화 후의 영상 및 그 히스토그램을 보이고 있으며, (d)는 위 (c) 영상을 가우시안 마스크 처리하여 얻은 영상 및 그 히스토그램을 보이고 있으며, (e)는 좌측으로부터 (d) 영상을 Prewitt-Mask 처리하여 얻은 영상을 보이고 있고, 그 우측은 이를 Sobel-Mask 처리하여 얻은 영상을 보이고 있다.
도 14는 블루 영상을 이용한 주선추출 실험을 설명하는 참고도이다.
여기서 (a)는 최초 영상으로부터 그린 성분만을 추출한 영상이며, (b)는 위 (a) 영상을 그레이 처리한 영상이고, (c)는 위 (b) 영상을 히스토그램 평활화 후의 영상 및 그 히스토그램을 보이고 있으며, (d)는 위 (c) 영상을 가우시안 마스크 처리하여 얻은 영상 및 그 히스토그램을 보이고 있으며, (e)는 좌측으로부터 (d) 영상을 Prewitt-Mask 처리하여 얻은 영상을 보이고 있고, 그 우측은 이를 Sobel-Mask 처리하여 얻은 영상을 보이고 있다.
위 실험결과를 비교하여 보면, 육안확인을 통하여 블루(BLUE)의 영상처리 결과가 가장 주선이 명확하게 나오는 것을 확인할 수 있었으며, 레드(RED)가 가장 불명확하게 나오는 것을 확인할 수 있으며, 그 처리결과의 비교를 도 15에서 보이고 있다.
3. 그레이 영상과 블루-그레이 영상처리 과정을 통한 주선 추출 비교실험
GRAY와 BLUE-GRAY에 대한 각각의 영상처리 과정을 통하여 실제적으로 주선을 추출하여 비교실험을 하여 보기로 한다. 주선을 이용한 알고리즘 이므로 손가락 등의 기타 부분을 삭제하였다.
(1) 그레이 영상을 이용한 주선추출
도 16은 그레이 영상을 이용한 주선추출의 실험을 설명하는 참고도이다.
여기서 (a)는 실험전 촬영한 손바닥의 칼라영상이며, (b)는 이를 그레이로 변환한 영상이다. 그리고 (c)는 (b) 영상의 히스토그램을 보이고 있는데 히스토그램 분석결과 0~255까지 사이의 명암에서 배경 및 어두운부분(0~160)과, 주선부분(160~210), 그리고 주선주변의 밝은부분(210~255)으로 명암이 분포하였다.
(d)는 그레이 영상의 특징점을 추출하기 위하여 Prewitt Mask Filter로 처리 한 영상이며, (e)는 주선의 끊김을 방지하고 그레이 레벨(GRAY LEVEL)의 차이에 따른 이진화를 위하여 (d) 영상을 이중임계 처리한 영상이다.
이중임계처리를 하면 주선 주변의 노이즈를 효과적으로 제거할 수 있게되며, 이중임계처리는 다음 수학식 6에 의한다.
Figure 112007003442767-pat00032
f(x,y)는 이중임계처리 전 영상의 각 좌표에 해당하는 명암값을 의미하며, g(x,y)는 이중임계처리 후 영상의 각 좌표에 해당하는 임계처리값을 의미하고, t0, t1 및 t2는 각각 이중임계처리에 필요한 임계값을 나타낸다.
도 16의 (f)는 이중임계 처리 후 주선 중간 중간에 비어있는 영역을 채워주는 클로징(Closing)처리를 하여 세선화 작업이 잘 되도록 하고 불필요한 노이즈 또한 제거한 영상이다.
그 후 거칠어진 (f) 영상을 부드럽게 하기 위하여 Median 처리를 한 것이 (g) 영상이며, 그 후 (g) 영상을 Thinig Filter를 사용하여 주선의 정보를 얻을 수 있도록 한 것(세선화)이 (h) 영상이고, (i) 영상은 추출된 주선과의 영상합성 후 주선을 추출하는 것을 보이고 있다.
(2) 블루-그레이 영상을 이용한 주선추출(장문추출)
도 17은 블루-그레이 영상을 이용한 주선추출의 실험을 설명하는 참고도이다.
여기서 (a)는 실험 전 촬영한 손바닥의 칼라영상이며, (b)는 (a) 영상에서 블루 성분만을 추출한 영상이다. (c)는 이를 그레이로 변환한 영상과 그 히스토그램 인데, 블루(BLUE) 영상의 칼라분포 값을 명암 값으로 변환하여 히스토그램 분석결과 0~227까지 사이의 명암에서 배경 및 어두운 부분(0~90)과, 주선부분(90~160), 그리고 주선주변의 밝은 부분(160~227)으로 명암이 분포하였다. 이처럼 블루(BLUE)영상을 그레이(GRAY)처리하면 칼라(Color)영상을 바로 그레이(GRAY) 처리하는 것 보다 전체적인 명암이 어둡게 나타나는데, 그 이유는 칼라(Color)영상을 그레이(GRAY) 처리하면 알지비(RGB) 3원색의 밝기 값 모두가 더해져서 전체적으로 밝게 나타나지만, 블루(BLUE)영상은 알지비(RGB) 중 블루(BLUE)의 밝기 값만 취하기 때문이다.
이 처럼 어두워진 (c) 영상을 그레이의 밝기 영상으로 변환한 것이 (d) 영상이며, (d) 영상의 특징점 추출을 위하여 Prewitt Mask Filter로 처리한 영상이 (e) 영상이고, (e) 영상의 주선 끊김 방지 및 그레이 레벨(GRAY LEVEL)의 차이에 따른 이진화를 위하여 이중임계 처리를 한 것이 (f) 영상이다. 그 후 이중임계 처리 후 주선 중간 중간에 비어있는 영역을 채워주는 클로징(Closing)처리를 하여 세선화 작업이 잘 되도록 하고 불필요한 노이즈 또한 제거를 한 것이 (g) 영상이며, 거칠어진 (g) 영상을 부드럽게 하기 위하여 Median 처리를 한 것이 (h) 영상이다. 그 후 (h) 영상을 Thinig Filter를 사용하여 주선의 정보를 얻을 수 있도록 한 것(세선화)이 (i) 영상이고, (i) 영상을 추출된 주선과의 영상합성 후 주선을 추출하는 과정을 보이는 것이 (j) 영상이다.
위 실험을 비교하여 보면, 앞서 기존의 장문추출 방법인 최초의 손바닥영상을 그레이(GRAY)처리하여 얻은 결과 값과 새로 제안된 블루-그레이(BLUE-GRAY)영상을 이용하여 얻은 결과 값을 비교한 결과가 도 18에 보여지고 있다. 도 18에서 보는 바와 같이 블루-그레이(BLUE-GRAY)영상을 추출 하였을 때 전체적으로 어두운 화면에 의하여 노이즈가 다소 증가를 하였으나, 주선추적 알고리즘에 의하여 각각의 주선들이 더 길고 정확하게 추적이 되었다.
4. 기존의 그레이(GRAY) 영상처리 된 장문을 이용하여 특정영역을 검출하는 방법과 본 발명에 따른 블루 - 그레이 ( BLUE - GRAY ) 영상처리 후 45°방향으로 진행하면서 영상처리 한 결과 값 비교와 함께 영상의 위치를 중심점을 기준으로 4방향(상,하,좌,우)으로 이동하면서 노이즈데이터의 검출수를 늘려갈 때 인증처리에 미치는 영향실험
본 실험에서 사용된 영상은 시중에서 판매되는 디지털카메라 3종을 이용하여 조명상태가 동일한 조건의 실내에서 획득한 손바닥 영상을 가지고 실험을 하였으며, 유전 및 특정집단과 무관한 13명을 대상으로 하였다. 본 실험에서는 인증대상인 손바닥에 있는 장문만을 대상으로 하였기 때문에 손가락 또는 손목 이하의 영상이 제거된 240 X 240 사이즈, 180pixel/inch, 256 레벨 값을 갖는다.
본 실험은 크게 2가지 실험을 하였다.
첫번째로는 영상을 바로 블루(BLUE) 영상만을 추출하여 영상전처리후 기존의 방법인 그레이(GRAY) 전처리 영상과 비교하는 실험,
두번째로는 본 발명에 따른 주선추출방법에 의한 표준영상의 주선추적과 좌,우 방향으로 손바닥 영상이 이동 하였을 때 표준영상의 주선추적 DB값과의 차이가 얼마나 있는지를 비교하는 실험.
이 실험은 본 발명에 따라 칼라(Color) 영상으로부터 블루(BLUE) 영상을 추출 후 영상처리(세선화)한 영상을 가지고 주선추출실험과, 영상의 위치를 표준영상을 상,하,좌,우 방향으로 이동하면서 주선이 추출되는데 어떠한 영향이 있는지를 알아보기 위한 실험이다.
도 19의 (a) 및 (b)는 표준영상에서의 주선검색선을 보이고 있다. 표준영상의 좌우 이동실험은 주선검색선이 이동하는것과 마찬가지이며, 표준영상의 상하 이동실험은 주선검색선이 Y축을 기준으로 0~255까지를 거치므로 이미 영상의 상하 이동실험은 포함되는 것이므로 상하 이동실험은 생략하기로 한다.
(1) 표준영상에서의 주선검색 실험
본 실험은 실험대상 영상(사이즈 : 240 X 240)에서 시작점(X1=0, Y=240)을 출발하여 검색 끝점(X2=240, Y2=0)까지 주선검색선을 따라 이동한 경우의 실험이다.
표 3은 표준영상에서의 주선검색 결과 값을 보이고 있다. 주선1~주선7은 좌측하단에서 우측상단으로 주선검색선을 따라가면서 검색된 결과 값이다. 이 중 주선2(생명선), 주선3(두뇌선), 주선4(성격선)가 인증데이터로 활용할 값이며 검색된 7개의 주선 중 1~3번째로 큰 주선이다. 따라서 가장 길이가 긴 주선을 순서대로 재 정렬하여 길이가 긴 주선을 유효한 데이터로 활용을 하고 기타의 값은 노이즈로 처리한다.
구분 주선1 주선2 주선3 주선4 주선5 주선6 주선7
길이 61 136 141 117 8 42 9
90° 15 45 7 8 8 4 8
135° 33 55 70 32 0 10 1
180° 13 36 64 77 0 28 0
표 4는 표 3의 데이터를 크기 값 순서대로 재 정렬 한 것이다.
구분 1 (주선3) 2 (주선2) 3 (주선4) 4 (주선1) 5 (주선6) 6 (주선7) 7 (주선6)
길이 141 136 117 61 42 9 42
90° 7 45 8 15 4 8 4
135° 70 55 32 33 10 1 10
180° 64 36 77 13 28 0 28
(2) X축으로의 이동(45) 영상에서 주선 검색실험
실험대상 영상(사이즈 : 240 X 240)에서 시작점(X1=45, Y=240)을 출발하여 검색 끝점(X2=240, Y2=45)까지 주선검색을 따라 이동한 경우의 실험이다.
도 20의 (a)는 주선검색선이 X축으로 이동한 경우의 영상을 보이고 있다.
표 4와 같이 DB값의 큰 순서대로 재정렬하여 표 5를 얻었으며, 1~3번까지의 주선길이 및 각도분포가 동일하였다.
구분 1 2 3 4 5 6 7
길이 141 136 117 61 22 15 1
90° 7 45 8 15 21 11 0
135° 70 55 32 33 1 4 0
180° 64 36 77 13 0 0 1
(3) Y축으로의 이동(45) 영상에서 주선 검색실험
실험대상 영상(사이즈 : 240 X 240)에서 시작점(X1=0, Y=195)을 출발하여 검색끝점(X2=195, Y2=0)까지 주선검색을 따라 이동한 경우의 실험이다. 도 20의 (b)는 주선검색선이 Y축으로 이동한 영상을 보이고 있으며, 이 경우 주선검색선 경로에 노이즈가 많이 검출되어 총 12개의 주선이 검출되었다.
구분 1 2 3 4 5 6 7
길이 141 136 117 64 20 10 2
90° 7 45 8 24 5 3 0
135° 70 55 32 18 10 2 0
180° 64 36 77 22 5 5 2
(4) 영상이동에 의한 주선 검색실험 결과
표준 영상과 주선검색 선을 X축으로 45 이동한 경우, Y축으로 45 이동한 경우를 각기 실험한 결과 주선의 길이가 가장 긴 1~3번까지 주선의 길이 값은 물론이고 방향성분도 모두 동일한 값을 얻었다. 따라서 45°의 각도로 주선검색을 할 경우 손바닥 영상이 표준영상에 비하여 다소 위치가 변하더라도 3개의 주요한 주선을 검출하는데 문제가 없었다. 또한 생명선과 두뇌선이 출발점이 다르더라도 검출에 문제가 없었으며, 성격선이 손바닥 상단의 중앙에만 존재하는 경우와 두뇌선이 손바닥 중앙에만 일부 존재할 경우에도 전혀 문제가 되지 않을 것이라는 것을 알 수 있었다.
지금까지 본 발명에 따른 바람직한 실시예를 상세히 살펴보았다. 본 발명의 범위는 위에서 예시한 실시예에 한정되지 않으며 본 발명의 기술적 사상이 적용된 경우라면 모두 본 발명의 범위에 속한다고 할 것이다.
한편, 본 발명에 따른 방법들은 컴퓨터로 실행시킬 수 있는 컴퓨터프로그램으로 제작하는 것이 가능하며, 상기 컴퓨터프로그램은 컴퓨터로 읽을 수 있는 기록매체( CD, 하드 및 플로피 디스크, 각종 메모리 장치 등 )에 기록되는 것이 가능하다.
본 발명에 따르면 종래의 그레이 영상을 이용한 방법보다 더 명확한 장문의 특징을 추출할 수 있으며, 이를 이용하여 보다 신뢰성 있는 장문인식방법 및 장치를 제공할 수 있는 효과가 있다. 또한 본 발명에 따르면 사람마다 다양한 모양을 갖는 여러 형태의 주선 모양에도 영향을 받지 않으며, 손바닥을 촬영한 영상의 이동, 회전 및 조명 등의 주위환경에 영향을 받지 않고 신뢰성있는 장문인증이 가능하도록 하는 효과가 있다.

Claims (18)

  1. (a) 소정의 손바닥을 촬영한 칼라영상을 입력받은 단계;
    (b) 상기 칼라영상으로 부터 알지비(RGB) 영상을 분리하고, 상기 알지비(RGB) 영상으로부터 블루(BLUE) 영상을 분리하는 단계;
    (c) 상기 블루영상으로부터 주선의 길이, 방향, 개수 중 어느 하나를 포함하는 주선정보를 추출하는 단계;
    (d) 상기 주선정보를 길이 순으로 정렬시키는 단계; 및
    (e) 상기 주선정보를 저장하는 단계를 포함하는 것을 특징으로 하는 장문인증방법.
  2. 제 1 항에 있어서,
    (f) 인증대상자의 손바닥을 촬영한 칼라영상을 입력받아 상기 (b) 단계 내지 (d) 단계를 수행하는 단계; 및
    (g) 상기 인증대상자의 손바닥을 촬영한 칼라영상으로부터 추출된 주선정보와 미리 저장되어 있던 주선정보가 일치하는지 여부를 확인하여 일치하는 경우 이를 인증하는 단계를 더 포함하는 것을 특징으로 하는 장문인증방법.
  3. 제 1 항에 있어서, 상기 (c) 단계는
    (c1) 상기 블루영상을 그레이 처리하여 그레이 영상으로 변환시키는 단계;
    (c2) 상기 그레이 영상의 밝기를 상기 칼라영상을 곧바로 그레이 처리한 경우의 그레이 영상의 밝기로 변환시키는 단계;
    (c3) 상기 그레이 영상을 프리윗 마스크 필터 처리하는 단계;
    (c4) 상기 프리윗 마스크 필터 처리된 영상을 이중임계처리하여 상기 그레이 영상의 주선의 끊김을 방지하는 단계;
    (c5) 상기 이중임계처리된 영상을 클로징 처리하는 단계;
    (c6) 상기 클로징 처리된 영상을 중간값 필터링( Median filtering ) 하여 상기 주선을 부드럽게 하는 단계; 및
    (c7) 상기 중간값 필터링된 영상을 세선화( thinning ) 처리하는 단계를 포함하는 것을 특징으로 하는 장문인증방법.
  4. 제 3 항에 있어서, 상기 (c5)의 이중임계처리는
    다음 수학식
    Figure 112007003442767-pat00033
    에 의하되, 여기서 f(x,y)는 이중임계처리 전 영상의 각 좌표에 해당하는 명암값을 의미하며, g(x,y)는 이중임계처리 후 대응되는 영상의 각 좌표에 해당하는 이중임계처리값을 의미하고, t0, t1 및 t2는 각각 이중임계처리에 필요한 임계값을 나타내는 것을 특징으로 하는 장문인식방법.
  5. 제 3 항에 있어서,
    (c8) 상기 세선화 처리된 영상의 좌측하단지점부터 우측상단의 방향으로 이동 하면서 주선을 검색하는 단계;
    (c9) 상기 검색결과 주선이 검색되었으면, 상기 주선이 검색된 지점으로부터 상기 영상의 좌측상단 방향의 끝까지 상기 주선을 추적하는 단계;
    (c10) 상기 좌측상단 방향의 주선의 방향 및 길이를 계산하여 이를 저장하는 단계;
    (c11) 상기 주선이 검색된 지점으로부터 상기 영상의 우측하단 방향의 끝까지 상기 주선을 추적하는 단계;
    (c12) 상기 우측하단 방향의 주선의 방향 및 길이를 계산하여 이를 저장하는 단계; 및
    (c13) 상기 좌측상단방향의 주선의 방향 및 길이 정보와 상기 우측하단방향의 주선의 방향 및 길이 정보를 기초로 주선 전체의 방향 및 길이정보를 생성시켜 이를 저장하는 단계를 포함하는 것을 특징으로 하는 장문인증방법.
  6. 제 5 항에 있어서,
    (c14) 주선검색이 완료되었는지 여부를 판단하여 그렇지 않은 경우에는 상기 (c8) 단계로 이동하는 단계를 더 포함하는 것을 특징으로 하는 장문인증방법.
  7. 제 5 항에 있어서, 상기 (c8) 단계에서 주선을 검색하는 방향은
    다음 수학식
    T = [(Xn+1, Y), (X, Yn-1)]에 의하되, X 및 Xn은 상기 영상의 가로축 방향 의 픽셀번호를, Y 및 Yn은 세로축 방향의 픽셀번호를 의미하는 것을 특징으로 하는 장문인증방법.
  8. 제 5 항에 있어서, 상기 (c9) 단계는
    다음 수학식
    P°(X, Y) = P(Xc, Yc) 이고, P(Xc, Yc) = I(x,y)·F 이며, F = [f(x-1,y-1), f(x-1,y), f(x, y-1)]에 의하되, 여기서, P°(X, Y)는 다음 추적에 필요한 초기좌표 이며, P(Xc, Yc)는 새로운 이동 좌표이고, I는 입력영상이며, F는 검색필터(Filter)를 의미하고, F는 방향값인 것을 특징으로 하는 장문인증방법.
  9. 제 5 항에 있어서, 상기 (c10) 단계는
    상기 좌측상향 방향의 주선의 길이는 상기 주선을 구성하는 픽셀수의 합이며, 상기 주선의 방향은 추적의 초기좌표로부터 주선을 구성하는 픽셀의 위치가 좌측 45도 대각선 방향인 경우에는 135도, 좌측 수평방향인 경우는 180도, 수직상부방향인 경우에는 90도로 하되 각 방향의 픽셀의 숫자 중 가장 많은 수의 픽셀의 방향을 상기 주선의 방향으로 하는 것을 특징으로 하는 장문인증방법.
  10. 제 1 항 내지 제 9 항의 방법 중 어느 한 항의 방법을 컴퓨터로 실행시킬 수 있는 컴퓨터프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  11. 소정의 손바닥을 촬영한 칼라영상을 입력받은 칼라영상 입력부;
    상기 칼라영상 입력부로부터 상기 칼라영상을 제공받아, 상기 칼라영상으로 부터 알지비(RGB) 영상을 분리하고, 상기 알지비(RGB) 영상으로부터 블루(BLUE) 영상을 분리하는 블루영상 분리부;
    상기 블루영상 분리부로부터 상기 블루영상을 제공받아, 상기 블루영상으로부터 주선의 길이, 방향, 개수 중 어느 하나를 포함하는 주선정보를 추출하는 주선추출부;
    상기 주선정보를 길이 순으로 정렬시키는 주선정보 정렬부; 및
    상기 주선정보를 저장하는 주선정보 관리부를 포함하는 것을 특징으로 하는 장문인증장치.
  12. 제 11 항에 있어서,
    상기 주선추출부로부터 소정의 주선정보를 제공받고, 미리 저장되어 있던 주선정보와 상기 제공받은 주선정보가 일치하는지 여부를 확인하여 일치하는 경우 이를 인증하는 장문인증부를 더 포함하는 것을 특징으로 하는 장문인증장치.
  13. 제 11 항에 있어서, 상기 주선추출부는
    상기 블루영상을 그레이 처리하여 그레이 영상으로 변환시킨 후 상기 그레이 영상의 밝기를 상기 칼라영상을 곧바로 그레이 처리한 경우의 그레이 영상의 밝기로 변환시키는 그레이 영상부;
    상기 그레이 영상부로부터 상기 그레이 영상을 제공받아, 상기 그레이 영상을 프리윗 마스크 필터 처리한 후, 상기 프리윗 마스크 필터 처리된 영상을 이중임계처리하여 상기 그레이 영상의 주선의 끊김을 방지하고, 상기 이중임계처리된 영상을 클로징 처리하고, 상기 클로징 처리된 영상을 중간값 필터링( Median filtering ) 하여 상기 주선을 부드럽게 한 후 상기 중간값 필터링된 영상을 세선화( thinning ) 처리하는 세선화 처리부를 포함하는 것을 특징으로 하는 장문인증장치.
  14. 제 13 항에 있어서, 상기 세선화 처리부의 이중임계처리는
    다음 수학식
    Figure 112007003442767-pat00034
    에 의하되, 여기서 f(x,y)는 이중임계처리 전 영상의 각 좌표에 해당하는 명암값을 의미하며, g(x,y)는 이중임계처리 후 대응되는 영상의 각 좌표에 해당하는 이중임계처리값을 의미하고, t0, t1 및 t2는 각각 이중임계처리에 필요한 임계값을 나타내는 것을 특징으로 하는 장문인식장치.
  15. 제 13 항에 있어서,
    상기 세선화 처리부로부터 상기 세선화 처리된 영상을 제공받고, 상기 세선화 처리된 영상의 좌측하단지점부터 우측상단의 방향으로 이동하면서 주선을 검색하는 주선 검출부;
    상기 주선 검출부로부터 상기 주선이 검색된 지점을 제공받고, 상기 주선이 검색된 지점으로부터 상기 영상의 좌측상단 방향의 끝까지 상기 주선을 추적한 후, 상기 좌측상단 방향의 주선의 방향 및 길이를 계산하여 이를 저장하는 좌측상단 주선 검색부;
    상기 주선 검출부로부터 상기 주선이 검색된 지점을 제공받고, 상기 주선이 검색된 지점으로부터 상기 영상의 우측하단 방향의 끝까지 상기 주선을 추적한 후, 상기 우측하단 방향의 주선의 방향 및 길이를 계산하여 이를 저장하는 우측하단 주선 검색부; 및
    상기 좌측상단 주선검색부로부터 상기 좌측상단방향의 주선의 방향 및 길이를 제공받고, 상기 우측하단 주선검색부로부터 상기 우측하단방향의 주선의 방향 및 길이를 제공받은 후, 상기 좌측상단방향의 주선의 방향 및 길이 정보와 상기 우측하단방향의 주선의 방향 및 길이 정보를 기초로 주선 전체의 방향 및 길이정보를 생성시켜 이를 저장하는 주선정보 생성부를 포함하는 것을 특징으로 하는 장문인증장치.
  16. 제 15 항에 있어서, 상기 좌측상단 주선 검색부가 주선을 검색하는 방향은
    다음 수학식
    T = [(Xn+1, Y), (X, Yn-1)]에 의하되, X 및 Xn은 상기 영상의 가로축 방향의 픽셀번호를, Y 및 Yn은 세로축 방향의 픽셀번호를 의미하는 것을 특징으로 하는 장문인증장치.
  17. 제 15 항에 있어서, 상기 좌측상단 주선검색부의 주선 검색은
    다음 수학식
    P°(X, Y) = P(Xc, Yc) 이고, P(Xc, Yc) = I(x,y)·F 이며, F = [f(x-1,y-1), f(x-1,y), f(x, y-1)]에 의하되, 여기서, P°(X, Y)는 다음 추적에 필요한 초기좌표 이며, P(Xc, Yc)는 새로운 이동 좌표이고, I는 입력영상이며, F는 검색필터(Filter)를 의미하고, F는 방향값인 것을 특징으로 하는 장문인증장치.
  18. 제 15 항에 있어서, 상기 좌측상단 주선검색부가 상기 주선의 길이 및 방향을 계산하는 것은
    상기 좌측상향 방향의 주선의 길이는 상기 주선을 구성하는 픽셀수의 합으로 하며, 상기 주선의 방향은 추적의 초기좌표로부터 주선을 구성하는 픽셀의 위치가 좌측 45도 대각선 방향인 경우에는 135도, 좌측 수평방향인 경우는 180도, 수직상부방향인 경우에는 90도로 하되 각 방향의 픽셀의 숫자 중 가장 많은 수의 픽셀의 방향을 상기 주선의 방향으로 하는 것을 특징으로 하는 장문인증장치.
KR1020050108476A 2005-11-14 2005-11-14 장문인증방법 및 그 장치 KR100706000B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050108476A KR100706000B1 (ko) 2005-11-14 2005-11-14 장문인증방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050108476A KR100706000B1 (ko) 2005-11-14 2005-11-14 장문인증방법 및 그 장치

Publications (1)

Publication Number Publication Date
KR100706000B1 true KR100706000B1 (ko) 2007-04-12

Family

ID=38161463

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050108476A KR100706000B1 (ko) 2005-11-14 2005-11-14 장문인증방법 및 그 장치

Country Status (1)

Country Link
KR (1) KR100706000B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010008143A2 (ko) * 2008-07-14 2010-01-21 주식회사 유니온커뮤니티 생체지문 판단장치 및 그 판단방법
WO2018194187A1 (ko) * 2017-04-17 2018-10-25 주식회사 유니온커뮤니티 신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990067885A (ko) * 1998-01-14 1999-08-25 가네코 히사시 손금 이미지의 등록 방법, 대조 방법 및 손금 이미지의 등록/대조 장치
KR20020034465A (ko) * 2000-11-02 2002-05-09 박동근 Scanner기술을 기반으로 하는 손금인식장치 및 그 방법
KR20020061375A (ko) * 2001-01-16 2002-07-24 이승호 장문 및 정맥 패턴 인식을 이용한 보안관리 시스템
KR20020076142A (ko) * 2001-03-26 2002-10-09 닛뽄덴끼 가부시끼가이샤 지문/장문 화상 처리 장치 및 처리 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990067885A (ko) * 1998-01-14 1999-08-25 가네코 히사시 손금 이미지의 등록 방법, 대조 방법 및 손금 이미지의 등록/대조 장치
KR20020034465A (ko) * 2000-11-02 2002-05-09 박동근 Scanner기술을 기반으로 하는 손금인식장치 및 그 방법
KR20020061375A (ko) * 2001-01-16 2002-07-24 이승호 장문 및 정맥 패턴 인식을 이용한 보안관리 시스템
KR20020076142A (ko) * 2001-03-26 2002-10-09 닛뽄덴끼 가부시끼가이샤 지문/장문 화상 처리 장치 및 처리 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010008143A2 (ko) * 2008-07-14 2010-01-21 주식회사 유니온커뮤니티 생체지문 판단장치 및 그 판단방법
WO2010008143A3 (ko) * 2008-07-14 2010-03-11 주식회사 유니온커뮤니티 생체지문 판단장치 및 그 판단방법
WO2018194187A1 (ko) * 2017-04-17 2018-10-25 주식회사 유니온커뮤니티 신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법

Similar Documents

Publication Publication Date Title
EP1434164B1 (en) Method of extracting teeth area from teeth image and personal identification method and apparatus using the teeth image
KR102561723B1 (ko) 모바일 디바이스를 사용하여 캡처된 화상을 사용하여 지문 기반 사용자 인증을 수행하기 위한 시스템 및 방법
Sun et al. Improving iris recognition accuracy via cascaded classifiers
US7899217B2 (en) Multibiometric multispectral imager
CN109766836B (zh) 一种指静脉识别解锁方法及系统
US20160379042A1 (en) Apparatuses, systems, and methods for confirming identity
EP1903509A1 (en) Living body guidance control method for a biometric authentication device, and biometric authentication device
KR101626837B1 (ko) 손가락 마디 및 지정맥 기반의 융합형 생체 인증 방법 및 그 장치
KR20090087895A (ko) 생체인식정보의 추출과 대조를 위한 방법 및 장치
US20110188710A1 (en) Biometric authentication apparatus, biometric authentication method, and program
AU2016214084A1 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
CN101027678A (zh) 基于单个图像的多生物统计系统及方法
CN103530659B (zh) 结合原始和对称脸人脸图像的人脸识别方法及考勤系统
CN111462379A (zh) 一种含掌静脉和人脸识别的门禁管理方法、系统及介质
WO2010032126A2 (en) A vein pattern recognition based biometric system and methods thereof
CN110647955A (zh) 身份验证方法
JP2006107288A (ja) 個人認証方法、装置及びプログラム
CN101681497A (zh) 静脉图形管理系统、静脉图形注册设备、静脉图形认证设备、静脉图形注册方法、静脉图形认证方法、程序和静脉数据配置
CN112949365A (zh) 活体脸部辨识系统与方法
CN111259757B (zh) 一种基于图像的活体识别方法、装置及设备
WO2016023582A1 (en) A method of detecting a falsified presentation to a vascular recognition system
KR20080079798A (ko) 얼굴 검출 및 인식을 위한 방법
KR100706000B1 (ko) 장문인증방법 및 그 장치
KR101994609B1 (ko) 개인 인증 장치
WO2018185574A1 (en) Apparatus and method for documents and/or personal identities recognition and validation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120319

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20130329

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee