KR101035930B1 - 화상 판독 장치, 화상 판독 프로그램을 기록한 기록 매체, 화상 판독 방법 - Google Patents

화상 판독 장치, 화상 판독 프로그램을 기록한 기록 매체, 화상 판독 방법 Download PDF

Info

Publication number
KR101035930B1
KR101035930B1 KR1020097015035A KR20097015035A KR101035930B1 KR 101035930 B1 KR101035930 B1 KR 101035930B1 KR 1020097015035 A KR1020097015035 A KR 1020097015035A KR 20097015035 A KR20097015035 A KR 20097015035A KR 101035930 B1 KR101035930 B1 KR 101035930B1
Authority
KR
South Korea
Prior art keywords
image
extrapolation
images
relative position
unit
Prior art date
Application number
KR1020097015035A
Other languages
English (en)
Other versions
KR20090098894A (ko
Inventor
유키히로 아비코
Original Assignee
후지쯔 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후지쯔 가부시끼가이샤 filed Critical 후지쯔 가부시끼가이샤
Publication of KR20090098894A publication Critical patent/KR20090098894A/ko
Application granted granted Critical
Publication of KR101035930B1 publication Critical patent/KR101035930B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Abstract

본 발명의 화상 판독 장치는, 상대적으로 이동하고 있는 대상물의 부분을 순차적으로 판독함으로써 얻어지는 제1 화상을 복수 취득하는 지문 센서(1)와, 제1 화상에 화상의 외삽을 수행함으로써 상기 제1 화상의 화상 범위를 확장한 화상인 제2 화상을 생성하는 외삽부(3)와, 제1 화상 및 제2 화상 중 하나 이상으로 이루어지는 복수의 화상에 기초하여, 제1 화상 또는 제2 화상 사이의 상대 위치를 산출하는 상대 위치 검출부(4)를 구비한다.

Description

화상 판독 장치, 화상 판독 프로그램을 기록한 기록 매체, 화상 판독 방법{IMAGE READING DEVICE, RECORDING MEDIUM HAVING IMAGE READING PROGRAM, AND IMAGE READING METHOD}
본 발명은, 상대 이동하는 대상물로부터 복수의 부분 화상을 순차적으로 판독하는 화상 판독 장치, 화상 판독 프로그램, 화상 판독 방법에 관한 것이다.
휴대 전화나 PDA(Personal Digital Assistant) 등의 소형 정보 기기는, 최근의 고기능화에 따라, 네트워크에 접속되거나 대량의 개인 정보 등을 저장할 수 있게 되어, 이들 기기에 있어서의 보안 성능 향상의 요구가 매우 높아지고 있다. 이러한 기기에 있어서 보안을 확보하기 위해서, 종래부터 널리 이용되고 있는 패스워드나 ID(Identification) 카드 등에 의한 개인 인증을 채용하는 것이 고려된다. 그러나, 패스워드나 ID 카드는 도용될 위험성이 높기 때문에, 보다 신뢰성이 높은 개인 인증(기기의 사용자가 미리 등록된 사용자 본인인 것의 인증)을 실현하는 것이 강하게 요망되고 있다.
이러한 요망에 대하여, 생체 정보(바이오메트릭스)에 의한 개인 인증은 신뢰성이 높고, 전술한 요망에 부응할 수 있는 것이라 생각된다. 특히, 생체 정보로서 지문을 이용한 경우에는 편리성도 높다.
생체 정보로서 지문을 이용하여 개인 인증을 수행하는 경우, 정전 용량식 지 문 센서나 광학식 지문 센서에 의해, 피인증자의 손가락으로부터 지문[지문 센서의 채취면에 접촉할 수 있는 융선과 상기 채취면에 접촉하지 않는 곡선(谷線)으로 이루어지는 문양]을 화상 정보로서 채취한다. 그리고, 그 지문 화상의 전경[예컨대 융선상(隆線像)]으로부터 특징 정보[예컨대 분기점이나 끝점의 위치 정보]를 추출하고, 추출된 특징 정보와 미리 등록되어 있는 피인증자의 등록 특징 정보를 대조함으로써, 피인증자가 본인인지의 여부를 판정, 즉 개인 인증을 수행하고 있다.
그런데, 피인증자로부터 지문 화상을 채취하는 일반적인 지문 센서(이하, 평면형 지문 센서라고 하는 경우가 있음)는, 통상 손가락 크기보다도 큰 센서면(채취면)을 갖고 있다. 그러나, 최근, 지문 센서를 휴대 전화나 PDA와 같은 소형 정보 기기에 탑재하기 위해서, 센서면의 크기를 손가락 크기보다도 작게 하고, 그 센서면을 통하여 연속적으로 채취된 복수의 부분 화상을 통합하여 지문 전체의 화상을 얻고 있다.
이러한 상황에 대응한 지문 센서로서, 스위프형의 것이 있다(예컨대 특허 문헌 1, 특허 문헌 2, 특허 문헌 3, 특허 문헌 4 참조). 이 스위프형 지문 센서는, 손가락 길이보다도 충분히 짧고, 소면적의 직사각형 채취면(센서면/촬상면)을 갖고 있다. 그리고, 손가락을 채취면에 대하여 이동시키거나, 또는 채취면(지문 센서)을 손가락에 대하여 이동시키면서, 지문 센서에 의해, 손가락 지문에 대하여 복수의 부분 화상을 연속적으로 채취하여, 채취된 복수의 부분 화상으로부터, 손가락의 지문 화상 전체를 재구성한다. 이와 같이 재구성된 지문 화상으로부터, 특징점(융선의 분기점이나 끝점)의 정보를 추출·생성하고, 그 정보에 기초하여 상기 개인 인 증이 수행된다. 또한, 전술한 바와 같은, 채취면에 대한 손가락의 상대 위치를 변화시키는 것(상대 이동)을 「스위프(sweep)」 또는 「슬라이드(slide)」라고 부른다.
또한, 스위프형 지문 센서를 포인팅 디바이스에 이용하는 기술이 있다(예컨대, 특허 문헌 5 참조).
[특허 문헌 1] 일본 특허 공개 평성 제10-091769호 공보
[특허 문헌 2] 일본 특허 공개 제2003-208620호 공보
[특허 문헌 3] 일본 특허 공개 제2006-107366호 공보
[특허 문헌 4] 일본 특허 공개 제2003-248820호 공보
[특허 문헌 5] 일본 특허 공개 제2001-307078호 공보
그러나, 전술한 특허 문헌 1, 특허 문헌 2, 특허 문헌 3, 특허 문헌 4의 기술에 있어서, 채취한 지문의 부분 화상으로부터 지문 전체의 정보를 얻을 때, 부분 화상 사이에 중복 부분이 있어야 한다. 마찬가지로, 특허 문헌 5의 기술에 있어서도, 손가락의 이동 방향 및 방향을 측정하기 위해서는, 부분 화상 사이에 중복 부분이 있어야 한다.
본 발명은 전술한 문제점을 해결하기 위해서 이루어진 것으로, 취득된 부분 화상 사이에 중복이 없는 경우에도 부분 화상 사이의 위치 관계를 검출할 수 있는 화상 판독 장치, 화상 판독 프로그램, 화상 판독 방법을 제공하는 것을 목적으로 한다.
전술한 과제를 해결하기 위해서, 본 발명은, 상대적으로 이동하고 있는 대상물의 부분을 순차적으로 판독함으로써 얻어지는 화상인 제1 화상을 복수 취득하는 취득부와, 상기 제1 화상에 화상의 외삽을 수행함으로써 상기 제1 화상의 화상 범위를 확장한 화상인 제2 화상을 생성하는 외삽부와, 상기 제1 화상 및 상기 제2 화상 중 적어도 어느 하나로 이루어지는 복수의 화상에 기초하여, 상기 제1 화상 또는 상기 제2 화상 사이의 상대 위치를 산출하는 산출부를 구비한 것이다.
또한, 본 발명은, 상대적으로 이동하고 있는 대상물의 부분을 순차적으로 판독함으로써 얻어지는 화상인 제1 화상을 복수 취득하는 취득 단계와, 상기 제1 화상에 화상의 외삽을 수행함으로써 상기 제1 화상의 화상 범위를 확장한 화상인 제2 화상을 생성하는 외삽 단계와, 상기 제1 화상 및 상기 제2 화상 중 적어도 어느 하나로 이루어지는 복수의 화상에 기초하여, 상기 제1 화상 또는 상기 제2 화상 사이의 상대 위치를 산출하는 산출 단계를 컴퓨터에 실행시키는 것이다.
또한, 본 발명은, 상대적으로 이동하고 있는 대상물의 부분을 순차적으로 판독함으로써 얻어지는 화상인 제1 화상을 복수 취득하는 취득 단계와, 상기 제1 화상에 화상의 외삽을 수행함으로써 상기 제1 화상의 화상 범위를 확장한 화상인 제2 화상을 생성하는 외삽 단계와, 상기 제1 화상 및 상기 제2 화상 중 적어도 어느 하나로 이루어지는 복수의 화상에 기초하여, 상기 제1 화상 또는 상기 제2 화상 사이의 상대 위치를 산출하는 산출 단계를 실행하는 것이다.
도 1은 실시형태 1에 따른 지문 판독 장치의 구성의 일례를 도시하는 블록도 이다.
도 2는 실시형태 1에 따른 지문 판독 장치의 동작의 일례를 도시하는 흐름도이다.
도 3은 실시형태 1에 따른 지문 센서의 동작의 일례를 도시하는 평면도이다.
도 4는 실시형태 1에 따른 부분 화상의 일례를 도시하는 도면이다.
도 5는 실시형태 1에 따른 외삽 부분의 일례를 도시하는 개념도이다.
도 6은 실시형태 1에 따른 외삽 처리의 동작의 일례를 도시하는 흐름도이다.
도 7은 저분해능 화상에서의 엣지 방향의 일례를 도시하는 개념도이다.
도 8은 고분해능 화상에서의 엣지 방향의 일례를 도시하는 개념도이다.
도 9는 실시형태 1에 따른 엣지 방향 검출 처리의 동작의 일례를 도시하는 흐름도이다.
도 10은 실시형태 1에 따른 골격선의 일례를 도시하는 개념도이다.
도 11은 실시형태 1에 따른 골격선 검출 처리의 동작의 일례를 도시하는 흐름도이다.
도 12는 실시형태 1에 따른 주파수 정보를 이용하는 외삽 처리의 일례를 도시하는 개념도이다.
도 13은 실시형태 1에 따른 주파수 정보를 이용하는 외삽 처리의 동작의 일례를 도시하는 흐름도이다.
도 14는 실시형태 1에 따른 제1 케이스의 일례를 도시하는 개념도이다.
도 15는 실시형태 1에 따른 제2 케이스의 일례를 도시하는 개념도이다.
도 16은 실시형태 1에 따른 제3 케이스의 일례를 도시하는 개념도이다.
도 17은 실시형태 1에 따른 부분 화상과 외삽 부분의 위치 관계의 일례를 도시하는 개념도이다.
도 18은 실시형태 1에 따른 지문 판독 장치의 동작의 다른 일례를 도시하는 흐름도이다.
도 19는 실시형태 2에 따른 지문 판독 장치의 구성의 일례를 도시하는 블록도이다.
도 20은 실시형태 2에 따른 지문 판독 장치의 동작의 일례를 도시하는 흐름도이다.
도 21은 실시형태 2에 따른 출력 정보의 형식의 일례를 도시하는 표이다.
도 22는 실시형태 2에 따른 출력 정보의 헤더부의 형식의 일례를 도시하는 표이다.
도 23은 실시형태 2에 따른 출력 정보의 부분 화상 정보의 형식의 일례를 도시하는 표이다.
이하, 본 발명의 실시형태에 대하여 도면을 참조하면서 설명한다.
실시형태 1.
본 실시형태에서는, 본 발명의 화상 판독 장치를 지문 판독 장치에 적용한 경우에 대하여 설명한다. 본 실시형태에 따른 지문 판독 장치는, 손가락의 이동에 따라 지문의 부분 화상(제1 화상)을 복수 취득하고, 복수의 부분 화상으로부터 지 문의 전체 화상을 재구성하여 출력한다. 또한, 판독하는 대상물은 손바닥에 난 손금의 무늬, 손가락 정맥, 손바닥 정맥 등 다른 생체 정보를 이용해도 좋다.
먼저, 본 실시형태에 따른 지문 판독 장치의 구성에 대하여 설명한다.
도 1은 본 실시형태에 따른 지문 판독 장치의 구성의 일례를 도시하는 블록도이다. 이 지문 판독 장치는, 지문 센서(1)(취득부), 예측부(2)(지시부), 외삽부(3), 상대 위치 검출부(4)(산출부), 재구성부(5)(합성부)를 구비한다.
다음으로, 본 실시형태에 따른 지문 판독 장치의 동작에 대하여 설명한다.
도 2는 본 실시형태에 따른 지문 판독 장치의 동작의 일례를 도시하는 흐름도이다. 먼저, 각 부는, 초기 설정을 수행한다(S11). 다음으로, 예측부(2)는, 과거에 산출된 부분 화상의 상대 위치로부터, 다음에 취득하는 부분 화상의 상대 위치를 예측하는 예측 처리를 수행한다(S12). 단, 아직 복수의 부분 화상의 상대 위치가 취득되지 않은 경우, 예측부(2)는 동작하지 않는다.
다음으로, 지문 센서(1)는, 부분 화상을 취득하는 부분 화상 취득 처리를 수행하고(S13, 취득 단계), 예측부(2)는, 예측 처리에 의해 예측된 위치에 기초하여 외삽 처리를 수행할지의 여부를 판정하는 외삽 판정 처리를 수행한다(S14). 외삽 처리를 수행한다고 판정된 경우(S14, Y), 외삽부(3)는, 부분 화상의 외삽을 수행함으로써 부분 화상으로부터 확장 화상(제2 화상)을 생성하는 외삽 처리를 수행하고(S15, 외삽 단계), 다음 처리로 이행하며, 외삽 처리를 수행하지 않는다고 판정된 경우(S14, N), 다음 처리로 이행한다. 다음으로, 상대 위치 검출부(4)는, 부분 화상 및 확장 화상에 기초하여 부분 화상 또는 확장 화상 사이의 상대 위치를 검출 하는 상대 위치 검출 처리를 수행한다(S16, 산출 단계).
여기서, 부분 화상 취득 처리에는 전(前)처리가 있어도 좋다. 예컨대, 일반적인 노이즈 제거 처리나, 지문 센서(1)의 디바이스 특성에 맞춘 특성 보상 처리 등이 전처리에 해당한다. 디바이스 특성상, 지문 센서(1) 위를 통과하는 생체의 이동 속도 등에 의해, 화상이 신축 왜곡을 일으키거나, 스큐 왜곡을 일으키는 경우에는, 상대 위치 검출 처리 후에, 왜곡 보정 처리 등의 후처리가 있어도 좋다.
다음으로, 예측부(2)는 대상물(손가락)이 이동하고 있는지의 여부를 판정하고, 이동하고 있다고 판정된 경우(S17, 대상물이 이동하고 있음) 처리 S12로 되돌아가고, 정지해 있다고 판정된 경우(S17, 대상물이 정지해 있음) 다음 처리로 이행한다.
다음으로, 재구성부(5)는 상대 위치 등에 기초하는 상태가 소정의 조건을 만족시키는지의 여부를 판단한다(S18). 소정의 조건을 만족시키지 않은 경우(S18, 소정의 조건을 만족시키지 않음), 처리 S12로 되돌아간다. 소정의 조건을 만족시키는 경우(S18, 소정의 조건을 만족시킴), 재구성부(5)는, 부분 화상의 상대 위치에 기초해서 복수의 부분 화상을 합성하여, 지문의 전체 화상을 생성하는 재구성 처리를 수행하고(S21), 모든 부분 화상을 처리했는지의 여부를 판단한다(S22). 모든 부분 화상을 처리하지 않은 경우(S22, 모든 부분 화상을 처리하지 않음), 처리 S21로 되돌아가서, 재구성부(5)는 다음의 부분 화상을 처리하고, 모든 부분 화상을 처리한 경우(S22, 모든 부분 화상을 처리하였음) 전체 화상을 출력 정보로서 출력하고, 이 흐름은 종료된다. 또한, 청구항에 있어서의 지시 단계는 처리 S12, S14에 대응한 다.
여기서, 재구성부(5)에 의해 얻어지는 상태로서는, 생체 정보의 접촉 범위, 면적, 이동 속도 평균, 이동 속도 변동, 이동 방향, 이동 방향 변동 등이 있다. 처리 S11에서, 재구성부(5)는 이들 상태에 대한 임계값을 소정의 조건으로서 설정한다. 또한, 처리 S11은 처리 S12∼S16의 반복 횟수의 상한값을 설정하고, 처리 S13은 반복 횟수가 상한값을 초과한 경우에 생체가 정지하였다고 간주하여, 다음 처리로 진행되어도 좋다.
다음으로, 지문 센서(1)에 대하여 설명한다.
지문 센서(1)는 스위프형이며, 피검자의 지문(생체 정보)을 영상화하여, 지문으로부터 복수의 부분 화상을 단속적으로 검출하는 것이고, 지문 센서(1)에 대하여 상대적으로 이동하고 있는 손가락(생체 부위)을 판독하여, 이차원 배열 형상의 부분 화상을 단속적으로 복수 취득하는 것이다.
지문 센서(1)는, 예컨대 정전 용량식, 감열식, 전계식, 광학식 중 임의의 검출 방법을 갖는다. 지문은, 피검자의 외피 상에 형성되어 있고, 센서면에 접촉할 수 있는 융선(접촉 부분)과 센서면에 접촉하지 않는 곡선(谷線)(비접촉 부분/공극 부분)으로 이루어지는 문양이다. 지문 센서는, 센서면에 접촉하는 융선 부분과 센서면에 접촉하지 않는 곡선 부분에서 검지 감도가 다른 것을 이용하여, 지문의 부분 화상을 2치 이상의 다치 화상으로서 채취한다. 예컨대, 정전 용량형이나 전계형의 지문 센서로부터 취득되는 다치 화상에서는, 센서로부터의 거리에 따라서 휘도가 다르고, 통상 센서와의 거리가 가까운 융선 부분이 저휘도로 표시되고, 센서와 의 거리가 먼 곡선 부분이 고휘도로 표시된다.
지문 판독 시, 이용자는, 지문 센서의 센서면 위에서 손가락으로 접촉하면서, 손가락의 밑동측으로부터 손가락끝측으로, 보다 구체적으로는 제1 관절 부근으로부터 손가락끝측으로, 손가락의 우측으로부터 좌측으로 등 임의의 방향으로 손가락을 이동시킨다. 단, 지문 센서측을 손가락에 대하여 이동시키는 기구를 구비한 경우에는, 이용자는 손가락을 이동시킬 필요는 없다. 도 3은 본 실시형태에 따른 지문 센서의 동작의 일례를 도시하는 평면도이다. 이후, 본 실시형태에서는, 이 도면에 도시하는 바와 같이 이용자가 손가락을 제1 관절 부근으로부터 손가락끝을 향해서 슬라이드하는 경우에 대하여 설명한다. 지문 센서(1)는 시각 t0, … t-3, t-2, t-1, t에서 각각의 위치의 부분 화상을 취득한다.
다음으로, 상대 위치 검출부(4)에 대하여 설명한다.
상대 위치 검출부(4)는, 지문 센서(1)에 의해 취득된 지문의 부분 화상마다, 지문 센서(1)에 대한 손가락의 상대 위치, 즉 상대 이동 거리를 검출하는 것이다. 상대 위치는, 바꿔 말하면, 부분 화상 또는 확장 화상인 2장의 화상에 있어서 대응하는 부위가 꼭 겹쳐지는 위치이다. 구체적으로 서술하면, 상대 위치 검출부(4)는, 잔차 축차 검정법에 의한 비유사도 또는 상호 상관법에 의한 유사도를 산출하고, 전자에서는 극소값이 얻어지는 상대 위치를, 후자에서는 극대값이 얻어지는 상대 위치를 산출한다.
먼저, 잔차 축차 검정법에 대하여 설명한다.
도 4는 본 실시형태에 따른 부분 화상의 일례를 도시하는 도면이다. 이 도면에 도시하는 바와 같이, 시각 t에서 취득된 부분 화상 I0(사이즈가 M×N 화소)과 시각 t+Δt에서 취득된 부분 화상 I1(사이즈가 M×N 화소)을 이용한다. 또한, 우측 방향으로의 좌표를 i, 하측 방향으로의 좌표를 j라고 하면, 부분 화상 I0(i,j), 부분 화상 I1(i,j), 0≤i<M, 0≤j<N으로 표시한다. 또한, 부분 화상 I0(i,j)에 있어서 좌측 위의 좌표를 (0,0)으로 하는 주목 영역(중복 부분)을 I0(0,0)(사이즈가 ma×nb 화소)으로 나타낸다. 부분 화상 I1(i,j)에 있어서 좌측 위의 좌표를 (a,b)로 하는 주목 영역(중복 부분)을 I1(a,b)(사이즈가 ma×nb 화소)로 나타낸다. 또한, 부분 화상 I0에 대한 부분 화상 I1의 상대 위치(상대적인 어긋남량)를 (a,b)로 나타낸다. 여기서, 주목 영역 I0 (0,0)과 주목 영역 I1 (a,b)의 비유사도 R(a,b)를 다음 식과 같이 산출한다.
R(a,b)=ΣΣ│I1(a,b)(i,j)-I0(0,0)(i,j)│/(ma×nb), 단 a<0, b<0
R(a,b)=ΣΣ│I1(0,b)(i,j)-I0(a,0)(i,j)│/(ma×nb), 단 a≥0, b<0
R(a,b)=ΣΣ│I1(a,0)(i,j)-I0(0,b)(i,j)│/(ma×nb), 단 a<0, b≥0
R(a,b)=ΣΣ│I1(0,0)(i,j)-I0(a,b)(i,j)|/(ma×nb), 단 a≥0, b≥0
여기서, i는 0≤i<ma, j는 0≤i<nb이고, Ik(i,j)는 휘도값을 나타낸다. Σ 기 호는, i, j의 각각에 관하여 전술한 범위에서 총합을 구하는 조작을 나타낸다. 또한, 슬라이드 방향을 소정의 범위로 한정할 수 있는 경우에는, 전술한 4개의 식 중에서 어느 하나 이상의 식을 선택할 수 있다. 또한, a와 b는 소정의 범위로 한정해도 좋다. 또한, a와 b의 경계 조건 등에 대해서는 일탈하지 않는 범위에서 변형해도 좋다. 어떠한 경우에도, 상대 위치 검출부(4)는 비유사도 R(a,b)가 극소값 Rmin (a,b)가 되는 상대 위치 (a,b)를 출력한다.
다음으로, 상호 상관법에 대하여 설명한다.
잔차 축차 검정법과 마찬가지로, 부분 화상 I0, 부분 화상 I1, 주목 영역(중복 부분) I0(0,0), 주목 영역(중복 부분) I1(a,b)를 이용한다. 여기서는, 주목 영역 I0(0,0)과 주목 영역 I1 (a,b)의 유사도 R(a,b)를 다음 식과 같이 산출한다.
R(a,b)=ΣΣ{I1(a,b)(i,j)-E(I1(a,b))}{I0(0,0)(i,j)-E(I0(0,0))}/√(V(I1(a,b))×V(I0(0,0))), 단 a<0, b<0
R(a,b)=ΣΣ{I1(0,b)(i,j)-E(I1(0,b))}{I0(a,0)(i,j)-E(I0(a,0))}/√(V(I1(0,b))×V(I0(a,0))), 단 a≥0, b<0
R(a,b)=ΣΣ{I1(a,0)(i,j)-E(I1(a,0))}{I0(0,b)(i,j)-E(I0(0,b))}/√(V(I1(a,0))×V(I0(0,b))), 단 a<0, b≥0
R(a,b)=ΣΣ{I1(0,0)(i,j)-E(I1(0,0))}{I0(a,b)(i,j)-E(I0(a,b))}/√(V(I1(0,0))×V(I0(a,b ))), 단 a≥0, b≥0
여기서, E(Ik)=ΣΣIk(i,j)/(ma×nb),
V(Ik)=ΣΣ{Ik(i,j)-E(Ik)}2
표기 방법은 잔차 축차 추정법의 설명과 동일하다. 또한, 슬라이드 방향을 소정의 범위로 한정할 수 있는 경우에는, 전술한 4개의 식 중에서 어느 하나 이상의 식을 선택할 수 있다. 또한, a와 b는 소정의 범위로 한정해도 좋다. 또한, a와 b의 경계 조건 등에 대해서는 일탈하지 않는 범위에서 변형해도 좋다. 어떠한 경우에도, 상대 위치 검출부(4)는 유사도 R(a,b)가 극대값 Rmax (a,b)가 되는 상대 위치 (a,b)를 출력한다.
지문 센서(1)의 감도를 일정하게 유지하는 경우나 부분 화상에 노이즈가 적은 경우에는, 계산량이 적은 잔차 축차 검정법이 유리하다. 한편, 지문 센서(1)의 감도가 변하는 경우나 부분 화상에 노이즈가 실리기 쉬운 경우에는, 계산량이 많으나 노이즈의 영향을 받기 어려운 경향을 갖는 상호 상관법이 유리하다. 이러한 상대 위치의 산출 방법은 지문 센서(1)의 특성이나 사용 방법에 따라서 적절하게 선택해도 좋다.
다음으로, 외삽부(3)에 대하여 설명한다.
외삽부(3)는, 지문 센서(1)에 의해 출력된 부분 화상에 대하여, 그 화상 범위(검출 범위)의 외측 영역으로 화상을 연장하는 외삽(extrapolation) 처리를 수행 한다. 도 5는 본 실시형태에 따른 외삽 부분의 일례를 도시하는 개념도이다. 외삽이란, 도 5와 같이, 지문 센서(1)에 의해 출력된 부분 화상(실선 테두리 내)의 정보에 기초하여, 그 외측 데이터(파선 테두리 내)인 외삽 부분을 추측하고, 부분 화상에 외삽 부분을 부가함으로써, 부분 화상의 화상 범위를 확장한 확장 화상을 생성하는 것이다. 또한, 외삽부(3)는 예측부(2)로부터 지시되는 화상 확장 범위로의 외삽을 수행한다.
도 6은 본 실시형태에 따른 외삽 처리의 동작의 일례를 도시하는 흐름도이다. 먼저, 외삽부(3)는, 부분 화상으로부터 생체 부위가 갖는 특징을 추출한다(S31). 다음으로, 외삽부(3)는, 이 특징이 연속되도록 외삽하고(S32), 부분 화상과 외삽 부분을 결합하여 확장 화상으로 한다(S33). 반복 횟수가 소정의 상한값을 초과하지 않은 경우(S34, Y), 외삽부(3)는 부분 화상 대신에 확장 화상에 대하여 처리 S31∼S33을 반복함으로써 외삽 부분을 확장하고, 반복 횟수가 소정의 상한값을 초과한 경우(S34, N), 이 흐름은 종료된다. 반복 횟수의 상한값은 부분 화상끼리의 간극의 허용폭에 의존한다. 또한, 이 허용폭은, 지문 판독 장치의 출력 정보를 이용한 개인 인증에 있어서의 본인 거부율 및 타인 수락률 등의 인증 성능에 의존한다.
기본적으로는, 1회의 외삽에 대하여, 1화소분의 영역(1라인)을 외삽한다. 상대 위치 검출부(4)에서의 오류가 급격하게 증가하지 않는 범위, 또는 지문 판독 장치의 출력 정보를 이용한 개인 인증에 있어서의 본인 거부율 및 타인 수락률 등의 인증 성능이 열화하지 않는 범위이면, 2화소 이상의 영역(2라인 이상)을 외삽해도 좋다.
외삽에는 여러 가지 정보의 연속성을 이용할 수 있다. 구체적으로는, 생체 부위가 갖는 특징의 연속성이다. 특징으로서, 예컨대 휘도 정보, 엣지 정보, 골격선(세선) 정보, 주파수나 위상 정보 등이 있다. 여기서는, 스위프 방향, 또는 기준축을 따르는 휘도의 변화를 이용한다. 기준축이란, 예컨대 일반적인 스위프형 지문 센서이면, 센서면의 단축 방향을 가리킨다. 휘도의 변화는 지문 센서(1)의 특성에도 의존하지만, 대략 단축 방향을 따라서 연속적이다.
생체 정보가 지문인 경우, 문양이 융선과 곡선으로 구성되는 것을 이용하여, 융선과 곡선을 나누는 엣지의 형상을 이용할 수 있다. 왜냐하면, 기본적으로는 지문 센서의 특성으로서, 융선이 저휘도로 출력되는 센서이면 곡선은 고휘도로 출력되고, 융선이 고휘도로 출력되는 센서이면 곡선은 저휘도로 출력되는, 각각의 휘도는 연속되기 때문이다. 엣지를 산출하는 방법으로서는, 2치화했을 때의 융선의 윤곽선을 엣지로 해도 좋다. 이 경우, 계산량이 작기 때문에, 휴대 전화기나 PDA(Personal Digital Assistance) 등의 비교적 CPU의 성능이 낮은 기기에서도 부하가 적어진다. 2치화 방법으로서는, 임계값법, 부동 임계값법, p-tile법 등 기지의 수법을 이용하는 것이 가능하다. 윤곽선 이외에도, 2차원 분포에서의 1차 미분의 능선, 또는 2차원 분포에서의 2차 미분의 제로크로스점의 연속성을 이용해도 좋다.
또한, 생체 정보가 지문인 경우, 융선 또는 곡선의 골격선 형상 또는 세선 형상을 이용할 수 있다. 골격선은 능선 추적 처리로 얻어지는 패턴이어도 좋고, 양 단의 엣지까지 등거리인 점을 추적하여 얻어지는 패턴이어도 좋다. 세선은, 2치화한 지문 화상에 대하여 축퇴 처리를 반복하여, 이 이상 축퇴할 수 없는 상태가 되었을 때의 패턴으로서 얻어진다.
엣지 방향이나 골격선, 세선의 방향으로부터 외삽 부분을 추정하는 경우에는, 화소 단위의 미세한 형상은 중요하지 않고, 대국적인 융선 또는 곡선의 흐름이 중요하기 때문에, 방향 데이터는 복수 점으로부터 계산한다. 구체적으로는, 특징점군의 좌표로부터 직선 회귀 등을 수행하여 선분의 기울기를 산출한다.
생체 정보는 시시각각 변화하고, 개인차도 크다. 또한, 지문 센서(1)의 방식에 따라 감도가 다르다. 따라서, 미리 학습해 두어도 좋으나, 생체 정보를 검출하면서 외삽에 필요한 파라미터를 수정할 수 있는 적응적인 수법이 바람직하다. 구체적으로는, 선형 예측법에 의한 것, 베이즈 추측에 의한 것을 이용할 수 있다. 베이즈 추측이란, 관측값에 기초하여 조건부 확률을 계산하는 방법으로서, 2개의 독립적인 사상 X, Y에 대하여 Y가 주어진 경우에 X가 발생하는 조건부 확률 P는 다음식으로 표현된다.
P(X│Y)= P(Y│X)P(X)/P(Y)
예컨대, 지문의 주기성을 이용하여, 융선 부분으로부터 휘도가 증가해 갈 때, 곡선 부분으로부터 휘도가 감소해 갈 때와 같은, 지문의 문양의 특징으로 주기성을 이용할 수 있는 부위에 주목하여, 확률 밀도 P(X│Y)를 산출한다. 단, 이들은, 예측에 필요한 데이터가 많기 때문에 비교적 처리 시간이 걸리는 행렬 연산 처리가 필요하다. 그래서, 휘도나 엣지 방향(골격선 방향·세선 방향)에 대하여, 다 항식 함수를 적용하여 예측한다. 일반적으로, 다항식 적용은 차수가 높아질수록 불안정해진다고 알려져 있고, 외삽 부분의 오차가 증대할 우려가 있다. 따라서, 1차 내지 2차의 다항식에 적용한다. 다항식 적용에는 최소 제곱법을 이용할 수 있다.
다음으로, 처리 S31에서의 특징으로서 엣지 방향을 검출하는 엣지 방향 검출 처리에 대하여 설명한다.
엣지 방향이란, 융선의 윤곽선의 접선 방향을 가리키고, 보다 구체적으로는, 곡선과의 사이의 경계선의 접선 방향이어도 좋고, 융선의 단부분을 따르는 방향이어도 좋다. 도 7은 저분해능 화상에서의 엣지 방향의 일례를 도시하는 개념도이다. 이 도면에 도시하는 바와 같이, 융선은 개념적으로는, 어떤 일정한 폭을 가진 매끄러운 곡선(曲線)이라고 간주할 수 있다. 도 8은 고분해능 화상에서의 엣지 방향의 일례를 도시하는 개념도이다. 500 dpi 정도보다 고분해능의 지문 센서(1)를 이용하는 경우, 이 도면에 도시하는 바와 같이 엣지는 약간 물결치게 된다.
여기서, 엣지 방향 검출 처리에 대하여 설명한다. 도 9는 본 실시형태에 따른 엣지 방향 검출 처리의 동작의 일례를 도시하는 흐름도이다. 외삽부(3)는, 검출된 엣지 화상에 저역 통과 필터링을 실시하고(S51), 1차 미분값의 맵을 작성하며(S52), 1차 미분값의 극대값을 연속해서 연결한 능선을 엣지로서 검출하고(S53), 그 접선 방향을 엣지 방향으로 하며(S54), 이 흐름은 종료된다. 그 외의 처리 방법으로서는, 2차 미분값의 맵을 작성하고, 2차 미분값으로부터 원래의 화상의 변곡점을 검출하여, 그 접선 방향을 엣지 방향으로 해도 좋다.
이 경우, 외삽부(3)는, 처리 S32에서, 부분 화상 또는 확장 화상의 변 가장 자리에서의 엣지 방향으로 엣지를 연장하도록 외삽을 수행한다.
또한, 외삽부(3)는, 생체 정보의 특징으로서 엣지를 이용하는 경우에는, 엣지와 엣지 사이에 끼워진 화소에 대하여, 엣지에 걸치지 않는 범위에서 외삽함으로써, 단순한 1차원 또는 2차원의 일반적인 외삽에 따라 발생하는 아티팩트(artifact)를 줄일 수 있고, 상대 위치 검출부(4)에서 검출되는 상대 위치의 오차를 줄일 수 있다. 이때, 외삽부(3)는, 엣지 근방의 화소에 대하여, 외삽한 엣지의 방향을 따라서 외삽함으로써, 엣지 근방의 휘도의 기울기가 완만한 경우에 대하여, 외삽의 오차에 의해 발생하는 아티팩트를 줄일 수 있고, 상대 위치 검출부(4)에서 검출되는 상대 위치의 오차를 줄일 수 있다.
다음으로, 처리 S31에서의 특징으로서 골격선 방향을 검출하는 골격선 방향 검출 처리에 대하여 설명한다.
본 실시형태에서, 골격선이란, 융선의 폭을 1화소 폭으로 세선화한 것이라고 정의한다. 도 10은 본 실시형태에 따른 골격선의 일례를 도시하는 개념도이다. 구체적으로는, 쌍을 이루는 2개의 엣지가 있는 경우, 각각의 엣지로부터의 거리가 동일한 선이 골격선이 된다. 또한, 부분 화상의 변과 융선이 교차하는 부위 근방의 경우, 골격선이 변의 영향을 가능한 한 받지 않도록 검출할 필요가 있다. 즉, 부분 화상의 변과 융선이 교차하는 부위에서 엣지가 있다고 하면, 도 10에 점선으로 나타내는 바와 같이, 경계선과 부분 화상의 변에 끼워진 부분에서는, 기대되는 골격선과 다른 잘못된 골격선이 검출될 우려가 있다. 따라서, 부분 화상의 변의 영향을 받지 않고서 골격선을 검출하는 것이 중요하다.
여기서, 골격선 방향 검출 처리에 대하여 설명한다. 도 11은 본 실시형태에 따른 골격선 검출 처리의 동작의 일례를 도시하는 흐름도이다. 외삽부(3)는, 부분 화상에 저역 통과 필터링을 실시하고(S71), 전술한 처리 S52, S53에 의해 엣지를 검출하며(S72), 검출된 엣지와 쌍을 이루는 엣지가 있는지의 여부를 판단한다(S73). 쌍을 이루는 엣지가 없는 경우(S73, N), 외삽부(3)는, 그 엣지에 마크를 부착하고(S74), 다음 처리로 이행하며, 쌍을 이루는 엣지가 있는 경우(S73, Y), 외삽부(3)는, 중점(=골격선)을 검출하고(S75), 다음 처리로 이행한다. 다음으로, 외삽부(3)는, 모든 엣지를 체크했는지의 여부를 판단하고, 체크하지 않은 엣지가 있는 경우(S81, N), 처리 S73으로 되돌아가서, 다음 엣지에 대한 처리를 수행하고, 모든 엣지를 체크한 경우(S81, Y), 다음 처리로 이행한다.
다음으로, 외삽부(3)는, 마크가 부착된 엣지 근방에 있어서 골격선 검출이 끝난 엣지를 검출하고(S82), 골격선이 엣지 방향의 법선과 교차할 때까지, 엣지 방향과 평행하게 연장시킨다(S83). 다음으로, 외삽부(3)는, 마크가 부착된 엣지 근방에 있어서 골격선 검출이 끝난 엣지가 존재하는지의 여부를 판단하고, 존재하는 경우(S84, Y), 처리 S82로 되돌아가며, 존재하지 않는 경우(S84, N), 골격선의 접선 방향을 검출하고(S85), 이 흐름은 종료된다.
이 경우, 외삽부(3)는, 처리 S32에서, 부분 화상 또는 확장 화상의 변 가장자리에서의 골격선 방향으로 골격선을 연장하도록 외삽을 수행한다.
또한, 전술한 엣지와 골격선의 양방을 이용하여 외삽 처리를 수행해도 좋다.
다음으로, 부분 화상의 주파수 영역의 정보인 주파수 정보를 이용하는 외삽 처리에 대하여 설명한다.
도 12는 본 실시형태에 따른 주파수 정보를 이용하는 외삽 처리의 일례를 도시하는 개념도이다. 이 도면에 도시하는 바와 같이, 외삽 영역(사선으로 표시한 영역)을 구하기 위해서, 부분 화상 내에 참조 영역(도면 중 점선으로 둘러싸인 영역)을 설정한다. 여기서, 참조 영역의 사이즈는 N×N 화소로 하고, N은 2n(n=0, 1, 2, …)으로 한다. 이에 대하여 외삽 영역을 둘러싸도록 하여, 참조 영역과 동일한 사이즈의 예측 영역(도면 중 실선으로 둘러싸인 영역)을 설정한다. 예측 영역과 참조 영역은, 위치의 차, 즉 위상차가 이미 알려져 있기 때문에, 참조 영역으로부터 푸리에 변환으로 구해진 주파수 정보에 대하여, 이 위상차를 반영시킴으로써 참조 영역을 예측할 수 있다. 참조 영역을 2차원으로 하는 경우에는, 푸리에 변환이 직교 변환이기 때문에, 가로 방향에 대하여 1차원의 푸리에 변환을 수행한 후, 세로 방향으로 푸리에 변환을 수행하면 된다.
도 13은 본 실시형태에 따른 주파수 정보를 이용하는 외삽 처리의 동작의 일례를 도시하는 흐름도이다. 먼저, 외삽부(3)는 부분 화상에 저역 통과 필터링을 실시한다(S91). 다음으로, 외삽부(3)는, 얻어진 부분 화상에 외삽 영역을 설정하고(S92), 참조 영역을 설정하며(S93), 예측 영역을 설정하고(S94), 외삽 영역을 계산한다(S95). 다음으로, 외삽부(3)는, 모든 외삽 영역을 계산했는지의 여부를 판단하고, 계산하지 않은 외삽 영역이 있는 경우(S96, N), 처리 S92로 되돌아가서, 다음 외삽 영역에 대한 처리를 수행하고, 모든 외삽 영역을 계산한 경우(S96, Y), 이 흐름은 종료된다. 외삽부(3)는, 푸리에 변환 등에 의해 부분 화상을 주파수 영역으 로 변환한 주파수 정보를 취득한다. 취득되는 주파수 정보는 진폭과 위상을 갖는다. 예컨대, 고속 푸리에 변환은 처리 부하가 비교적 낮기 때문에 유용하다.
즉, 외삽부(3)는, 외삽해야 할 범위 전체에 대하여, 외삽 영역을 약간씩 어긋나게 하면서 외삽 영역을 구하는 처리를 반복한다. 이때, 외삽 영역을 참조 영역과 동일한 폭으로 하고, 참조 영역과 겹치지 않는 범위로 설정함으로써, 계산량을 작게 할 수 있다. 그러나, 인접하는 외삽 영역끼리의 경계 부분에서 휘도의 변화가 불연속이 될 우려가 있다. 그래서, 이 예에 나타내는 바와 같이, 외삽 영역의 폭을 참조 영역의 1/4(또는 1/2)의 폭이 되도록 설정하고, 인접하는 외삽 영역의, 각각의 참조 영역이 겹치게 함으로써, 외삽 영역끼리의 경계 부분에 있어서 휘도 변화의 불연속성을 저감할 수 있다. 또한, 주파수 정보를 이용하는 외삽 처리는, 부분 화상의 주기성을 이용하기 때문에, 1라인씩 외삽하는 것이 아니라, 소정의 라인수를 외삽할 수 있다.
다음으로, 외삽에 의한 오차에 대하여 설명한다.
상대 위치 검출부(4)에서 산출되는 비유사도 또는 유사도는, 외삽 부분에서는 외삽에 의한 오차의 영향을 받는다. 2개의 부분 화상(제1 부분 화상과 제2 부분 화상)의 위치 관계에는, 다음 3가지의 케이스가 있다. 도 14는 본 실시형태에 따른 제1 케이스의 일례를 도시하는 개념도이다. 도 15는 본 실시형태에 따른 제2 케이스의 일례를 도시하는 개념도이다. 도 16은 본 실시형태에 따른 제3 케이스의 일례를 도시하는 개념도이다. 이들 도면에 있어서, 실선으로 둘러싸인 영역이 부분 화상이고, 점선으로 둘러싸인 영역(사선으로 표시된 영역)이 외삽 부분이다. 제1 케 이스는, 제1 부분 화상과 제2 부분 화상이 겹치는 케이스이다. 제2 케이스는 제1 부분 화상과 제2 부분 화상의 외삽 부분이 겹치는 케이스이다. 제3 케이스는 제1 부분 화상의 외삽 부분과 제2 부분 화상의 외삽 부분이 겹치는 케이스이다. 종래의 기술에서는, 제1 케이스의 경우에만 부분 화상끼리의 위치 관계를 검출할 수 있었다.
이들 3가지 케이스를 모두 동일하게 취급하여 비유사도 또는 유사도를 산출하면, 외삽 부분의 오차의 영향에 의해, 정확하지 않은 결과가 얻어지는 경우가 있다. 그래서, 비유사도 또는 유사도에 대하여, 외삽 부분이 기여하는 정도를 작게 설정해도 좋다. 예컨대, 비유사도는 다음식에 의해 산출된다.
R(a,b)={W0R0 (a,b)+W1R1 (a,b)+W2R2(a,b)}/(cΣWk)
Wk는 계수, Rk(a,b)는 상대 위치 (a,b)일 때의 국소적인 비유사도를 나타낸다. k=0은 I0, I1이 모두 부분 화상인 경우를 나타낸다. k=1은 I0이 부분 화상이고 I1이 외삽 부분인 경우, 또는 그 반대인 경우를 나타내며, W1>W0이다. k=2는 I0, I1이 모두 외삽 부분인 경우를 나타내고, W2>W1이다. c는 상수이다.
또한, 국소적인 비유사도는 전술한 잔차 축차 추정법에 의해 산출된다.
또한, 유사도는 다음식에 의해 산출된다.
R(a,b)={W0R0 (a,b)+W1R1 (a,b)+W2R2(a,b)}/(cΣWk)
여기서, Wk는 계수, Rk(a,b)는 상대 위치 (a,b)일 때의 국소적인 유사도를 나 타낸다. k=0은 I0, I1이 모두 부분 화상인 경우를 나타낸다. k=1은 I0이 부분 화상이고 I1이 외삽 부분인 경우, 또는 I1이 부분 화상이고 I0이 외삽 부분인 경우를 나타내며, W1<W0이다. k=2는 I0, I1이 모두 외삽 부분인 경우를 나타내고, W2<W1이다. c는 상수이다.
또한, 국소적인 유사도는 전술한 상호 상관법에 의해 산출된다.
전술한 외삽부(3)에 따르면, 지문 센서(1)에 대한 손가락의 이동 속도가 빨랐거나, 지문 센서(1)의 단부에 오물이 부착된 경우에, 상대 위치 검출부(4)가 상대 위치를 검출할 수 있는 범위를 확대함으로써, 판독 에러를 저감시켜, 사용자의 편리성을 향상시킬 수 있다.
또한, 단순한 1차원 또는 2차원의 일반적인 외삽 방법 뿐만 아니라, 생체 정보의 특징으로서 엣지 정보를 이용함으로써, 외삽의 오차에 의해 발생하는 아티팩트를 줄일 수 있고, 상대 위치 검출부(4)에 의해 검출되는 상대 위치의 오차를 줄일 수 있다. 마찬가지로, 골격선 내지 세선을 이용함으로써, 외삽의 오차에 의해 발생하는 아티팩트를 줄일 수 있고, 상대 위치 검출부(4)에 의해 검출되는 상대 위치의 오차를 줄일 수 있다. 또한, 주파수 정보를 이용함으로써, 외삽의 오차에 의해 발생하는 아티팩트를 줄일 수 있고, 상대 위치 검출부(4)에 의해 검출되는 상대 위치의 오차를 줄일 수 있다. 또한, 외삽을 반복함으로써 외삽 부분의 면적을 넓혀, 생체 부위의 보다 빠른 움직임이나, 보다 넓은 면적의 오물에 의한 광범위한 누락이 있어도, 상대 위치 검출부(4)에서 상대 위치를 검출할 수 있으며, 사용자의 편리성을 향상시킬 수 있다.
다음으로, 예측부(2)에 대하여 설명한다.
예측부(2)는, 상대 위치 검출부(4)에서 과거에 계산된 상대 위치에 기초하여, 외삽부(3)가 외삽 처리를 수행하는 부위를 한정한다. 이에 따라, 외삽 처리에 걸리는 시간이 경감된다. 시각 t에서 채취된 부분 화상과, 시각 t+Δt에서 채취된 부분 화상으로부터 상대 위치 rt +Δt(i,j)를 산출하는 경우, Δt가 충분히 작다고 하는 전제가 성립할 때에는 관성의 법칙에 따라서, 시각 t-Δt에서 채취된 부분 화상과, 시각 t에서 채취된 부분 화상으로부터 검출된 상대 위치 rt(i,j)에 대하여 rt +Δt(i,j)는 크게 일탈하지 않는다고 간주할 수 있다.
도 17은 본 실시형태에 따른 부분 화상과 외삽 부분의 위치 관계의 일례를 도시하는 개념도이다. 이 도면은 시각 t-Δt에서 채취된 부분 화상 It -Δt, 시각 t에서 채취된 부분 화상 It, 시각 t+Δt에서 채취된 부분 화상 It +Δt의 상대 위치를 나타낸다. Δt가 충분히 작다고 하는 전제가 성립할 때, 관성의 법칙에 따라서, 시각 t-Δt에서 채취된 부분 화상 It -Δt와 시각 t에서 채취된 부분 화상 It로부터 산출된 상대 위치 rt(i,j)에 대하여, 시각 t에서 채취된 부분 화상 It와 시각 t+Δt에서 채취된 부분 화상 It +Δt로부터 산출되는 상대 위치 rt +Δt(i,j)는 크게 일탈하지 않는다고 간주할 수 있다. 따라서, 상대 위치 rt +Δt(i,j)를 산출할 때에는, 시각 t에서 채 취된 부분 화상 It에 대해서는 rt와 동일한 측의 변 가장자리에 외삽하면, 부분 화상 It의 다른 변 가장자리에 외삽할 필요는 없다. 또한, 시각 t+Δt에서 채취된 부분 화상 It +Δt에 대해서는 rt와 반대측의 변 가장자리에 외삽하면 된다.
또한, 예측부(2)는, 전술한 예측에 기초하여, 외삽이 필요한지의 여부를 판정한다. 외삽이 필요하다고 판정한 경우, 예측부(2)는, 전술한 예측에 기초하여, 외삽부(3)에 외삽 부분의 위치, 외삽 부분의 사이즈, 외삽의 반복 횟수 등을 나타내는 화상 확장 범위를 지시한다.
또한, 본 실시형태에서, 예측부(2)는, 직전에 취득된 부분 화상의 상대 위치에 기초하여 다음 외삽 부분을 결정하였으나, 과거의 복수의 부분 화상의 상대 위치에 기초하여 다음 외삽 부분을 결정해도 좋다. 또한, 예측부(2)에 의해 외삽 부분을 한정하지 않고, 외삽부(3)가 부분 화상의 모든 변 가장자리에 대한 외삽을 수행해도 좋다. 또한, 예측부(2)에 의한 외삽 판정 처리를 수행하지 않고, 모든 부분 화상에 대하여 외삽을 수행해도 좋다.
전술한 예측부(2)에 따르면, 지문 센서(1)가 검출하는 화상에 대하여, 외삽부(3)가 외삽하는 범위를 한정함으로써, 처리 부하를 낮게 억제할 수 있다. 또한, 예측부(2)가 다음에 지문 센서(1)로 판독되는 화상의 상대 위치를 예측하고, 외삽할지의 여부를 판정함으로써, 외삽이 필요한 상황, 즉 화상끼리의 중복 부분이 없는 경우, 또는 중복 부분이 있어도 그 면적이 작은 경우 중 어느 하나의 상황에 있어서, 외삽부(3)에 의한 외삽 처리를 수행하고, 화상끼리의 중복 부분의 면적이 충 분한 경우에는 외삽부(3)에 의한 외삽 처리를 수행하지 않도록 한다. 이에 따라, 휴대 전화나 PDA 등의 비교적 처리 능력이 낮은 CPU를 탑재한 기기에 있어서 처리 부하가 높아져 처리 시간이 걸리는 것을 피할 수 있으며, 사용자의 편리성을 향상시킬 수 있다.
다음으로, 재구성부(5)에 대하여 설명한다.
재구성부(5)는, 복수의 부분 화상의 상대 위치에 기초하여, 복수의 부분 화상을 배치하고, 하나의 전체 화상을 생성하여, 출력 정보로서 출력한다. 또한, 재구성부(5)는, 배치한 부분 화상에 간극이 있는 경우, 부분 화상 사이의 내삽(內揷)을 수행하여, 간극을 메운다.
또한, 전술한 지문 판독 장치는, 부분 화상마다, 외삽 처리나 상대 위치 검출 처리를 수행한다고 하였으나, 복수의 부분 화상을 취득한 후에, 외삽 처리나 상대 위치 검출 처리를 수행해도 좋다. 도 18은 본 실시형태에 따른 지문 판독 장치의 동작의 다른 일례를 도시하는 흐름도이다. 먼저, 처리 S11은 도 2와 동일하다. 다음으로, 지문 센서(1)는, 부분 화상 취득 처리를 수행하고(S112), 대상물(손가락)이 이동하고 있는지의 여부를 판단하며, 이동하고 있다고 판정된 경우(S113, 대상물이 이동하고 있음), 처리 S112로 되돌아가고, 정지해 있다고 판정된 경우(S113, 대상물이 정지해 있음), 다음 처리로 이행한다.
다음으로, 예측부(2)는, 과거에 산출된 부분 화상의 상대 위치로부터, 다음에 취득하는 부분 화상의 상대 위치를 예측하는 예측 처리를 수행한다(S121). 다음으로, 예측부(2)는, 예측 처리에 의해 예측된 위치에 기초하여 외삽 처리를 수행할 지의 여부를 판정하는 외삽 판정 처리를 수행한다(S122). 외삽 처리를 수행한다고 판정된 경우(S122, Y), 외삽부(3)는, 부분 화상의 외삽을 수행하는 외삽 처리를 수행하고(S123), 다음 처리로 이행하며, 외삽 처리를 수행하지 않는다고 판정된 경우(S122, N), 다음 처리로 이행한다. 다음으로, 상대 위치 검출부(4)는, 부분 화상 및 확장 화상에 기초하여 부분 화상 또는 확장 화상 사이의 상대 위치를 검출하는 상대 위치 검출 처리를 수행한다(S124).
다음으로, 재구성부(5)는, 부분 화상의 상대 위치에 기초하여 복수의 부분 화상을 합성하여, 출력 화상을 생성하는 재구성 처리를 수행하고(S125), 모든 부분 화상을 처리했는지의 여부를 판단한다(S126). 모든 부분 화상을 처리하지 않은 경우(S126, 모든 부분 화상을 처리하지 않음), 처리 S121로 되돌아가서, 재구성부(5)는, 다음 부분 화상의 처리를 수행하고, 모든 부분 화상을 처리한 경우(S126, 모든 부분 화상을 처리하였음), 다음 처리로 이행한다. 다음으로, 재구성부(5)는, 취득한 상대 위치 등의 상태가 소정의 조건을 만족시키는지의 여부를 판단한다(S127). 소정의 조건을 만족시키지 않은 경우(S127, 소정의 조건을 만족시키지 않음), 처리 S112로 되돌아간다. 소정의 조건을 만족시키는 경우(S127, 소정의 조건을 만족시킴), 이 흐름은 종료된다.
이 동작에 따르면, 지문 센서(1)에 의한 부분 화상 취득 시의 처리 부하를 경감할 수 있으며, 부분 화상의 취득 간격을 단축할 수 있다.
실시형태 2.
본 실시형태에서는, 실시형태 1과 마찬가지로, 본 발명을 지문 판독 장치에 적용한 경우에 대하여 설명한다. 본 실시형태에 따른 지문 판독 장치는, 손가락의 이동에 따라 지문의 부분 화상을 복수 취득하고, 부분 화상 및 상대 위치에 관한 정보를 출력한다.
도 19는 본 실시형태에 따른 지문 판독 장치의 구성의 일례를 도시하는 블록도이다. 이 도면에 있어서, 도 1과 동일한 부호는 도 1에 도시된 대상과 동일물 또는 상당물을 나타내므로, 여기서의 설명을 생략한다. 도 19는 도 1과 비교하면, 재구성부(5) 대신에 정보 생성부(6)(출력부)를 구비한다.
도 20은 본 실시형태에 따른 지문 판독 장치의 동작의 일례를 도시하는 흐름도이다. 처리 S11∼S17은 도 2와 동일하다. 다음으로, 정보 생성부(6)는, 상대 위치 등에 기초하는 상태가 소정의 조건을 만족시키는지의 여부를 판단한다(S23). 소정의 조건을 만족시키지 않은 경우(S23, 소정의 조건을 만족시키지 않음), 처리 S12로 이행한다. 소정의 조건을 만족시키는 경우(S23, 소정의 조건을 만족시킴), 정보 생성부(6)는 지문 센서(1)의 출력과 상대 위치 검출부(4)의 출력에 기초하여 출력 정보를 생성하는 정보 생성 처리를 수행하고(S24), 이 흐름은 종료된다.
다음으로, 정보 생성부(6)에 대하여 설명한다.
정보 생성부(6)에 의해 생성되는 출력 정보의 형식은 상대 위치나 부분 화상 등을 요소로 하는 배열이다. 도 21은 본 실시형태에 따른 출력 정보의 형식의 일례를 도시하는 표이다. 이 출력 정보는, 헤더부와, 부분 화상에 대응하는 부분 화상 정보를 갖는다. 헤더부는 출력 정보 전체의 속성을 정리한 것이다. 지문 센서(1)에 의해 취득된 제1 내지 제N의 부분 화상과 그 부가 정보가 연속으로 배치된다.
도 22는 본 실시형태에 따른 출력 정보의 헤더부의 형식의 일례를 도시하는 표이다. 이 헤더는, 디바이스 종별, 화상 종별, 화상의 해상도, 양자화 레벨수, 화상 정보의 수, 화상의 수직 방향 사이즈, 화상의 수평 방향 사이즈를 갖는다. 디바이스 종별은 지문 센서(1)가 되는 디바이스의 종류를 나타내는 ID 또는 문자열이다. 화상 종별은 디바이스가 생체 정보를 판독하는 방식을 나타내는 ID 또는 문자열이다. 해상도는 디바이스의 해상도를 나타내는 수치이며, 통상은 dpi(dot-per-inch) 또는 ppcm(pixel-per-centimeter)이 이용된다. 양자화 레벨수는 계조수라고도 한다. 단위는 bit 또는 무명수이다. 화상 정보의 수란, 헤더부에 계속해서 저장되는 부분 화상의 총수이다. 또한, 이 예에서는 생략하고 있으나, 헤더부는 각 항목의 수치 단위를 식별하기 위한 정보를 속성값으로서 저장해도 좋다.
도 23은 본 실시형태에 따른 출력 정보의 부분 화상 정보의 형식의 일례를 도시하는 표이다. 이 부분 화상 정보는, 수직 방향 이동량, 수평 방향 이동량, 타임 스탬프 1, 타임 스탬프 2, 지문 센서(1)의 감도 설정, 외삽의 유무, 부분 화상을 갖는다. 수직 방향 이동량은 직전 부분 화상에 대한 대상 부분 화상의 상대 위치이며, 그 수직 방향 성분을 나타낸다. 수평 방향 이동량은 마찬가지로 수평 방향 성분을 나타낸다. 타임 스탬프 1과 타임 스탬프 2는, 각각 판독 개시 시각과 판독 종료 시각을 나타낸다. 1장째의 부분 화상의 판독 개시 시각으로부터의 상대적인 판독 개시 시각과 판독 완료 시각을 얻을 수 있는 것이면, 시각에 한정되는 것은 아니다. 예컨대, 타임 스탬프 1은 직전에 취득한 부분 화상의 판독 개시 시각으로부터의 차분이어도 좋다. 또한, 타임 스탬프 2는 판독 개시 시각으로부터의 차분이 어도 좋다. 또한, 타임 스탬프 1 및 타임 스탬프 2는 부분 화상 내의 화소의 판독 시각의 차이에 의한 부분 화상의 왜곡의 보정에 이용된다.
정보 생성부(6)가 부분 화상과 상대 위치를 외부의 정보 처리 장치에 출력함으로써, 이 정보 처리 장치는 부분 화상을 재구성할 수 있다. 또한, 정보 생성부(6)가 수직 방향 이동량 및 수평 방향 이동량을 외부의 정보 처리 장치에 출력함으로써, 지문 판독 장치를 정보 처리 장치의 포인팅 디바이스로서 이용할 수 있다. 또한, 정보 생성부(6)는 수직 방향 이동량이나 수평 방향 이동량 등의 상대 위치의 정보만을 출력해도 좋다.
이 정보 생성부(6)에 따르면, 상대 위치 검출부(4)에서 검출된 상대 위치 외에도, 외삽부(3)에서 얻어지는 골격선 정보 내지 세선 정보 중 어느 하나를 부분 화상과 함께 출력하거나, 또는 부분 화상 대신에 출력할 수 있다. 이에 따라, 지문 판독 장치의 출력 정보를 이용하여 개인 인증을 수행하는 인증 장치에 있어서, 화상으로부터 골격선 정보 내지 세선 정보를 추출하는 계산을 저감시킬 수 있다. 또는, 인증 장치가 지문 판독 장치의 출력 정보인 골격선 정보 내지 세선 정보를 그대로 이용함으로써, 재차 골격선 정보 내지 세선 정보의 검출 처리를 생략할 수 있다. 따라서, 예컨대 휴대 전화나 PDA와 같이 비교적 처리 능력이 낮은 CPU가 탑재된 기기에 있어서 계산량이 많은 골격선 정보 내지 세선 정보의 검출에 걸리는 시간을 단축 또는 생략할 수 있으며, 사용자의 편리성을 향상시킬 수 있다.
또한, 정보 생성부(6)는, 처리 S23의 판정을 수행하지 않고, 부분 화상마다의 출력 정보를 생성하며, 지문 판독 장치는 처리 S12∼S17, S24를 반복해도 좋다. 이에 따라, 지문 판독 장치는 포인팅 디바이스로서 이용되는 경우 등에 있어서, 계속해서 상대 위치의 정보를 출력할 수 있다.
또한, 정보 생성부(6)는, 부분 화상 대신에 외삽 처리로 검출된 골격선의 정보를 골격선 정보로서 출력해도 좋다. 이 경우, 정보 생성부(6)는, 출력 정보의 헤더부에 골격선의 정보인 것을 나타내는 식별자를 포함해도 좋다. 또한, 정보 생성부(6)는, 골격선 정보를 트리 구조로서 출력해도 좋다. 트리 구조란, 노드점과 선으로 표시되는 데이터 형식을 가리킨다. 예컨대, 지문의 경우, 노드점은, 소위 끝점이나 분기점, 또한 골격선의 변곡점이다. 이때 끝점은 선을 하나만 갖는 것, 분기점은 선을 3개 갖는 것, 변곡점은 선을 2개 갖는 것이라고 정의할 수 있다. 노드점은 부분 화상의 원점을 기준으로 한 좌표를 속성으로서 갖는다. 또한, 정보 생성부(6)는, 노드점에 연결되는 선의 수와, 이들 선을 고유하게 결정하는 식별 번호를 속성으로서 출력 정보에 갖게 해도 좋다. 또한, 정보 생성부(6)는, 노드점에 대하여, 부분 화상의 범위 내에서 고유하게 결정되는 식별 번호를 속성으로서 갖게 해도 좋다. 또한, 선은 방향을 속성으로서 갖는다. 선의 양단에 연결된 노드점의 식별 번호를 속성으로서 갖게 해도 좋다. 또한, 부분 화상의 단부에 있어서, 골격선은 부분 화상의 범위 밖으로 신장하고 있으나, 부분 화상의 4변 상에서 골격선이 교차하는 점을 노드점이라고 간주한다.
또한, 본 실시형태에서는, 고정된 취득부[지문 센서(1)]에 대하여 대상물(손가락)이 이동하는 경우에 대하여 설명하였으나, 고정된 대상물에 대하여 취득부가 이동해도 좋고, 대상물과 취득부의 양방이 이동함으로써 상호 상대 이동해도 좋다.
또한, 본 발명은 전술한 실시형태에 한정되는 것은 아니며, 본 발명의 취지를 일탈하지 않는 범위에서 여러 가지로 변형하여 실시할 수 있다. 전술한 실시형태에서는, 대상물이 사람의 손가락이고, 지문 화상을 채취하는 경우에 대하여 설명하였으나, 본 발명은 이것에 한정되는 것은 아니며, 혈관 패턴 화상을 채취하는 경우, 또한 대상물로서의 손바닥으로부터, 손바닥에 난 손금의 무늬 화상이나 혈관 패턴 화상 등을 채취하는 경우에도 전술과 동일하게 적용되고, 전술과 동일한 작용 효과를 얻을 수 있다. 예컨대, 대상물이 혈관 패턴인 경우, 전술한 실시형태의 설명에 있어서 지문의 융선에 해당하는 부분을 혈관 부분, 배경 내지 곡선에 해당하는 설명을 비혈관 부분으로 하여 동일하게 적용할 수 있다.
또한, 본 실시형태에 따른 화상 판독 장치는, 정보 처리 장치에 용이하게 적용할 수 있으며, 정보 처리 장치의 성능을 보다 높일 수 있다. 여기서, 정보 처리 장치에는, 예컨대 PC(Personal Computer), PDA, 휴대 전화기 등이 포함될 수 있다.
또한, 화상 판독 장치를 구성하는 컴퓨터에 있어서 전술한 각 단계를 실행시키는 프로그램을 화상 판독 프로그램으로서 제공할 수 있다. 전술한 프로그램은, 컴퓨터에 의해 판독 가능한 기록 매체에 기억시킴으로써, 화상 판독 장치를 구성하는 컴퓨터에 실행시키는 것이 가능해진다. 여기서, 상기 컴퓨터에 의해 판독 가능한 기록 매체로서는, ROM이나 RAM 등의 컴퓨터에 내부 실장되는 내부 기억 장치, CD-ROM이나 플렉시블 디스크, DVD 디스크, 광자기 디스크, IC 카드 등의 휴대형 기억 매체나, 컴퓨터 프로그램을 유지하는 데이터베이스, 또는 다른 컴퓨터 및 그 데이터베이스나, 또한 회선 상의 전송 매체도 포함하는 것이다.
이상 설명한 바와 같이, 본 발명에 따르면, 취득된 부분 화상끼리 겹치지 않는 경우에도 부분 화상끼리의 위치 관계를 검출할 수 있다.

Claims (20)

  1. 대상물의 부분을 순차적으로 판독함으로써 얻어지는 화상인 제1 화상을 복수 취득하는 취득부와,
    상기 제1 화상에 화상의 외삽을 수행함으로써 상기 제1 화상의 화상 범위를 확장한 화상인 제2 화상을 생성하는 외삽부와,
    상기 제1 화상, 상기 제2 화상, 또는 상기 제1 화상과 상기 제2 화상으로 이루어지는 복수의 화상에 기초하여, 상기 복수의 화상 중 2장의 화상 사이의 상대 위치를 산출하는 산출부를 구비하고,
    상기 대상물은 상기 취득부에 대해 상대적으로 이동하고 있는 것인, 화상 판독 장치.
  2. 제1항에 있어서, 상기 산출부에 의해 산출된 상대 위치에 기초하여, 상기 산출부에 의해 상대 위치가 산출되지 않은 제1 화상을 대상으로 하는 외삽에 관한 지시를 상기 외삽부에 행하는 지시부를 더 구비하는 것을 특징으로 하는 화상 판독 장치.
  3. 제2항에 있어서, 상기 지시부는, 대상이 되는 제1 화상과 과거의 제1 화상의 상대 위치에 기초하여 상기 대상이 되는 제1 화상의 취득 시에 있어서의 상기 상대 이동 방향을 예측하고, 상기 상대 이동 방향에 기초하여 상기 대상이 되는 제1 화상에 대한 외삽 부분의 위치를 결정하여, 상기 외삽부에 지시하는 것을 특징으로 하는 화상 판독 장치.
  4. 제3항에 있어서, 상기 지시부는, 상기 취득부에 의해 연속해서 취득된 2개의 제1 화상인 제3 화상 및 제4 화상에 대하여, 상기 제3 화상에 대한 외삽 부분을 제4 화상의 화상 범위를 향하는 방향으로 결정하고, 상기 제4 화상에 대한 외삽 부분을 제3 화상의 화상 범위를 향하는 방향으로 결정하는 것을 특징으로 하는 화상 판독 장치.
  5. 제2항에 있어서, 상기 지시부는, 대상이 되는 제1 화상과 과거의 제1 화상의 상대 위치에 기초하여 상기 대상이 되는 제1 화상의 상대 위치를 예측하고, 상기 예측에 기초하여 상기 대상이 되는 제1 화상에 화상의 외삽이 필요하다고 판정한 경우, 상기 외삽부에 대하여 상기 대상이 되는 제1 화상의 외삽을 지시하는 것을 특징으로 하는 화상 판독 장치.
  6. 제1항에 있어서, 상기 대상물은 생체 부위이고,
    상기 외삽부는 상기 생체 부위의 특징에 기초하여 제1 화상에의 외삽을 수행하는 것을 특징으로 하는 화상 판독 장치.
  7. 제6항에 있어서, 상기 특징은, 제1 화상에서의 엣지의 연속성, 제1 화상에서의 골격선의 연속성, 제1 화상의 주파수 영역의 연속성 중 하나 이상인 것을 특징으로 하는 화상 판독 장치.
  8. 제1항에 있어서, 제1 화상 및 상기 제1 화상의 상대 위치 중 하나 이상을 출력하는 출력부를 더 구비하는 것을 특징으로 하는 화상 판독 장치.
  9. 취득부에 의해 대상물의 부분을 순차적으로 판독함으로써 얻어지는 화상인 제1 화상을 복수 취득하는 취득 단계로서, 상기 대상물은 상기 취득부에 대해 상대적으로 이동하고 있는 것인, 취득 단계와,
    상기 제1 화상에 화상의 외삽을 수행함으로써 상기 제1 화상의 화상 범위를 확장한 화상인 제2 화상을 생성하는 외삽 단계와,
    상기 제1 화상, 상기 제2 화상, 또는 상기 제1 화상과 상기 제2 화상으로 이루어지는 복수의 화상에 기초하여, 상기 복수의 화상 중 2장의 화상 사이의 상대 위치를 산출하는 산출 단계
    를 컴퓨터에 실행시키는 화상 판독 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
  10. 취득부에 의해 대상물의 부분을 순차적으로 판독함으로써 얻어지는 화상인 제1 화상을 복수 취득하는 취득 단계로서, 상기 대상물은 상기 취득부에 대해 상대적으로 이동하고 있는 것인, 취득 단계와,
    상기 제1 화상에 화상의 외삽을 수행함으로써 상기 제1 화상의 화상 범위를 확장한 화상인 제2 화상을 생성하는 외삽 단계와,
    상기 제1 화상, 상기 제2 화상, 또는 상기 제1 화상과 상기 제2 화상으로 이루어지는 복수의 화상에 기초하여, 상기 복수의 화상 중 2장의 화상 사이의 상대 위치를 산출하는 산출 단계
    를 실행하는 화상 판독 방법.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020097015035A 2007-01-24 2007-01-24 화상 판독 장치, 화상 판독 프로그램을 기록한 기록 매체, 화상 판독 방법 KR101035930B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2007/051105 WO2008090608A1 (ja) 2007-01-24 2007-01-24 画像読取装置、画像読取プログラム、画像読取方法

Publications (2)

Publication Number Publication Date
KR20090098894A KR20090098894A (ko) 2009-09-17
KR101035930B1 true KR101035930B1 (ko) 2011-05-23

Family

ID=39644190

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097015035A KR101035930B1 (ko) 2007-01-24 2007-01-24 화상 판독 장치, 화상 판독 프로그램을 기록한 기록 매체, 화상 판독 방법

Country Status (6)

Country Link
US (1) US8358870B2 (ko)
EP (1) EP2128817B1 (ko)
JP (1) JP4611427B2 (ko)
KR (1) KR101035930B1 (ko)
CN (1) CN101517612B (ko)
WO (1) WO2008090608A1 (ko)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8229184B2 (en) 2004-04-16 2012-07-24 Validity Sensors, Inc. Method and algorithm for accurate finger motion tracking
US7751601B2 (en) 2004-10-04 2010-07-06 Validity Sensors, Inc. Fingerprint sensing assemblies and methods of making
US8358815B2 (en) 2004-04-16 2013-01-22 Validity Sensors, Inc. Method and apparatus for two-dimensional finger motion tracking and control
US8447077B2 (en) 2006-09-11 2013-05-21 Validity Sensors, Inc. Method and apparatus for fingerprint motion tracking using an in-line array
US8175345B2 (en) 2004-04-16 2012-05-08 Validity Sensors, Inc. Unitized ergonomic two-dimensional fingerprint motion tracking device and method
US8131026B2 (en) * 2004-04-16 2012-03-06 Validity Sensors, Inc. Method and apparatus for fingerprint image reconstruction
TWM324255U (en) * 2007-02-16 2007-12-21 A Data Technology Co Ltd Portable storage device with fingerprint identification function
US8290150B2 (en) 2007-05-11 2012-10-16 Validity Sensors, Inc. Method and system for electronically securing an electronic device using physically unclonable functions
US8204281B2 (en) 2007-12-14 2012-06-19 Validity Sensors, Inc. System and method to remove artifacts from fingerprint sensor scans
US8276816B2 (en) 2007-12-14 2012-10-02 Validity Sensors, Inc. Smart card system with ergonomic fingerprint sensor and method of using
US8116540B2 (en) 2008-04-04 2012-02-14 Validity Sensors, Inc. Apparatus and method for reducing noise in fingerprint sensing circuits
US8698594B2 (en) 2008-07-22 2014-04-15 Synaptics Incorporated System, device and method for securing a user device component by authenticating the user of a biometric sensor by performance of a replication of a portion of an authentication process performed at a remote computing device
US8391568B2 (en) 2008-11-10 2013-03-05 Validity Sensors, Inc. System and method for improved scanning of fingerprint edges
US8278946B2 (en) 2009-01-15 2012-10-02 Validity Sensors, Inc. Apparatus and method for detecting finger activity on a fingerprint sensor
US8600122B2 (en) 2009-01-15 2013-12-03 Validity Sensors, Inc. Apparatus and method for culling substantially redundant data in fingerprint sensing circuits
US8374407B2 (en) 2009-01-28 2013-02-12 Validity Sensors, Inc. Live finger detection
US9336428B2 (en) 2009-10-30 2016-05-10 Synaptics Incorporated Integrated fingerprint sensor and display
US9274553B2 (en) 2009-10-30 2016-03-01 Synaptics Incorporated Fingerprint sensor and integratable electronic display
US8866347B2 (en) 2010-01-15 2014-10-21 Idex Asa Biometric image sensing
US8421890B2 (en) 2010-01-15 2013-04-16 Picofield Technologies, Inc. Electronic imager using an impedance sensor grid array and method of making
US8791792B2 (en) 2010-01-15 2014-07-29 Idex Asa Electronic imager using an impedance sensor grid array mounted on or about a switch and method of making
US9666635B2 (en) 2010-02-19 2017-05-30 Synaptics Incorporated Fingerprint sensing circuit
US8716613B2 (en) 2010-03-02 2014-05-06 Synaptics Incoporated Apparatus and method for electrostatic discharge protection
US9001040B2 (en) 2010-06-02 2015-04-07 Synaptics Incorporated Integrated fingerprint sensor and navigation device
US8331096B2 (en) 2010-08-20 2012-12-11 Validity Sensors, Inc. Fingerprint acquisition expansion card apparatus
JP2012091288A (ja) * 2010-10-27 2012-05-17 Makino Milling Mach Co Ltd 工具寸法の測定方法及び測定装置
WO2012053645A1 (ja) * 2010-10-22 2012-04-26 株式会社牧野フライス製作所 工具寸法の測定方法及び測定装置
TWI510756B (zh) * 2010-10-27 2015-12-01 尼康股份有限公司 A shape measuring device, a shape measuring method, a manufacturing method and a program for a structure
JP5653184B2 (ja) * 2010-11-11 2015-01-14 三菱電機株式会社 画像処理装置及び方法
JP5641059B2 (ja) 2010-12-29 2014-12-17 富士通株式会社 生体情報登録装置及び生体情報登録方法
JP2014509119A (ja) * 2011-01-21 2014-04-10 トムソン ライセンシング 幾何学ベースのイントラ予測の方法および装置
US8594393B2 (en) 2011-01-26 2013-11-26 Validity Sensors System for and method of image reconstruction with dual line scanner using line counts
US8538097B2 (en) 2011-01-26 2013-09-17 Validity Sensors, Inc. User input utilizing dual line scanner apparatus and method
GB2489100A (en) 2011-03-16 2012-09-19 Validity Sensors Inc Wafer-level packaging for a fingerprint sensor
US8836478B2 (en) * 2011-09-25 2014-09-16 Authentec, Inc. Electronic device including finger sensor and related methods
US10043052B2 (en) 2011-10-27 2018-08-07 Synaptics Incorporated Electronic device packages and methods
US9195877B2 (en) 2011-12-23 2015-11-24 Synaptics Incorporated Methods and devices for capacitive image sensing
US9785299B2 (en) 2012-01-03 2017-10-10 Synaptics Incorporated Structures and manufacturing methods for glass covered electronic devices
US9251329B2 (en) 2012-03-27 2016-02-02 Synaptics Incorporated Button depress wakeup and wakeup strategy
US9137438B2 (en) 2012-03-27 2015-09-15 Synaptics Incorporated Biometric object sensor and method
US9268991B2 (en) 2012-03-27 2016-02-23 Synaptics Incorporated Method of and system for enrolling and matching biometric data
US9600709B2 (en) 2012-03-28 2017-03-21 Synaptics Incorporated Methods and systems for enrolling biometric data
US9152838B2 (en) 2012-03-29 2015-10-06 Synaptics Incorporated Fingerprint sensor packagings and methods
JP5930808B2 (ja) * 2012-04-04 2016-06-08 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム
EP2958052B1 (en) 2012-04-10 2020-10-07 Idex Asa Biometric sensing
US9665762B2 (en) 2013-01-11 2017-05-30 Synaptics Incorporated Tiered wakeup strategy
CN103235936A (zh) * 2013-04-24 2013-08-07 北京东方金指科技有限公司 掌纹采集装置
US9390306B2 (en) * 2013-09-06 2016-07-12 Apple Inc. Finger biometric sensor including circuitry for acquiring finger biometric data based upon finger stability and related methods
JP6431044B2 (ja) * 2014-03-25 2018-11-28 富士通フロンテック株式会社 生体認証装置、生体認証方法、及びプログラム
EP3125194B1 (en) * 2014-03-25 2021-10-27 Fujitsu Frontech Limited Biometric authentication device, biometric authentication method, and program
EP3125193B1 (en) * 2014-03-25 2020-12-23 Fujitsu Frontech Limited Biometric authentication device, biometric authentication method, and program
KR102212632B1 (ko) * 2014-05-12 2021-02-08 삼성전자주식회사 지문 인식 방법 및 이를 수행하는 전자 장치
US9785818B2 (en) 2014-08-11 2017-10-10 Synaptics Incorporated Systems and methods for image alignment
SE1451336A1 (en) * 2014-11-07 2016-05-08 Fingerprint Cards Ab Enrolling templates for biometric authentication
US10217257B1 (en) * 2015-03-17 2019-02-26 Amazon Technologies, Inc. Process for contextualizing continuous images
US9792485B2 (en) 2015-06-30 2017-10-17 Synaptics Incorporated Systems and methods for coarse-to-fine ridge-based biometric image alignment
US10331936B2 (en) * 2015-07-14 2019-06-25 Idex Asa Duplicate pattern reconstructions
WO2017022548A1 (ja) * 2015-07-31 2017-02-09 株式会社ディー・ディー・エス 情報処理プログラム及び情報処理装置
US9785819B1 (en) 2016-06-30 2017-10-10 Synaptics Incorporated Systems and methods for biometric image alignment
US10127681B2 (en) 2016-06-30 2018-11-13 Synaptics Incorporated Systems and methods for point-based image alignment
KR102582973B1 (ko) * 2017-02-03 2023-09-26 삼성전자 주식회사 지문 센서를 제어하기 위한 장치 및 그 방법
SE1750155A1 (sv) * 2017-02-17 2018-08-18 Fingerprint Cards Ab Enabling identification of fingerprints from captured imagesusing contour points
US10282618B2 (en) * 2017-03-22 2019-05-07 Cisco Technology, Inc. Multi-blend fingerprinting
TWI681342B (zh) * 2018-12-11 2020-01-01 瑞昱半導體股份有限公司 物件位置判斷電路

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091769A (ja) 1996-06-14 1998-04-10 Thomson Csf 指紋読み取りシステム
JP2003248820A (ja) 2002-02-25 2003-09-05 Fujitsu Ltd 画像連結方法、プログラム及び装置
JP2004351039A (ja) 2003-05-30 2004-12-16 Aloka Co Ltd 超音波診断装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4698843A (en) * 1985-08-19 1987-10-06 Rca Corporation Method for compensating for void-defects in images
US5649032A (en) * 1994-11-14 1997-07-15 David Sarnoff Research Center, Inc. System for automatically aligning images to form a mosaic image
US6317508B1 (en) 1998-01-13 2001-11-13 Stmicroelectronics, Inc. Scanning capacitive semiconductor fingerprint detector
JP3738629B2 (ja) * 1999-11-25 2006-01-25 三菱電機株式会社 携帯型電子機器
EP1111909A1 (de) * 1999-12-23 2001-06-27 Philips Patentverwaltung GmbH Vorrichtung und Verfahren zur Darstellung eines aus mehreren Teilbereichen zusammengesetzten Bildes
US6643389B1 (en) 2000-03-28 2003-11-04 Stmicroelectronics, Inc. Narrow array capacitive fingerprint imager
AU2002255684A1 (en) * 2001-03-07 2002-09-19 Pulsent Corporation Predictive edge extension into uncovered regions
JP3902473B2 (ja) 2002-01-17 2007-04-04 富士通株式会社 生体情報を用いた本人認証方法
JP4027118B2 (ja) 2002-02-25 2007-12-26 富士通株式会社 本人認証方法、プログラム及び装置
JP4022861B2 (ja) 2002-04-10 2007-12-19 日本電気株式会社 指紋認証システム、指紋認証方法及び指紋認証プログラム
JP3859673B2 (ja) 2002-09-17 2006-12-20 富士通株式会社 生体情報取得装置および生体情報による認証装置
JP2004110438A (ja) 2002-09-18 2004-04-08 Nec Corp 画像処理装置、画像処理方法及びプログラム
JP4262471B2 (ja) 2002-11-12 2009-05-13 富士通株式会社 生体特徴データ取得装置
DE10255072A1 (de) * 2002-11-25 2004-06-17 Sensovation Ag Verfahren zum Erfassen einer Eigenschaft mindestens eines Gegenstands
JP3710452B2 (ja) 2003-03-11 2005-10-26 キヤノン株式会社 画像読み取り装置、データ補間方法及び制御プログラム
JP2005004718A (ja) 2003-05-16 2005-01-06 Canon Inc 信号処理装置及び制御方法
TWI236636B (en) 2003-05-20 2005-07-21 Lightuning Tech Inc Sweep-type fingerprint sensor module and a sensing method therefor
JP2005063020A (ja) 2003-08-08 2005-03-10 Canon Inc 認識装置
EP1671260B1 (en) * 2003-10-01 2014-06-11 Authentec, Inc. Methods for finger biometric processing and associated finger biometric sensors
JP3924558B2 (ja) * 2003-11-17 2007-06-06 富士通株式会社 生体情報採取装置
DE10358738B3 (de) * 2003-12-11 2005-06-02 Smiths Heimann Biometrics Gmbh Verfahren und Anordnung zur elektronischen Aufnahme abgerollter Fingerabdrücke
JP2005235157A (ja) 2004-01-23 2005-09-02 Sony Corp 指紋センサー、指紋照合装置および指紋読み取り方法
JP2005222472A (ja) 2004-02-09 2005-08-18 Sony Corp 指紋センサー、指紋照合装置および指紋読み取り方法
JP4462988B2 (ja) 2004-04-13 2010-05-12 Necインフロンティア株式会社 指紋読取方法および指紋読取システム
JP4411150B2 (ja) 2004-06-30 2010-02-10 Necインフロンティア株式会社 画像構成方法、指紋画像構成装置およびプログラム
JP4411152B2 (ja) 2004-07-05 2010-02-10 Necインフロンティア株式会社 指紋読取方法、指紋読取システム及びプログラム
JP4404706B2 (ja) 2004-07-07 2010-01-27 Necインフロンティア株式会社 指紋入力方法、指紋入力装置、指紋認証方法、指紋認証システム及びプログラム
JP2006107366A (ja) 2004-10-08 2006-04-20 Fujitsu Ltd 生体情報入力装置,生体認証装置,生体情報処理方法,生体情報処理プログラムおよび同プログラムを記録したコンピュータ読取可能な記録媒体
US7359555B2 (en) * 2004-10-08 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Detecting roads in aerial images using feature-based classifiers
US7565548B2 (en) * 2004-11-18 2009-07-21 Biogy, Inc. Biometric print quality assurance
US20060285729A1 (en) * 2005-06-15 2006-12-21 Kim Taek S Fingerprint recognition system and method
US20090175539A1 (en) * 2008-01-09 2009-07-09 Authorizer Technologies, Inc. Method and system for swipe sensor image alignment using fourier phase analysis

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091769A (ja) 1996-06-14 1998-04-10 Thomson Csf 指紋読み取りシステム
JP2003248820A (ja) 2002-02-25 2003-09-05 Fujitsu Ltd 画像連結方法、プログラム及び装置
JP2004351039A (ja) 2003-05-30 2004-12-16 Aloka Co Ltd 超音波診断装置

Also Published As

Publication number Publication date
EP2128817A4 (en) 2014-07-02
CN101517612A (zh) 2009-08-26
KR20090098894A (ko) 2009-09-17
US8358870B2 (en) 2013-01-22
JP4611427B2 (ja) 2011-01-12
WO2008090608A1 (ja) 2008-07-31
US20090279742A1 (en) 2009-11-12
EP2128817B1 (en) 2019-04-03
EP2128817A1 (en) 2009-12-02
JPWO2008090608A1 (ja) 2010-05-13
CN101517612B (zh) 2012-05-30

Similar Documents

Publication Publication Date Title
KR101035930B1 (ko) 화상 판독 장치, 화상 판독 프로그램을 기록한 기록 매체, 화상 판독 방법
JP4169185B2 (ja) 画像連結方法、プログラム及び装置
US8224043B2 (en) Fingerprint image acquiring device, fingerprint authenticating apparatus, fingerprint image acquiring method, and fingerprint authenticating method
EP1966739B1 (en) Biometric information detection using sweep-type imager
JP4029412B2 (ja) 指紋掌紋画像処理システムおよび指紋掌紋画像処理方法
US7512257B2 (en) Coding system and method of a fingerprint image
KR100887029B1 (ko) 화상 처리 시스템
US20070047777A1 (en) Image collation method and apparatus and recording medium storing image collation program
US9607204B2 (en) Biometric information processing apparatus, method, and recording medium
JPH09167230A (ja) 指掌紋画像処理装置
JP7130905B2 (ja) フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出
KR20120047991A (ko) 지문 인페인팅 타겟 영역의 자동 식별
JP5040835B2 (ja) 生体情報読取装置、生体情報読取方法および生体情報読取プログラム
JP5556663B2 (ja) 照合装置、照合方法、及びプログラム
CN113569868B (zh) 一种目标检测方法、装置及电子设备
JP4411152B2 (ja) 指紋読取方法、指紋読取システム及びプログラム
JP2002288672A (ja) 指掌紋画像処理装置及び方法
KR102138652B1 (ko) 딥 러닝 기반의 지정맥 특징과 손가락 형태를 이용하는 생체 인식 장치 및 방법
Joshi et al. On estimating uncertainty of fingerprint enhancement models
JP5773935B2 (ja) シーンにおけるオブジェクトを分類する方法
JP5470529B2 (ja) 動き検出装置、動き検出方法及び動き検出プログラム
US11074427B2 (en) Method for reconstructing an imprint image from image portions
JP2006277407A (ja) 照合方法および照合装置
KR20060035504A (ko) 2차원 이미지 합성 방법 및 시스템
Namdev et al. PALMPRINT RECOGNITION SYSTEM USING BACK PROPOGATION NEURAL NETWORK BY APPLYING THE CONCEPT OF LIBRARY

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140418

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150416

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160419

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170420

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee