KR101270880B1 - 화상 매칭 장치, 및, 화상 매칭 방법 - Google Patents

화상 매칭 장치, 및, 화상 매칭 방법 Download PDF

Info

Publication number
KR101270880B1
KR101270880B1 KR1020110017105A KR20110017105A KR101270880B1 KR 101270880 B1 KR101270880 B1 KR 101270880B1 KR 1020110017105 A KR1020110017105 A KR 1020110017105A KR 20110017105 A KR20110017105 A KR 20110017105A KR 101270880 B1 KR101270880 B1 KR 101270880B1
Authority
KR
South Korea
Prior art keywords
image
similarity
unit
complex
mixed
Prior art date
Application number
KR1020110017105A
Other languages
English (en)
Other versions
KR20110109836A (ko
Inventor
다까히로 아오끼
Original Assignee
후지쯔 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후지쯔 가부시끼가이샤 filed Critical 후지쯔 가부시끼가이샤
Publication of KR20110109836A publication Critical patent/KR20110109836A/ko
Application granted granted Critical
Publication of KR101270880B1 publication Critical patent/KR101270880B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/88Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
    • G06V10/89Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters using frequency domain filters, e.g. Fourier masks implemented on spatial light modulators
    • G06V10/893Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters using frequency domain filters, e.g. Fourier masks implemented on spatial light modulators characterised by the kind of filter
    • G06V10/895Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters using frequency domain filters, e.g. Fourier masks implemented on spatial light modulators characterised by the kind of filter the filter being related to phase processing, e.g. phase-only filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

코스트를 억제하면서 인증에 요하는 시간을 단축화할 수 있는, 화상 매칭 장치 및 화상 매칭 방법을 제공한다. 화상 매칭 장치는, 선형성을 충족시키는 연산에 있어서, 2매 이상의 등록 화상의 각각에 대하여 복소 평면의 서로 다른 위상 성분을 곱하여 가산해서 얻어지는 혼합 화상을 생성하는 혼합 화상 생성부와, 1매 이상의 입력 화상과, 상기 혼합 화상과의 유사도 연산을 행함으로써 복소 유사도 화상을 생성하는 복소 유사도 화상 생성부와, 상기 복소 유사도 화상의 상기 위상 성분 벡터에 대한 사영 성분으로부터 유사도를 취득하는 유사도 취득부를 구비한다.

Description

화상 매칭 장치, 및, 화상 매칭 방법{IMAGE MATCHING DEVICE AND IMAGE MATCHING METHOD}
본 발명은, 화상 매칭 장치 및 화상 매칭 방법에 관한 것이다.
화상 인식이나 생체 인증에서는, 2개의 화상의 유사도를 계산하는 경우가 많다. 일반적으로는, 미리 등록 템플릿으로서 등록해 둔 등록 화상과, 센서 등을 통해서 입력된 입력 화상과의 유사도가 계산된다. 화상 매칭 정밀도 향상을 위해, 등록 템플릿에는, 복수매의 화상 데이터가 등록되어 있는 경우가 많다. 이 경우, 입력 화상과 그 복수 화상 데이터와의 사이에서 유사도가 계산된다.
생체 인증에는, 미리 ID 번호 등의 입력에 의해서 본인을 특정하고 나서 인증을 실행하는 1:1 인증과, 본인을 특정하지 않고 등록 템플릿의 복수의 등록 화상과 매칭을 행하는 1:N 인증의 2개의 종류가 있다. 1:N 인증의 경우에는, N인분의 등록 화상과 대조 처리를 행할 필요가 있다. 이 경우, 인증에 요하는 시간은, N배 정도로 되게 된다. 또한, 유저마다, 회전 각도를 다르게 한 복수의 화상끼리의 매칭을 행하는 경우가 있다. 이 경우에는, 인증에 요하는 시간이 더 길어지게 된다. 따라서, 특허 문헌 1은, 복수의 화상 처리 장치를 병렬로 이용하여 인증 시간의 단축화를 도모하는 기술을 개시하고 있다.
[특허 문헌 1] 일본 특허 공개 제2006-163726호 공보
그러나, 특허 문헌 1의 기술에서는, 복수대의 화상 처리 장치가 필요하게 된다. 이 경우, 코스트 증가를 초래한다.
본 발명은 상기 과제를 감안하여 이루어진 것으로, 코스트를 억제하면서 인증에 요하는 시간을 단축화할 수 있는, 화상 매칭 장치 및 화상 매칭 방법을 제공하는 것을 목적으로 한다.
상기 과제를 해결하기 위해, 명세서에 개시된 화상 매칭 장치는, 선형성을 충족시키는 연산에 있어서, 2매 이상의 등록 화상의 각각에 대하여 복소 평면의 서로 다른 위상 성분을 곱하여 가산해서 얻어지는 혼합 화상을 생성하는 혼합 화상 생성부와, 1매 이상의 입력 화상과, 상기 혼합 화상과의 유사도 연산을 행함으로써 복소 유사도 화상을 생성하는 복소 유사도 화상 생성부와, 상기 복소 유사도 화상의 상기 위상 성분 벡터에 대한 사영 성분으로부터 유사도를 취득하는 유사도 취득부를 구비하는 것을 특징으로 하는 것이다.
상기 과제를 해결하기 위해, 명세서에 개시된 화상 매칭 방법은, 선형성을 충족시키는 연산에 있어서, 2매 이상의 등록 화상의 각각에 대하여, 복소 평면의 서로 다른 위상 성분을 곱하여 가산해서 얻어지는 혼합 화상을 생성하는 혼합 화상 생성 스텝과, 1매 이상의 입력 화상과, 상기 혼합 화상과의 유사도 연산을 행함으로써 복소 유사도 화상을 생성하는 복소 유사도 화상 생성 스텝과, 상기 복소 유사도 화상의 상기 위상 성분 벡터에 대한 사영 성분으로부터 유사도를 취득하는 유사도 취득 스텝부를 포함하는 것을 특징으로 하는 것이다.
명세서에 개시된 부정 액세스 검지 장치 및 부정 액세스 검지 방법에 따르면, 코스트를 억제하면서 인증에 요하는 시간을 단축화할 수 있다.
도 1은 위상 파라미터 aj를 설명하기 위한 도면.
도 2는 수학식 13의 개념을 설명하기 위한 도면.
도 3은 생체 인증 시스템의 전체 구성을 설명하기 위한 기능 블록도.
도 4는 생체 인증 시스템의 기기 구성도.
도 5는 화상 매칭부의 상세를 설명하기 위한 기능 블록도.
도 6은 공간 시프트량에 대해서 설명하기 위한 도면.
도 7은 화상 매칭 처리의 흐름을 나타내는 플로우차트.
도 8은 도 7의 스텝 S3에서의 혼합 화상의 생성 처리의 일례를 설명하기 위한 플로우차트.
도 9는 등록 화상의 배치를 설명하기 위한 도면.
도 10은 매크로 블록의 매칭의 개략을 설명하기 위한 도면.
우선, 화상 매칭 연산 방식의 일례로서, POC(Phase Only Correlation)에 대해서 설명한다. POC는, 선형성을 충족시키는 화상간의 매칭 연산 방식이다. 예를 들면, 함수 f 및 함수 g가 각각 화상을 나타내고 있는 것으로 한다. 또한, 계수 a1 및 계수 a2가 임의의 상수인 것으로 한다. 이 경우, 하기 수학식 1과 같이 연산 「*」을 전개할 수 있으면, 연산 「*」는 선형성을 충족시키고 있다.
Figure 112011013901381-pat00001
POC에서는, 푸리에 변환의 컨볼루션 정리를 이용하여 상호 상관 함수(Cross Correlation Function)가 계산된다. 이 방식에서는, 상호 상관 함수의 주파수 성분을 정규화함으로써, 강도(Intensity) 정보를 제거하고, 위상(Phase) 정보만을 이용할 수 있다.
POC의 출력 화상은, 연산 전의 화상과 동일한 사이즈의 화상으로 된다. 이하, POC의 출력 화상을 유사도 화상으로 칭한다. 유사도 화상의 좌표(x, y)의 값은, 등록 화상과 대조 화상에 대하여, 평행 이동을 적용한 경우의 상관값을 나타낸다. 따라서, POC를 이용함으로써, 평행 이동에 관한 탐색이 불필요해진다. 또한, POC를 이용한 매칭에서는, 유사도 화상의 최대값을 유사도로서 이용한다.
POC에서는 강도 정보가 제거되어 있다. 따라서, 상관 함수로 하는 특정한 주파수의 영향을 회피할 수 있다. 또한, POC에서는, 동일 화상간(본인끼리의 화상)의 유사도 화상에 명료한 피크가 보여지는 한편, 다른 화상간(타인끼리의 화상)의 유사도 화상은 거의 「0」의 값을 갖는다. 따라서, POC에서는, 본인과 타인과의 사이에서의 식별 정밀도가 높아진다.
우선 처음에, 2개의 함수의 상호 상관 함수(Cross Correlation Function)에 대해서 설명한다. 상호 상관 함수는, 평행 이동을 적용한 경우에 2개의 함수가 어느 정도 유사한지를 나타내는 함수이다. 함수 f(x)와 함수 g(x)와의 상호 상관 함수를 계산하기 위해서는, 한쪽의 함수를 반전(플립)하고 나서, 하기 수학식 2와 같이 함수 f(x) 및 함수 g(x)의 컨볼루션 연산을 행하면 된다. 또한, 하기 수학식 2에서, 함수 h(x)는, 함수 f(x)와 함수 g(x)와의 상호 상관 함수이다. 또한, 화상의 반전은, 푸리에 변환 후의 복소 공액에 대응한다.
Figure 112011013901381-pat00002
컨볼루션 연산을 고속으로 실행하는 방법으로서, 푸리에 변환을 이용한 「컨볼루션 정리」가 알려져 있다. 이하, 수학식 3∼수학식 6을 참조하면서, 「컨볼루션 정리」에 대해서 설명한다. 우선, 하기 수학식 3 및 하기 수학식 4와 같이, 함수 f(x) 및 함수 g(x)를 각각 푸리에 변환하여 함수 f(ω) 및 함수 G(ω)를 구한다. 또한, FFT는 푸리에 변환을 나타낸다. 또한, 「ω」는, 주파수를 나타내는 변수이다.
Figure 112011013901381-pat00003
Figure 112011013901381-pat00004
계속해서, 하기 수학식 5와 같이, 함수 f(ω)와 함수 G(ω)와의 곱을 함수 H(ω)로 한다. 또한, 함수 H(ω)를 역푸리에 변환하면, 함수 f(x)와 함수 g(x)와의 컨볼루션 함수가 얻어진다. 따라서, 하기 수학식 6의 관계가 얻어진다. 이상의 점으로부터, 실제 공간에서의 컨볼루션 연산이, 주파수 공간에서는 단순한 곱으로 치환될 수 있게 된다. 푸리에 변환의 연산을 고속의 FFT로 실행함으로써, 컨볼루션을 직접 계산하는 것보다도 고속화된다.
Figure 112011013901381-pat00005
Figure 112011013901381-pat00006
이하, 수학식 7∼수학식 13을 참조하면서, POC에 대해서 설명한다. 우선 처음에, 하기 수학식 7과 같이, 함수 F(ω)를 정규화함으로써 함수 F'(ω)를 산출한다. 이 함수 F'(ω)는, 화상의 함수 F(ω)의 특징 데이터에 대응한다. 또한, 하기 수학식 8과 같이, 함수 G(ω)를 정규화함으로써 함수 G'(ω)를 산출한다. 이 함수 G'(ω)는, 화상 G'(ω)의 특징 데이터에 대응한다. 다음으로, 하기 수학식 9와 같이 함수 F'(ω)와 함수 G'(ω)와의 복소 공액의 곱을 산출하고, 함수 H'(ω)를 구한다. 하기 수학식 10과 같이 함수 H'(ω)를 역푸리에 변환하여 얻어지는 함수 h'(x)가, 구해야 할 유사도 화상이다.
Figure 112011013901381-pat00007
Figure 112011013901381-pat00008
Figure 112011013901381-pat00009
Figure 112011013901381-pat00010
여기서, POC의 출력 결과인 함수 h'(x)는, 2개의 화상에 관한 함수 f(x) 및 함수 g(x)를 「x」만큼 평행 이동한 경우의 상호 상관 함수이다. 이 함수 h'(x)의 최대값을 유사도로서 이용한다. 이 최대값을 부여하는 좌표 X는, 함수 f(x) 및 함수 g(x)의 평행 이동량을 나타낸다. 즉, POC에서는, 화상을 평행 이동하여 탐색하지 않고, 상호 상관 함수의 최대값을 탐색하는 것만으로, 화상간의 평행 이동을 고려하여 유사도의 최대값을 산출할 수 있다. 또한, 푸리에 변환은 선형성을 충족시키기기 때문에, POC도 선형성을 충족시킨다.
다음으로, 생체 인증에 있어서, N매의 등록 화상(등록 템플릿)과 1매의 입력 화상과의 사이의 화상 매칭 연산에 대해서 설명한다. N매의 등록 화상 f1, f2, …, fN이 등록되어 있는 경우에, 각 화상에 복소 공간의 단위원 상의 점 a1, a2, …, aN을 계수로 하여 선형 결합함으로써, 하기 수학식 11의 혼합 화상을 계산한다. 이하, 점 aj를, 「위상 파라미터」로 칭한다.
Figure 112011013901381-pat00011
도 1은, 위상 파라미터 aj를 설명하기 위한 도면이다. 도 1에서, 횡축은 실수를 나타내고, 종축은 허수를 나타낸다. 위상 파라미터 aj는, aj=exp(iθj)로 나타낼 수 있다. 여기서, 「i」는 허수 단위이다. 또한, 「θj」는 j번째의 등록 화상에 대한 위상각이다. 위상 파라미터의 구체적인 설정값으로서, 도 1과 같은 단위원을 N등분하여 얻어지는 각 점을 aj로 할 수 있다. 도 1의 예에서는, N=8이다.
다음으로, N매의 등록 화상으로 이루어지는 혼합 화상과, 입력 화상 g와의 사이에서 유사도 연산 「*」를 실행한다. 그 결과, 유사도 연산 「*」의 선형성으로부터, 하기 수학식 12와 같은 전개식이 얻어진다. 따라서, 혼합 화상과 입력 화상 g와의 연산 결과는, 등록 화상 fj(j=1, 2, …, N)와 입력 화상의 연산 결과를 위상 파라미터 aj로 연결한 형태를 갖는다. 수학식 12의 연산 결과는, 복소수의 값을 갖는다. 이하에서는, 수학식 12의 연산 결과를, 복소 유사도 화상으로 칭한다.
Figure 112011013901381-pat00012
다음으로, 위상 파라미터 aj를 벡터로 간주한 경우의 사영 성분을 계산한다. 즉, 위상 파라미터 aj를 벡터로 간주하고, 수학식 12의 연산 결과와 aj와의 내적을 계산한다. 사영량의 계산 결과는, 하기 수학식 13으로 나타낼 수 있다. 또한, 도 2는, 하기 수학식 13의 개념을 설명하기 위한 도면이다. 수학식 13에서, 기호 「「|j」는, 위상 파라미터 aj 방향으로의 사영 성분을 나타낸다. 또한, 「Δθkj」는, k번째의 위상 파라미터와 j번째의 위상 파라미터가 이루는 각도를 나타낸다. 수학식 13에서 얻어진 연산 결과를, (fj*g)에 대한 유사도 연산 결과로서 이용할 수 있다.
Figure 112011013901381-pat00013
fj가 생체 인증의 등록 데이터인 것으로 하면, 입력 화상 g와 일치하는 화상은, 최대라도 1매이다. 입력 화상 g에 대하여 등록 화상 데이터 fj가 다른 사람의 화상이었던 경우, (fj*g)는 제로(0) 또는 제로(0)에 가까운 값으로 된다. 한편, 입력 화상 g가 k번째의 등록 데이터 fk와 동일 인물의 화상이었던 것으로 한다. 이 경우, j≠k의 j에 대해서는, (fj*g)는, 제로 또는 제로에 가까운 값으로 된다. 한편, cosΔθkk=1이므로, 하기 수학식 14의 결과가 얻어진다. 따라서, k번째의 등록 화상 fk와 입력 화상 g와의 연산 결과(근사값)가 얻어진다.
Figure 112011013901381-pat00014
이상의 점으로부터, 혼합 화상과 입력 화상과의 연산을 한번 행하고, 얻어지는 연산 결과에 대응하는 위상 파라미터 aj에 대한 사영 성분을 구함으로써, (fj*g)에 거의 동등한 값이 얻어지게 된다. 일련의 처리 중에서 유사도 연산 「*」는 한번만 행해지므로, 고속으로 연산 처리를 실행할 수 있다. 또한, POC에서는, 유사도 연산에 요하는 시간의 대부분은, FFT 연산 시간 및 IFFT 연산 시간이다. 상기 수순에 따르면, IFFT를 1회 실행하는 것만으로, 복수 화상간의 유사도를 계산 할 수 있다. 따라서, 연산에 요하는 시간의 증가를 억제할 수 있다.
여기서, 복소수의 위상 파라미터 aj를 이용하는 효과에 대해서 설명한다. 가령 복소수의 위상 파라미터 aj를 이용하지 않고 모든 j에 대하여 aj=1로 한 경우에 대해서 생각한다. 이 경우, 혼합 화상은 수학식 15로 표현되고, 사영 연산 결과는 수학식 16으로 표현된다. 이 경우, 유사도 연산에서는, 모든 등록 화상과 입력 화상과의 유사도(fj*g)가 단순히 가산되는 것으로 된다. 그것에 의해, 타인 화상간의 유사도에 기인하는 노이즈가 N회 가산되는 것으로 되어, 식별 정밀도가 저하할 우려가 있다. 한편, 본 실시 형태에서는 위상이 변화되고 있기 때문에, 도 1의 점 aj의 대각선 상의 (fj*g)가 서로 상쇄된다. 그 결과, 노이즈를 저감시킬 수 있다.
Figure 112011013901381-pat00015
Figure 112011013901381-pat00016
또한, 단순히 가산한 경우, 사영 연산의 결과로서 큰 유사도가 얻어졌다고 하여도, 어떤 화상이 해당 유사도에 기여한 것인지 판별하는 것이 곤란하다. 생체 인증에서는, 어떤 유저의 등록 화상이 큰 유사도에 기여한 것인지를 알 수 없다. 이에 대하여, 본 실시 형태에서는, 사영 연산의 aj에 대한 사영 성분이 대응하는 화상 fj에 기초하는 유사도에 거의 일치한다. 따라서, 어떤 등록 화상이 입력 화상과 일치한 것인지 판별할 수 있다.
또한, 상기 설명에서는, 복수의 화상(f1, f2, …, fN)이 서로 유사하지 않은 것을 전제로 하였다. 복수의 화상이 서로 일정한 유사성을 갖고 있는 경우에서는, 화상간에 시프트(평행 이동)를 제공함으로써, 유사도의 간섭을 저감시킬 수 있다.
예를 들면, 동일한 화상을 다양한 각도로 회전시켜 복수의 화상으로 하는 경우에 대해서 생각한다. 구체적으로는, 원의 등록 화상 f에 대하여 다양한 각도로 회전을 준 화상을 f1, f2, …, fN으로 하는 경우가 해당한다. 이들의 등록 화상과 입력 화상과의 사이의 유사도를 고려한 경우, 어떤 특정한 각도 θ에서 양자의 유사도가 피크를 갖는다. 한편, 각도 θ에 가까운 각도 θ'에서도 어느 정도의 유사도가 얻어진다. 이 경우, 유사도의 피크값은 다르지만, 유사도의 피크를 제공하는 좌표(평행 이동의 위치)는 동일하다. 따라서, 복수 화상 f1, f2, …, fN에 각각 다른 값의 시프트(평행 이동)를 제공함으로써, 유사도의 피크간의 간섭을 회피할 수 있다.
다음으로, 단일의 화상을 회전시킨 경우가 아니라, 복수의 다른 화상이 유사하는 경우에 대해서 고려한다. 이 경우, 사전에 등록 화상간의 매칭을 행함으로써 f1, f2, …, fN 사이의 유사도의 피크를 제공하는 평행 이동량을 산출해 둔다. 또한, 그 평행 이동량이 겹치지 않도록 시프트량을 결정함으로써, 유사도의 피크끼리의 간섭을 회피할 수 있다.
다음으로, 공간 시프트에 대해서 설명한다. 푸리에 변환에서는, x 좌표에 관하여 순환하는 성질이 있다. 즉, 함수 f(x)는, f(x)=f(x+L)의 관계를 충족시킨다. 여기서, 「L」은 화상의 사이즈이다. 이것은, 본래 유한한 사이즈의 데이터인 화상 데이터를 무한 데이터로서 취급하는 푸리에 변환에 적용하기 위해, 화상 데이터가 순환하기 때문이다. 따라서, 화상을 시프트시키고 나서 연산 처리를 실행한 후, 역의 시프트를 실행함으로써 원래의 연산 결과를 얻을 수 있다.
또한, 상기 설명에서는, 계수 aj는, |aj|=1을 충족시키고 있었다. 따라서, 계수 aj는, 복소 공간에서의 단위원(unit circle) 상의 점을 나타내고 있다. 그러나, 계수 aj가 동일한 단위원 상에 있지 않아도 된다. 이 경우,예를 들면, 계수 aj를 일반적인 복소수로 설정하고, 정규화 처리를 마지막에 실행하여도 된다.
aj를 일반적인 복소수로 한 경우, aj=bj+icj로 나타낼 수 있다. 여기서, bj는 실수 부분이며, cj는 허수 부분이며, i는 허수 단위이다. 이 계수 aj는, 하기 수학식 17과 같이 나타낼 수 있다. 단, 하기 수학식 18이 성립한다.
Figure 112011013901381-pat00017
Figure 112011013901381-pat00018
계수 aj를 이와 같은 형태로 표현하면, 수학식 12의 혼합 화상은, 하기 수학식 19와 같이 나타낼 수 있다. 또한, 수학식 12의 혼합 화상에 대한 g와의 유사도 연산은 하기 수학식 20과 같이 나타낼 수 있다.
Figure 112011013901381-pat00019
Figure 112011013901381-pat00020
여기서, f2와 g와의 사이의 유사도가 높고, 다른 화상간의 유사도가 거의 「O」과 동등한 경우를 가정한다. 이 경우, 계수 a2의 위상 방향의 사영 화상은, 하기 수학식 21 및 하기 수학식 22의 관계가 얻어진다. 따라서, 보다 일반적으로는, 계수 aj로 결합한 화상과의 유사도를 산출하는 경우, 계수 aj의 위상 방향에 대한 사영 화상을 계산한 후에, 계수 aj의 절대값 |aj|로 정규화함으로써, 원하는 유사도의 근사값을 구할 수 있다.
Figure 112011013901381-pat00021
Figure 112011013901381-pat00022
본 실시 형태에 따르면, 일련의 처리 중에서 유사도 연산 「*」는 한번만 행해지므로, 고속으로 연산 처리를 실행할 수 있다. 그것에 의해, 인증 시간을 단축화할 수 있다. 따라서, 복수대의 화상 처리 장치를 이용하지 않아도 되므로, 코스트 증가를 억제할 수 있다.
<실시예 1>
계속해서, 실시예 1에 따른 생체 인증 시스템(100)에 대해서 설명한다. 생체 인증 시스템(100)은, 상기 실시 형태에 따른 연산 처리를 행한다. 도 3은, 생체 인증 시스템(100)의 전체 구성을 설명하기 위한 기능 블록도이다. 도 3을 참조하여, 생체 인증 시스템(100)은, 매칭 처리부(10), 생체 인증 센서(20), 데이터베이스(30), 입출력부(40) 등을 포함한다. 매칭 처리부(10)는, 전체 제어부(50) 및 화상 매칭부(60)를 포함한다.
전체 제어부(50)는, 생체 인증 시스템(100)의 전체 관리를 행하는 제어부이다. 생체 인증 센서(20)는, 유저의 생체 특징의 화상을 취득하는 센서이다. 데이터베이스(30)는, 각 유저의 등록 화상 등의 생체 정보를 저장한다. 입출력부(40)는, 예를 들면, 유저에게 지시를 보내고, 유저를 특정하기 위한 ID의 입력을 접수하는 인터페이스이다. 입출력부(40)는, 일례로서, 액정 모니터, 키보드, 터치 패널 등이다. 화상 매칭부(60)는, 데이터베이스(30)에 저장되어 있는 등록 화상과, 생체 인증 센서(20)로부터 입력되는 입력 화상과의 유사도를 산출한다.
도 4는, 생체 인증 시스템(100)의 기기 구성도이다. 도 4를 참조하여, 생체 인증 시스템(100)은, CPU(중앙 연산 처리 장치)(101), RAM(랜덤 액세스 메모리)(102), HDD(하드 디스크 드라이브)(103), 입출력 인터페이스(1O4) 등을 구비한다. 각 기기는, 버스에 의해서 접속되어 있다. CPU(101)가 HDD(103) 등에 기억되어 있는 프로그램을 실행함으로써, 생체 인증 시스템(100)에 전체 제어부(50) 및 화상 매칭부(60)가 실현된다. 또한, 입출력 인터페이스(104)가, 입출력부(40)로서 기능한다.
본 실시예에서는, 일례로서, 1:1의 생체 인증을 대상으로 한다. 또한, 생체의 자세 변동으로서, 회전을 고려한다. 또한, 화상 매칭 방식으로서, POC를 이용한다. 1:1 인증을 실행하기 위해, 입출력부(40)는, 유저로부터의 ID 입력을 접수한다. 화상 매칭부(60)는, 입력된 ID를 이용하여 유저를 특정하고, 데이터베이스(30)로부터 해당하는 유저의 등록 화상을 취득하고, 매칭 처리를 행한다.
이하의 설명에서는 등록 화상 1매에 대한 매칭 처리에 대해서 설명하지만, 마찬가지의 처리를 반복하여 실행함으로써, 등록 화상이 복수매인 경우에도 매칭 처리를 행할 수 있다. 이 경우에는, 복수의 등록 화상에 대해, 각각의 등록 화상에 대한 매칭 처리를 하기 수순으로 실행하고, 그 중의 유사도의 최대값을 최종적인 출력 결과로 할 수 있다.
화상 매칭부(60)는, 전체 제어부(50)의 지시에 따라서, 화상의 매칭 처리를 행한다. 화상 매칭부(60)에는, 등록 화상, 입력 화상, 매칭 파라미터 등이 건네진다. 등록 화상은, 등록된 유저의 생체 데이터이다. 본 실시 형태에서는 1:1 인증을 행하기 위해, 데이터베이스(30)에 등록된 화상 데이터 중, 특정 유저의 등록 화상 1매가 화상 매칭부(60)에 건네진다.
입력 화상은, 생체 인증 센서(20)에 의해서 취득된 생체 화상이다. 본 실시예에서는, 입력 화상은 1매이다. 매칭 파라미터는, 매칭 처리를 행하기 위한 조건이며, 구체적으로는 화상에 대한 회전각의 조건 등이 해당한다. 매칭 파라미터는, 데이터베이스(30)에 기억되어 있고, 예를 들면 회전각 θ=-4°, -2°, 0° 등의 형태의 리스트 형식으로 기억되어 있어도 되고, 최대 각도, 최소 각도, 각도 스텝 등의 형식으로 기억되어 있어도 된다. 본 실시예에서는, 데이터베이스(30)로부터 회전 각도의 리스트가 화상 매칭부(60)에 건네진다. 본 실시예에서는, 각도 θ=-8°, -6°, -4°, …, +8°와 같이 ±8°의 범위를 2°씩 변화시킨 9개 종류의 각도를 이용한다.
다음으로, 화상 매칭부(60)의 구성의 설명에 있어서, 사전에 변수ㆍ기호를 정의해 둔다. 우선, 유저의 등록 화상을 f1, f2, …,로 한다. 본 실시예에서는 등록 화상 1매를 대상으로 하기 위해, 실제로 사용되는 것은, f1이다. 또한, 입력 화상을 「g」로 한다. 화상의 회전각으로서 각도의 리스트인 Angle(Idx)를 이용한다. Angle(Idx)는, 인덱스 Idx에 대응하는 회전 각도를 보존하고 있는 리스트로, 예를 들면 Angls(1)=-8°라고 하는 값을 갖는다.
화상 매칭부(60)에서 매칭 처리하는 대상의 화상 및 각도의 수와 인덱스를, 하기와 같이 나타낸다. 실시예 2 이후에서도, 마찬가지이다. 본 실시예에서는 등록 화상 및 입력 화상이 모두 1매이므로, Ct1=1이며, Ct2=1이다.
등록 화상의 매수:Ct1=1
등록 화상의 인덱스:Idx=1
입력 화상의 매수:Ct2=1
입력 화상의 인덱스:Idx2=1
각도의 개수:Ct3=9
각도의 인덱스:Idx3=1, 2, …, 9
각도의 리스트:Angle(1)=-8°
Angle(2)=-6°
Angle(3)=-4°
Angle(9)=+8°
도 5는, 화상 매칭부(60)의 상세를 설명하기 위한 기능 블록도이다. 화상 매칭부(60)는, 화상 매칭 제어부(61), 화상 변형부(62), 특징 추출부(63), 매칭 연산부(64), 최대값 탐색부(65), 위상각 결정부(66), 시프트 결정부(67), 혼합 화상 생성부(68), 및 사영 화상 계산부(69)로서 기능한다.
화상 매칭 제어부(61)는, 화상 매칭 처리 전체의 제어를 행하는 제어부이다. 화상 매칭 제어부(61)는, 화상 변형부(62), 특징 추출부(63), 매칭 연산부(64), 최대값 탐색부(65), 위상각 결정부(66), 시프트 결정부(67), 혼합 화상 생성부(68), 및 사영 화상 계산부(69)를 제어하여 매칭 처리를 실행한다.
화상 변형부(62)는, 생체의 자세 변동에 대응하는 변형 처리를 화상에 대하여 제공하는 처리를 행한다. 화상 변형부(62)는, 변형의 대상으로 하는 화상 및 변형 파라미터를 설정하고, 대응하는 변형 처리를 실시하여 얻어지는 화상을 출력한다. 본 실시예에서는, 화상의 변형 파라미터로서, 화상의 회전각을 이용한다.
특징 추출부(63)는, 등록 화상 및 입력 화상으로부터 생체 특징 데이터를 추출한다. 본 실시예에서는 POC 방식을 채용하기 위해, 생체 특징 데이터는, 수학식 7의 F'(ω) 및 수학식 8의 G'(ω)가 해당한다. 또한, 이하의 설명에서는, F'(ω)를 등록 특징 데이터 F'(ω)로 칭하고, G'(ω)를 입력 특징 데이터 G'(ω)로 칭한다.
또한, 특징 추출부(63)는, 특징 추출 처리를 실행하기 전에, 입력 화상에 대하여 전처리를 행한다. 구체적으로는, 특징 추출부(63)는, 입력 화상에 대하여, 화상 사이즈의 잘라내기 처리, 축소 처리 등을 행한다. 잘라내기 처리는, 입력 화상으로부터 생체 인증에 필요한 영역을 취출하는 처리이다. 축소 처리는, POC 적용을 위해 화상 사이즈를 2의 멱승의 사이즈로 변환하는 처리이다. 이 처리에 의해, 고속 푸리에 변환이 적용 가능하게 된다. 본 실시예에서는, 특징 추출부(63)는, 일례로서, 입력 화상 사이즈를 128×128픽셀의 사이즈로 하는 축소 처리를 행한다.
매칭 연산부(64)는, 입력 화상의 생체 특징 데이터와 등록 화상의 생체 특징 데이터와의 유사도를 계산한다. 매칭 연산부(64)는, 수학식 9에 따라서 등록 특징 데이터 F'(ω)와 입력 특징 데이터 G'(ω)와의 곱을 계산하고, 수학식 10에 따라서 역푸리에 변환을 행함으로써 유사도 화상 h'(x)를 산출한다.
최대값 탐색부(65)는, 매칭 연산부(64)가 산출한 최대값을 탐색하고, 그 최대값을 유사도로서 출력한다. 또한, 최대값을 이루는 좌표(MX, MY)도 아울러 출력한다. 최대값을 이루는 좌표(MX, MY)는, 등록 화상과 입력 화상과의 위치 어긋남을 나타내고 있다. 상기 좌표값이 큰 경우에는, 매칭 처리 결과를 무효로 하는 처리를 적용하기 위해 이용한다. 위치 어긋남이 크면, 등록 화상과 입력 화상과의 중복 영역이 감소하기 때문이다. 중복 영역이 일정 이하의 경우에는, 매칭 처리의 신뢰성이 저하하기 때문에, 매칭 에러로 해도 된다. 최대값 탐색부(65)는, 최대값과 함께, 최대값을 이루는 좌표(MX, MY)를 화상 매칭 제어부(61)에 보낸다.
위상각 결정부(66)는, 화상 매칭을 행할 때의 위상각 θ을 결정하는 역할을 한다. 위상각 θ는, 선형 결합할 때의 상수부 exp(iθ)의 「θ」의 부분이다. 위상각 결정부(66)는, 대상으로 하는 화상의 종류(등록 화상 또는 입력 화상), 조건 Idx1, Ct1, Idx2, Ct2, Idx3, Ct3 등으로부터 위상각을 결정한다.
시프트 결정부(67)는, 화상 매칭을 행할 때의 시프트량을 결정하는 역할을 한다. 시프트 결정부(67)는, 대상으로 하는 화상의 종류(등록 화상 또는 입력 화상), 조건 Idx1, Ct1, Idx2, Ct2, Idx3, Ct3 등으로부터 시프트량을 결정한다.
혼합 화상 생성부(68)는, 수학식 11에 따라서 혼합 화상을 산출한다. 혼합 화상 생성부(68)는, 위상각 결정부(66) 및 시프트 결정부(67)의 결정 결과에 따라서 위상 파라미터 및 시프트량을 설정하고, 혼합 화상을 산출한다.
사영 화상 계산부(69)는, 수학식 13에 따라서, 혼합 화상으로부터 계산한 복소 유사도 화상으로부터 원하는 유사도 화상을 계산하는 사영 연산을 행한다. 이 때, 사영 화상 계산부(69)는, 위상각 결정부(66)로부터 취득한 위상각 정보에 기초하여 사영 연산을 행한다. 또한, 사영 화상 계산부(69)는, 사영 화상을 산출한 후, 혼합 화상을 생성할 때에 각 화상에 제공한 시프트량을 상쇄하기 위해, 역방향의 시프트 연산을 실행한다.
여기서, 위상각 θj를 결정하기 위한 로직에 대해서 설명한다. 우선, 2개의 화상 fj 및 화상 fk에 대하여 위상 파라미터 Δθjk=90°가 되는 값을 취하도록 한 경우, 양쪽 화상간의 상관이 없어지는 배치로 할 수 있다. 예를 들면, a1=1(실수)로 하고 a2=i로 설정하는 경우가 해당한다. 이것은, 수학식 12의 연산을 행할 때에, 1개의 화상을 실부로, 또한, 1개의 화상을 허수부로 설정하는 것에 해당한다. 그 때문에, 가장 간섭을 피하고자 하는 화상끼리의 위상 파라미터를 90°도 다른 배치로 하는 것이 바람직하다.
본 실시예에서는, 각도를 바꾼 Ct3=9매의 화상에 대하여 위상 파라미터를 계산한다. 이 경우, 회전 각도가 연속하는 화상끼리는 유사하다고 생각되기 때문에, 이들의 화상을 90° 또는 90°에 가까운 위상차를 제공하여 배치한다. 구체적으로는, Ct3=9매의 화상을 원주(=2π)로 배치하는 것을 고려하면, 회전 각도의 인덱스 Idx3이 1만큼 증가할 때마다, (2π를 9등분한 각도)의 (1/4)씩, 위상각 θj를 증가시키는 로직을 만든다.
도 6은, 공간 시프트량에 대해서 설명하기 위한 도면이다. 본 실시예에서는, Ct3=9매의 다른 화상을 1개의 혼합 화상으로서 연결한다. 이 때에 제공하는 공간 시프트를 다음과 같이 결정할 수 있다. 우선, 대상으로 하는 화상의 사이즈를 128×128픽셀로 한다. 다음으로, 도 6을 참조하여, 화상을 3×3의 블록으로 나누고, 각 블록의 중심에 대응하는 좌표를 공간 시프트량으로 한다. 이 때, 중심을 (0, 0)으로 간주한다. 예를 들면, 좌측 위의 블록에 대응하는 평행 이동량은, (-128/3, -128/3)≒(-43, -43)이다. 다른 공간 시프트도 마찬가지로 결정할 수 있다. 이와 같이 시프트량을 산출함으로써, 9개의 화상에 대하여 공간 시프트량을 균등하게 할당할 수 있다.
또한, 등록 화상의 매수, 회전각의 개수 등은 사전에 결정되어 있기 때문에, 동적으로 설정을 바꿀 필요성이 거의 없다. 따라서, 데이터베이스(30)는, 미리 계산으로 구해 둔 위상각 θ 및 공간 시프트량을 테이블로서 유지하고 있어도 된다.
이하, 도 7의 플로우차트를 참조하면서, 화상 매칭부(60)에 의한 화상 매칭 처리의 흐름을 설명한다. 도 7을 참조하여, 특징 추출부(63)는, 등록 화상을 회전시킨 복수 화상 f1, f2, …, f9로부터 특징 데이터를 취득한다(스텝 S1). 이 때, 특징 추출부(63)에는, 공간 시프트량(SX, SY)이 파라미터로서 설정된다. 다음으로, 특징 추출부(63)는, 지정된 공간 시프트를 화상 fj에 제공한 후에, 특징 추출 처리를 실행한다(스텝 S2). 구체적으로는, 수학식 7의 정규화 처리를 행한다. 이 때, 주파수 성분마다 가중치 부여를 하여도 된다. 예를 들면, 일반적으로, 고주파 성분에는 노이즈가 많고, 화상 매칭에는 적합하지 않는 정보가 많이 포함되어 있다. 따라서, 저주파 성분에 비해 고주파 성분의 가중치를 저하시키는 필터링 처리를 적용함으로써 인증 정밀도를 향상시킬 수 있다.
다음으로, 혼합 화상 생성부(68)는, 특징을 추출한 등록 화상에 대하여, 혼합 화상의 생성 처리를 행한다(스텝 S3). 이 때, 위상 파라미터 aj의 값은, 위상각 결정부(66)에 의해서 결정된다. 다음으로, 특징 추출부(63)는, 입력 화상 g로부터 특징 데이터를 취득한다(스텝 S4). 다음으로, 특징 추출부(63)는, 입력 화상 g에 대하여 특징 추출 처리를 실행한다(스텝 S5). 구체적으로는, 수학식 8의 정규화 처리를 행한다.
다음으로, 매칭 연산부(64)는, 얻어진 혼합 화상과, 입력 화상 g의 추출 특징 데이터 G'(ω)와의 복소 유사도 화상을 계산한다(스텝 S6). 따라서, 매칭 연산부(64)는, 복소 유사도 화상 생성부로서 기능한다. 이에 대해, 원하는 등록 데이터 fj에 대한 유사도를 산출하기 위해, 사영 화상 연산부(69)는, 복소 유사도 화상의 위상 파라미터 aj에 대한 사영 화상을 산출한다(스텝 S7). 사영 화상 연산부(69)는, 계속해서, 산출한 유사도 화상에 대해, 공간 시프트의 역연산을 행한다. 이 역연산은, 특징 추출 시에 (SX, SY)라고 하는 공간 시프트를 제공한 화상에 대해, 유사도 연산을 행하는 경우와 반대로 (-SX, -SY)라고 하는 공간 시프트를 제공하여 원래의 위치로 되돌아가는 처리이다.
사영 화상 연산부(69)는, j=1, 2, …, 9에 대하여 순서대로 수학식 13의 유사도 화상을 산출한다. 최대값 탐색부(65)는, 최대값을 구한다(스텝 S8). 그것에 의해, 유사도를 얻을 수 있다. 따라서, 사영 화상 연산부(69) 및 최대값 탐색부(65)는, 유사도 취득부로서도 기능한다. 또한, 최대값 탐색부(65)는, 상기 최대값을 이루는 좌표(MX, MY)를 구하여도 된다. 화상 매칭부(60)는, 이 결과를, 해당하는 회전 각도에서의 유사도 및 위치 어긋남 정보(MX, MY)로서 출력한다. 이상의 스텝을 거쳐, 플로우차트의 실행이 종료된다.
또한, 도 7의 플로우차트에서는, 특징 추출을 행하고 나서 화상을 회전시키고 있지만, 그것에 한정되지 않는다. 본 실시예에서는 화상 매칭으로서 POC를 적용하기 위해, 특징 추출 처리로서 푸리에 변환이 행해진다. 여기서, 푸리에 변환의 경우, 화상에 대하여 「푸리에 변환→회전」의 순번으로 계산한 결과와, 「회전→푸리에 변환」의 순번으로 계산한 결과가 동일해진다. 따라서, 특징 추출과 회전 처리와의 순번을 반대로 하여도 된다. 단, 화상의 회전 처리에 비교하여 푸리에 변환의 쪽은 연산 처리가 중요하기 때문에, 푸리에 변환을 앞서 행하는 것이 바람직하다.
도 8은, 도 7의 스텝 S3에서의 혼합 화상의 생성 처리의 일례를 설명하기 위한 플로우차트이다. 도 8을 참조하여, 혼합 화상 생성부(68)는, 대상 화상 f를 취득한다(스텝 S11). 대상 화상 f는, 등록 화상의 특징 추출 화상이 해당한다. 다음으로, 혼합 화상 생성부(68)는, 각도의 인덱스 Idx3을 초기화한다(스텝 S12).
다음으로, 화상 변형부(62)는, Idx3에 대응하는 각도(=Angle(Idx3))로, 대상 화상 f를 회전시킨 화상 f'를 생성한다(스텝 S13). 다음으로, 혼합 화상 생성부(68)는, 위상각 결정부(66)로부터, 인덱스 Idx3에 대응하는 위상각 θ를 취득한다(스텝 S14). 다음으로, 혼합 화상 생성부(68)는, 수학식 11에 따라서, 혼합 화상을 생성한다(스텝 S15).
다음으로, 인덱스 Idx3을 1증가시킨다(스텝 S16). 다음으로, 혼합 화상 생성부(68)는, 인덱스 Idx3이 소정값(본 실시예에서는 9)을 상회했는지의 여부를 판정한다(스텝 S17). 스텝 S17에서 「아니오」라고 판정된 경우, 스텝 S13∼스텝 S16이 다시 실행된다. 스텝 S17에서 「예」라고 판정된 경우, 플로우차트의 실행이 종료된다. 이 플로우차트에 따르면, 모든 회전각에 대하여 혼합 화상을 생성할 수 있다.
본 실시예에서는, 각 유저의 생체 특징 데이터는, 데이터베이스(30)에 등록되어 있었지만, 그것에 한정되지 않는다. 예를 들면, 혼합 화상의 계산 처리와, 생체 특징 데이터의 판독 처리를 병렬로 행하여도 된다. 구체적으로는, 유저가 ID를 입력하고 또한 생체 인증 센서(20)로 특징 화상을 판독하는 기간에, 혼합 화상을 생성함으로써 처리의 고속화를 도모하여도 된다. 또한, 혼합 화상을 미리 계산해서 데이터베이스(30)에 보존해 두고, 복수의 화상 fj 및 특징 데이터를 보존하고 있지 않아도 된다.
또한, 등록 화상에 대하여 변형 처리를 행한 경우, 처리 시간을 단축할 수 있다고 하는 이점이 있는 한편, 미리 자세 변동을 제공하므로 자유도가 낮아지게 된다. 즉, 미리 설정되어 있는 회전 각도 이외에 대응할 수는 없다. 따라서, 등록 화상이 아니라 입력 화상에 화상 변형 처리를 실시하여도 된다. 이 경우, 자세 변동에 대한 자유도를 향상시킬 수 있다.
또한, 양쪽 화상 변형 처리를 조합하여도 된다. 예를 들면, 등록 화상 및 입력 화상의 양쪽에 회전 각도를 부여함으로써, 보다 폭넓은 각도에 대한 유사도 연산을 행할 수 있다. 본 실시예에서는, 등록 화상측에서는 (-8°∼+8°)에 대응하고 있다. 여기서, 입력 화상에 (+18°)의 회전을 부여하고 나서 마찬가지의 연산을 행하면, (+10°∼+26°)의 회전에 대응하는 유사도를 계산할 수 있다. 그것에 의해, 등록 화상으로 설정되어 있는 범위를 초과한 각도에 대응하는 유사도를 얻을 수 있다. 이와 같은 구성으로 함으로써, (-8°∼+8°)에 대응하는 한편, 생체 인증 시스템(100)의 설치 환경, 설치 장소 등에 따라서 자세 변동을 유연하게 설정 변경하는 것이 가능하게 된다.
또한, 본 실시예에서는 화상의 변형으로서 회전을 예로 들었지만, 그것에 한정되지 않는다. 예를 들면, 확대, 축소, 일반적인 아핀 변환(general offine transform), 사영 변환 등, 다양한 화상 변형에 대하여, 마찬가지의 처리를 실행할 수 있다. 이하, 다른 화상 변형에 대해서 설명한다.
(다른 화상 변형)
화상 변형부(62)는, 수취한 인덱스에 대한 화상 변환 처리를 행한다. 예를 들면, 화상의 확대ㆍ축소 처리를 행하는 경우, 좌표(x, y)에 대하여 하기 변환을 행할 수 있다.
x'=αx
y'=αy
여기서, 「α」는, 확대ㆍ축소를 나타내는 파라미터이다. 확대의 경우에는, α>1(일례로서 α=1.2)이며, 축소의 경우에는, α<1(일례로서 α=0.9)이다. 이 「α」와 Idx3과의 대응 관계를 사전에 설정해 두어도 된다. 예를 들면,
α(1)=0.9
α(2)=1.0
α(3)=1.1
등의 값을 사전에 설정해 두어도 된다. 이 경우, 화상 변형부(62)는, 이들의 설정값을 이용하여, 확대ㆍ축소 변환에 대응한 화상 매칭 처리를 행할 수 있다.
아핀 변환의 경우에서도, 마찬가지의 처리를 행할 수 있다. 예를 들면, 좌표(x, y)에 대한 아핀 변환은 다음 식과 같이 나타낼 수 있다.
x'=ax+by+c
y'=dx+ey+f
이들의 식에서는, 「a」, 「b」, 「c」, 「d」, 「e」, 「f」의 6개의 독립된 파라미터가 존재한다. 이들에 대하여, 상술한 확대ㆍ축소와 Idx3과의 대응 관계를 사전에 설정해 두어도 된다. 아핀 변환에서는, 상기의 파라미터 「c」, 「f」가 평행 이동을 나타낸다. 본 실시예에서는 POC가 적용되므로, 평행 이동 요소의 파라미터는 불필요하다. 따라서, 실제의 독립 파라미터는, 「a」, 「b」, 「d」, 「e」의 4개이다.
또한, 사영 변환의 변환식은, 다음과 같이 표현된다.
x'=(a1x+b1y+c1)/(a0x+b0y+c0)
y'=(a2x+b2y+c2)/(a0x+b0y+c0)
이들의 식에서는, 「a0」 「b0」 「c0」 「a1」 「b1」 「c1」 「a2」 「b2」 「c2」의 9개의 독립된 파라미터가 존재한다. 이들에 대하여, Idx3과의 대응 관계를 사전에 설정해 두어도 된다.
<실시예 2>
실시예 2에서는, 1:N 인증에 대해서 설명한다. 1:N 인증의 경우, 최대값 탐색부(65)는, N매의 혼합 화상에 대한 유사도의 최대값을 구한다. 또한, 최대값 탐색부(65)는, 판단부로서 기능하고, 그 최대값이 소정값 이하이었던 경우에, 그 N인 중에 해당 인물이 있지 않다고 판단할 수 있다. 이 때, 복소 유사도 화상의 절대값의 최대값 Pa를 구하고, 최대값 Pa가 소정값 이하이었던 경우, 해당자가 없다고 판단할 수 있다. 즉, |cosθ|≤1이므로 사영 연산을 행하여 구한 각 위상 방향의 유사도 화상의 최대값이 Pa를 초과하는 일이 없으므로, 최대값 Pa를 구함으로써 최대값의 상한을 어림잡을 수 있는 것이다. 이 때, 최대값 Pa를 제공한 위상 방향을 구함으로써, 해당하는 유저를 판단할 수 있다.
본 실시예에서는, 화상의 변형은 고려하지 않는다. 이 구성은, 원래 입력되는 생체 데이터에 회전 등의 변형이 없도록 생체 인증 센서를 설계함으로써, 실현할 수 있다. 또한, 입력 화상 자체에 회전 등이 있는 경우에서는, 사전에 화상 회전을 보정해 두어도 된다.
우선, 혼합 화상 생성부(68)는, 복수의 등록 데이터를 이용하여 혼합 화상을 생성한다. 이 경우, 등록 화상 fj(j=1, 2, …, N)로서 다른 이용자의 등록 화상을 이용한다. 이 경우, 타인끼리의 화상은, 생체 인증에서는 거의 일치하지 않기 때문에, 위상각 θ 및 공간 시프트의 연산은 간단히 행할 수 있다. 위상각 θ는, 원주를 균등하게 분할하는 구성으로 할 수 있다. 또한, 시프트량은, 특별히 부여하지 않아도 된다.
또한, 등록 화상을 1인당 복수매로 하여도 된다. 이 경우에는, 동일 인물의 등록 화상간의 유사도가 높기 때문에, 유사도의 간섭이 일어나는 문제가 있다. 그 때문에, 위상각 θ 및 공간 시프트를 설정함으로써, 유사도 피크의 간섭을 최소한으로 하여도 된다.
일례로서, 동일 인물의 등록 화상 3매를 등록 데이터로서 사용하는 경우에 대해서 설명한다. 어떤 이용자 A의 등록 데이터의 (f1A, f2A, f3A)사이의 유사도를 사전에 계산해 두고, 평행 이동량(MX, MY)을 사전에 산출해 둔다. 이 값을 혼합 화상 생성 시의 시프트량(SX, SY)에 대한 보정으로서 이용한다. 보정 시프트량(SX', SY')은, (SX+MX, SY+MY)로 나타낼 수 있다.
우선, (MX, MY)의 평행 이동량을 설정함으로써, 복수의 등록 화상의 위치를 맞추게 된다. 위치를 한번 맞추고 나서 공간 시프트(SX, SY)를 가함으로써, 실시예 1과 마찬가지의 논의가 성립한다. 즉, 화상 변형으로서 회전시키는 경우에서는, 피크 위치(평행 이동량)가 일정하다고 하는 것은 자연히 가정할 수 있다. 그러나, 복수의 등록 화상의 경우에는, 평행 이동량이 일치하고 있다고는 할 수 없다. 그 때문에, 사전의 매칭에 의해서 보정할 필요가 있다.
또한, 위상 파라미터 θj의 결정에 관해서는, 유사한 화상을 가능한 한 간섭하지 않는 위치에 배치하는 것이 바람직하다. 예를 들면, 도 1에 도시한 바와 같이 원주 2π를 균등하게 나누어, 1매째의 등록 데이터로부터 순서대로 배치하는 구성으로 하는 것이 바람직하다.
1인당의 등록 매수를 M, 등록되어 있는 인원수를 N으로 하면, 총등록 매수는 (M×N)매이다. 따라서, 원주 2π를 (M×N)으로 등분한 각(角)에 대하여 등록 화상을 배치한다. 등록 화상의 일련 번호를 Idx=1, 2, …, MN으로 하면, (Idx/N)이 몇매째의 등록 화상인지를 나타내고, (Idx mod N)이 이용자의 번호를 나타낸다. 즉, (Idx/N)은, 소수점을 잘라 버린 값이 「0」인 경우에는, 1매째의 등록 화상을 나타내고, 1인 경우에는 2매째의 등록 화상을 나타낸다. 또한, 「mod」는 잉여를 나타내고, (Idx mod N)이 「0」인 경우에는, 유저 A가 대응하고, 「1」인 경우에는 유저 B가 대응한다. 이와 같이 배치함으로써 도 9와 같은 배치로 할 수 있다.
또한, 상기의 설명에서는 입력 화상이 1매인 예를 나타내고 있었지만, 입력 화상을 복수매로 하여도 된다. 예를 들면 생체 인증에 있어서, 생체 데이터의 취득 시에 복수매의 화상을 연속해서 취득하고, 화상 매칭에 이용하여도 된다. 복수의 입력 화상을 이용함으로써 인증 정밀도의 향상을 기대할 수 있다.
이 경우, 복수의 입력 화상에 대한 혼합 화상을 계산해서 유사도를 산출한다. 등록 화상의 총매수를 N(복수 등록이나 회전 각도 등을 모두 포함한 총수), 입력 화상의 총매수를 M으로 하였을 때, 위상 파라미터 aj의 위상각을 다음과 같이 설정한다.
등록 화상의 위상각:aj=[2π/N]*j
입력 화상의 위상각:ak=[2π/(N×M)]*k
상기 설정에서, 등록 화상의 j번째와(j=0, 1, …, (N-1)), 입력 화상의 k번째(k=0, 1, …, (M-1))와의 유사도는, 복소 유사도 화상의 θjk=(2π/N)×j+(2π/(N×M))×k의 사영 성분에 대응하는 것으로 된다. 또한, 더미의 화상을 오버랩하는 구성으로 할 수도 있다.
이와 같이 함으로써, 특징 데이터가 누설된 경우에서도, 제삼자에게는, 원래의 화상 데이터가 어느 것인지의 판단이 서지 않는다. 한편, 본래 유저의 생체 인증 특징 데이터에 대하여 유사도 연산을 행하면, 통상대로 유사도를 계산할 수 있다. 예를 들면, 상기의 예에서는, 3매의 특징 화상 대신에, 본인의 진짜 특징 화상을 1매, 본래 유저와는 완전히 다른 생체 특징 화상을 2매 서로 겹쳐, 특징 데이터로 하여도 된다.
본 실시예에서는, 회전 등의 변형 처리를 행하고 있지 않았지만, 실시예 1과 마찬가지의 처리를 조합함으로써, 회전 등의 변형에 대응할 수 있다. 또한, 혼합 화상으로부터 계산한 유사도에는 노이즈(타인 화상끼리의 유사도)가 존재하고 있기 때문에, 인증 정밀도 자체는 1:1 인증보다도 저하할 우려가 있다. 그 때문에, 혼합 화상에 의한 유사도, 및, 평행 이동량의 계산은, 리파인닝(refining)에만 이용하여도 된다. 즉, 혼합 화상으로부터 계산한 유사도가 높았던 유저의 등록 데이터에 대하여, 다시 1:1로 인증 처리를 실행하여도 된다.
이 경우, 평행 이동량(MX, MY)이 사전에 산출되어 있다. 그 때문에, 1:1 인증에서는, 유사도 화상 h'(x)를 전체 화상에 대하여 계산할 필요는 없고, (MX, MY)의 근방의 화상에 대해서만 계산하면 된다. P0C를 사용한 계산에서는, IFFT(역푸리에 변환)의 연산을 소정의 범위만에서 실행하는 것이 해당한다. 이에 의해 연산 시간을 저감할 수 있다.
<실시예 3>
실시예 3에서는, 동화상 압축에의 적용예로서 매크로 블록의 매칭에의 적용예에 대해서 설명한다. 도 10은, 매크로 블록의 매칭의 개략을 설명하기 위한 도면이다. 도 10을 참조하여, 현재의 입력 화상을 소정의 크기(16×16픽셀 등)의 블록으로 나눈다. 각각의 매크로 블록은, 참조 프레임 내의 화상 영역에 대하여, 대응하는 위치를 탐색한다. 이 때, 참조 프레임 내의 화상 영역에 대하여, 「탐색 영역」을 설정한다. 이것은, 대상으로 되는 매크로 블록을 기준으로 하여, 평행 이동으로서 허용할 수 있는 범위를 가산한 영역이다. 화상 매칭은, 이 범위 내에서 행해진다. 이 경우, 매크로 블록과 탐색 영역은, 크기가 다르다. 따라서, 매크로 블록을 탐색 영역의 크기로까지 확장하고, 확장 부분에는 0을 매립하는 처리를 행하고, 영역의 크기를 동일하게 하면 된다.
여기서 「참조 프레임」이란 기준으로 되는 프레임이다. 그러나, 참조 프레임은 1매로는 한정되지 않고 복수 존재하는 경우가 있다. 그 때문에, 통상은 매수에 비례하여 매칭 처리의 부하가 증대한다. 따라서 수학식 3∼수학식 13을 이용함으로써, 복수의 참조 프레임에서의 움직임 벡터의 탐색을 고속화할 수 있다. 구체적으로는, 상기 실시예에서 나타낸 것과 마찬가지의 방식으로, 복수의 참조 프레임을 사용하여 혼합 화상을 산출하고, 대상으로 되는 매크로 블록과의 사이의 유사도를 산출한다. 동화상 압축의 움직임 보상에서는 고정밀도의 매칭이 요구되기 때문에, 본 발명에 따른 매칭에 의해 후보로 되는 프레임을 리파인하고, 그 후에 1:1로 고정밀도의 매칭을 실행함으로써 고속으로 매칭 처리를 실행할 수 있다.
이상, 본 발명의 실시예에 대해서 상술하였지만, 본 발명은 이러한 특정한 실시예에 한정되는 것이 아니라, 특허 청구 범위에 기재된 본 발명의 요지의 범위 내에서, 다양한 변형ㆍ변경이 가능하다.
10 : 매칭 처리부
20 : 생체 인증 센서
30 : 데이터베이스
40 : 입출력부
50 : 전체 제어부
60 : 화상 매칭부
61 : 화상 매칭 제어부
62 : 화상 변형부
63 : 특징 추출부
64 : 매칭 연산부
65 : 최대값 탐색부
66 : 위상각 결정부
67 : 시프트 결정부
68 : 혼합 화상 생성부
69 : 사영 화상 계산부
100 : 생체 인증 시스템

Claims (15)

  1. 선형성을 충족시키는 연산에서, 2매 이상의 등록 화상의 각각에 대하여, 복소 평면의 서로 다른 위상 성분을 곱하여 가산해서 얻어지는 혼합 화상을 생성하는 혼합 화상 생성부와,
    1매 이상의 입력 화상과, 상기 혼합 화상과의 유사도 연산을 행함으로써 복소 유사도 화상을 생성하는 복소 유사도 화상 생성부와,
    상기 복소 유사도 화상의 상기 위상 성분의 벡터에 대한 사영 성분으로부터 유사도를 취득하는 유사도 취득부를 구비하는 것을 특징으로 하는 화상 매칭 장치.
  2. 제1항에 있어서,
    상기 서로 다른 위상 성분은, 상기 복소 평면의 단위원(unit circle) 상의 점인 것을 특징으로 하는 화상 매칭 장치.
  3. 제2항에 있어서,
    상기 서로 다른 위상 성분은, 상기 복소 평면의 단위원을 등분함으로써 얻어지는 점인 것을 특징으로 하는 화상 매칭 장치.
  4. 제1항에 있어서,
    상기 유사도 취득부는, 상기 위상 성분의 벡터에 대한 사영 성분을 얻을 때에, 상기 위상 성분을 규격화하는 것을 특징으로 하는 화상 매칭 장치.
  5. 제1항에 있어서,
    상기 혼합 화상 생성부는, 상기 등록 화상마다 다른 공간 시프트를 가하고(adding) 나서 상기 혼합 화상을 생성하는 것을 특징으로 하는 화상 매칭 장치.
  6. 제1항에 있어서,
    상기 유사도 연산은, Phase Only Correlation인 것을 특징으로 하는 화상 매칭 장치.
  7. 제1항에 있어서,
    상기 등록 화상은, 소정의 등록 화상에 대하여 복수의 자세 변동을 실시한 화상을 포함하는 것을 특징으로 하는 화상 매칭 장치.
  8. 제1항에 있어서,
    상기 등록 화상은, 서로 다른 복수의 개인의 생체 데이터를 포함하는 것을 특징으로 하는 화상 매칭 장치.
  9. 제1항에 있어서,
    상기 유사도 화상 생성부가 생성하는 복소 유사도 화상의 절대값의 최대값이 소정값을 밑도는 경우에, 상기 등록 화상에 상기 입력 화상의 유저가 포함되어 있지 않다고 판단하는 판단부를 더 구비하는 것을 특징으로 하는 화상 매칭 장치.
  10. 제1항에 있어서,
    상기 혼합 화상 생성부는, 상기 혼합 화상을 생성할 때에, 더미의 화상 데이터를 가하는 것을 특징으로 하는 화상 매칭 장치.
  11. 선형성을 충족시키는 연산에서, 2매 이상의 등록 화상의 각각에 대하여, 복소 평면의 서로 다른 위상 성분을 곱하여 가산해서 얻어지는 혼합 화상을 생성하는 혼합 화상 생성 스텝과,
    1매 이상의 입력 화상과, 상기 혼합 화상과의 유사도 연산을 행함으로써 복소 유사도 화상을 생성하는 복소 유사도 화상 생성 스텝과,
    상기 복소 유사도 화상의 상기 위상 성분의 벡터에 대한 사영 성분으로부터 유사도를 취득하는 유사도 취득 스텝을 포함하는 것을 특징으로 하는 화상 매칭 방법.
  12. 제11항에 있어서,
    상기 서로 다른 위상 성분은, 상기 복소 평면의 단위원 상의 점인 것을 특징으로 하는 화상 매칭 방법.
  13. 제12항에 있어서,
    상기 서로 다른 위상 성분은, 상기 복소 평면의 단위원을 등분함으로써 얻어지는 점인 것을 특징으로 하는 화상 매칭 방법.
  14. 제11항에 있어서,
    상기 유사도 취득 스텝에서, 상기 위상 성분의 벡터에 대한 사영 성분을 얻을 때에, 상기 위상 성분을 규격화하는 것을 특징으로 하는 화상 매칭 방법.
  15. 제11항에 있어서,
    상기 혼합 화상 생성 스텝에서, 상기 등록 화상마다 다른 공간 시프트를 가하고 나서 상기 혼합 화상을 생성하는 것을 특징으로 하는 화상 매칭 방법.
KR1020110017105A 2010-03-31 2011-02-25 화상 매칭 장치, 및, 화상 매칭 방법 KR101270880B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2010-082732 2010-03-31
JP2010082732A JP5429007B2 (ja) 2010-03-31 2010-03-31 画像マッチング装置、および、画像マッチング方法

Publications (2)

Publication Number Publication Date
KR20110109836A KR20110109836A (ko) 2011-10-06
KR101270880B1 true KR101270880B1 (ko) 2013-06-05

Family

ID=44170376

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110017105A KR101270880B1 (ko) 2010-03-31 2011-02-25 화상 매칭 장치, 및, 화상 매칭 방법

Country Status (5)

Country Link
US (1) US8913837B2 (ko)
EP (1) EP2372612B1 (ko)
JP (1) JP5429007B2 (ko)
KR (1) KR101270880B1 (ko)
CN (1) CN102208106B (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5953270B2 (ja) 2013-07-04 2016-07-20 オリンパス株式会社 撮像装置
JP6543546B2 (ja) * 2015-09-29 2019-07-10 アイホン株式会社 特定動作検出装置及び特定動作検出方法
CN112804527B (zh) * 2021-01-07 2023-01-24 苏州浪潮智能科技有限公司 图像输出方法、装置及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222578A (ja) 1999-02-02 2000-08-11 Matsushita Electric Ind Co Ltd パターンマッチング方法および動きベクトル検出方法
JP2004240931A (ja) 2003-02-05 2004-08-26 Sony Corp 画像照合装置、画像照合方法、およびプログラム
US20060133564A1 (en) 2004-12-21 2006-06-22 David Langan Method and apparatus for correcting motion in image reconstruction
JP2009268641A (ja) 2008-05-02 2009-11-19 Eiko Kosuge 歯科x線画像の照合システム及び歯科x線画像の照合方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3574301B2 (ja) * 1996-08-26 2004-10-06 株式会社山武 パターン照合装置
CN1695166A (zh) 2002-09-12 2005-11-09 恩莱因公司 用于获取和处理复合图像的系统及方法
AU2003273324A1 (en) 2002-09-12 2004-04-30 Nline Corporation System and method for acquiring and processing complex images
JP2006163726A (ja) 2004-12-06 2006-06-22 Sumitomo Electric Ind Ltd 車両周辺認識システム及び画像処理装置
JP4791115B2 (ja) 2005-09-14 2011-10-12 株式会社山武 マーク検知装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222578A (ja) 1999-02-02 2000-08-11 Matsushita Electric Ind Co Ltd パターンマッチング方法および動きベクトル検出方法
JP2004240931A (ja) 2003-02-05 2004-08-26 Sony Corp 画像照合装置、画像照合方法、およびプログラム
US20060133564A1 (en) 2004-12-21 2006-06-22 David Langan Method and apparatus for correcting motion in image reconstruction
JP2009268641A (ja) 2008-05-02 2009-11-19 Eiko Kosuge 歯科x線画像の照合システム及び歯科x線画像の照合方法

Also Published As

Publication number Publication date
US20110243460A1 (en) 2011-10-06
KR20110109836A (ko) 2011-10-06
JP5429007B2 (ja) 2014-02-26
CN102208106B (zh) 2014-12-03
CN102208106A (zh) 2011-10-05
US8913837B2 (en) 2014-12-16
JP2011215811A (ja) 2011-10-27
EP2372612A1 (en) 2011-10-05
EP2372612B1 (en) 2015-08-19

Similar Documents

Publication Publication Date Title
US7860279B2 (en) Image matching method, program, and image matching system
KR100564076B1 (ko) 지문 식별 방법 및 장치
CN104657709B (zh) 人脸图像识别方法、装置及服务器
KR101270880B1 (ko) 화상 매칭 장치, 및, 화상 매칭 방법
Lisani et al. On the theory of planar shape
JPWO2019069617A1 (ja) 個体識別装置
WO2019123917A1 (ja) 画像照合装置
Keller et al. A projection-based extension to phase correlation image alignment
Lui et al. A splitting method for diffeomorphism optimization problem using Beltrami coefficients
KR20120094102A (ko) 유사도 산출 디바이스, 유사도 산출 방법 및 프로그램
Stratakos et al. Hardware acceleration of image registration algorithm on fpga-based systems on chip
Chi et al. Improving Deep Learning-Based Digital Image Correlation with Domain Decomposition Method
Gandhi Image registration quality assessment with similarity measures-a research study
Patel et al. Comparison on different filters for performance improvement on fingerprint image enhancement
Lavin-Delgado et al. Fractional speeded up robust features detector with the Caputo-Fabrizio derivative
JP2007179267A (ja) パターン照合装置
JP5491162B2 (ja) 画像パターン照合装置および方法
Khachay et al. Theoretical approach to developing efficient algorithms of fingerprint enhancement
JP5355377B2 (ja) 画像パターン照合装置および方法
Kacenjar et al. A performance assessment on the effectiveness of digital image registration methods
Protsenko et al. Fractional Wavelet Transform Phase for IRIS Image Key Points Matching
Garvey et al. Nonrigid image registration with two-sided space-fractional partial differential equations
Gonzalez-Linares et al. Deformable shapes detection by stochastic optimization
Bhati et al. Phase correlation based algorithm using fast fourier transform for fingerprint mosaicing
Toriu General Coordinate Invariant Image Smoothing Using a Metric Tensor

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160427

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170504

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180427

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190429

Year of fee payment: 7