KR20050085197A - 촬영 장치 및 개인 식별 시스템 - Google Patents

촬영 장치 및 개인 식별 시스템 Download PDF

Info

Publication number
KR20050085197A
KR20050085197A KR1020057009655A KR20057009655A KR20050085197A KR 20050085197 A KR20050085197 A KR 20050085197A KR 1020057009655 A KR1020057009655 A KR 1020057009655A KR 20057009655 A KR20057009655 A KR 20057009655A KR 20050085197 A KR20050085197 A KR 20050085197A
Authority
KR
South Korea
Prior art keywords
photographing
individual
shooting
body image
exposure time
Prior art date
Application number
KR1020057009655A
Other languages
English (en)
Other versions
KR100732136B1 (ko
Inventor
다카유키 스기우라
슈지 기무라
아츠시 미키
사토시 후쿠이
기요시 친제이
미에코 나카노
나오유키 후지모토
미츠히로 고토
도시오 엔도
다카히로 아오키
미츠아키 후쿠다
마사키 와타나베
시게루 사사키
Original Assignee
후지쯔 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후지쯔 가부시끼가이샤 filed Critical 후지쯔 가부시끼가이샤
Publication of KR20050085197A publication Critical patent/KR20050085197A/ko
Application granted granted Critical
Publication of KR100732136B1 publication Critical patent/KR100732136B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Studio Devices (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)

Abstract

개인의 식별을 미리 촬영에 의해 취득해 둔 제1 신체 화상과 식별할 때에 촬영에 의해 취득하는 제2 신체 화상을 대조함으로써 행하기 위해서, 제2 신체 화상을 취득하기 위한 촬영을 하는 촬영 장치(1)에, 개인마다, 제1 신체 화상을 취득하기 위해서 신체의 촬영을 했을 때의 촬영 조건을 사용자 ID와 대응시켜 기억하는 촬영 조건 기억부(203)와, 식별의 대상이 되는 개인의 ID를 입력하는 인터페이스(24)와, 식별의 대상이 되는 개인의 제2 신체 화상을 취득하기 위해서, 입력된 ID에 대응하는 촬영 조건에 기초하여 신체 촬영을 하도록 제어하는 촬영 제어부(201)를 설치한다.

Description

촬영 장치 및 개인 식별 시스템{IMAGER AND PERSONAL IDENFIFICATION SYSTEM}
본 발명은 개인의 특징이 나타난 화상을 취득하기 위한 촬영 장치 및 그 촬영 장치를 이용한 개인 식별 시스템에 관한 것이다.
종래부터, 인간의 신체적 특징에 기초하여 개인을 식별하여 본인인지의 여부를 판별하는 기술이 제안되어 있다.
그러나, 조명과 촬영을 조합한 개인 식별의 경우, 개인마다 피부의 두께나 빛깔이 다른 등의 특징의 차이가 있기 때문에, 촬영에 의해서 얻어진 화상에 명도가 지나치게 높은 부위(소위 백색 퍼짐)가 생겨 버리는 경우가 있다. 그렇다면, 개인의 식별을 잘 할 수 없는 경우가 있다.
본 발명은 이러한 문제점에 감안하여, 개인마다의 특징에 맞춰 촬영을 하여, 보다 정확히 개인의 식별을 할 수 있도록 하는 것을 목적으로 한다.
도 1은 촬영 장치의 전체의 구성을 도시하는 사시도이다.
도 2는 촬영 장치의 중앙 부근의 단면 측면도이다.
도 3은 좌측 볼 촬영 상황의 예를 도시하는 도면이다.
도 4는 사용자 식별 시스템의 예를 도시하는 도면이다.
도 5는 촬영 장치의 기능적 구성의 예를 도시하는 블럭도이다.
도 6은 거리 측정 센서의 출력치와 실제의 거리의 관계를 도시한 도면이다.
도 7은 노출 자동 제어 기능을 이용한 경우의 촬영의 처리의 흐름의 예를 설명하는 흐름도이다.
도 8은 거리 노출 테이블의 예를 도시하는 도면이다.
도 9는 볼 화상의 예를 도시하는 도면이다.
도 10은 노출 보정용 테이블의 예를 도시하는 도면이다.
도 11은 자기 기억 장치에 기억되어 있는 프로그램 및 데이터의 예를 도시하는 도면이다.
도 12는 특징 정보 데이터베이스의 예를 도시하는 도면이다.
도 13은 특징 정보 및 촬영 조건 정보를 등록하기 위한 처리 흐름의 예를 설명하는 도면이다.
도 14는 사용자의 식별 처리의 흐름의 예를 설명하는 흐름도이다.
도 15는 볼 화상의 예를 도시하는 도면이다.
도 16은 노출 보정용 테이블의 예를 도시하는 도면이다.
본 발명에 따른 촬영 장치는, 개인의 식별을 미리 촬영에 의해 취득해 둔 제1 신체 화상과 그 식별을 할 때에 촬영에 의해 취득하는 제2 신체 화상을 대조함으로써 행하기 위해서, 그 제2 신체 화상을 취득하기 위한 촬영을 하는 촬영 장치로서, 개인마다, 상기 제1 신체 화상을 취득하기 위해서 그 개인의 신체 촬영을 했을 때의 촬영 조건을 그 개인에게 발행된 ID와 대응시켜 기억하는 촬영 조건 기억 수단과, 상기 식별의 대상이 되는 개인의 상기 ID를 입력하는 입력 수단과, 상기 식별의 대상이 되는 개인의 상기 제2 신체 화상을 취득하기 위해서, 입력된 상기 ID에 대응하는 상기 촬영 조건에 기초하여 그 개인의 신체 촬영을 하는 촬영 수단을 구비하여 이루어진다.
또는, 개인의 신체 촬영을 하는 촬영 수단과, 상기 촬영 수단에 의한 촬영에 의해서 취득한 개인의 상기 제1 신체 화상과, 상기 촬영시의 촬영 조건을, 그 개인에게 발행된 ID와 대응시켜 기억 수단에 대하여 출력하는 출력 수단을 구비하여 이루어진다.
또는, 물체에서 반사한 빛을 수광 수단으로 결상시킴으로써 그 물체를 촬영하는 촬영 장치로서, 상기 촬영에 의해서 취득된 화상의 전부 또는 일부분의 영역 중, 소정의 값보다도 명도가 큰 부분인 백색 퍼짐 부분이 소정의 면적보다도 큰지의 여부를 판별하는 판별 수단과, 상기 판별 수단에 의해서 상기 백색 퍼짐 부분이 상기 소정의 면적보다도 크다고 판별된 경우에, 노출 시간을 상기 백색 퍼짐 부분의 면적이 클수록 짧아지도록 보정하여, 상기 촬영을 다시 하도록 제어하는 촬영 제어 수단을 구비하여 이루어진다.
또는, 상기 판별 수단에 의해서 상기 백색 퍼짐 부분의 면적이 상기 소정의 면적보다도 크다고 판별된 경우에, 노출 시간을 상기 백색 퍼짐 부분의 면적이 클수록 짧아지도록 보정함으로써 상기 백색 퍼짐 부분의 면적이 상기 소정의 면적보다도 작아지는 노출 시간인 보정 노출 시간을 산출하는 보정 노출 시간 산출 수단과, 상기 보정 노출 시간 산출 수단에 의해서 산출된 상기 보정 노출 시간을, 상기 물체를 식별하는 ID와 대응시켜 기억하는 보정 노출 시간 기억 수단과, 상기 ID를 입력하는 입력 수단과, 입력된 상기 ID에 대응하는 상기 보정 노출 시간으로 상기 촬영을 다시 하도록 제어하는 촬영 제어 수단과, 촬영의 재시도에 의해서 취득된 화상을 촬영 결과로서 출력하는 출력 수단을 구비하여 이루어진다.
본 발명에 따른 개인 식별 시스템은, 개인의 식별을 하는 개인 식별 시스템으로서, 개인마다, 미리 그 개인의 신체 촬영을 함으로써 취득해 둔 제1 신체 화상과 그 촬영시의 촬영 조건을 그 개인에게 발행된 ID와 대응시켜 기억하는 기억 수단에 대하여, 상기 제1 신체 화상과 상기 촬영 조건을 출력하는 출력 수단과, 상기 식별의 대상이 되는 개인의 상기 ID를 입력하는 입력 수단과, 상기 식별을 할 때에, 그 식별의 대상이 되는 개인의 제2 신체 화상을 취득하기 위해서, 상기 입력 수단에 의해서 입력된 그 개인의 상기 ID에 대응하는 상기 촬영 조건에 기초하여 그 개인의 신체 촬영을 하는 촬영 수단과, 상기 식별의 대상이 되는 개인의 상기 ID에 대응하는 상기 제1 신체 화상과 상기 촬영 수단에 의한 촬영에 의해서 취득된 그 개인의 상기 제2 신체 화상을 대조함으로써, 그 개인이 본인인지의 여부를 식별하는 식별 수단을 구비하여 이루어진다.
바람직하게는, 상기 기억 수단은 개인마다 상기 제1 신체 화상을 취득하기 위한 촬영시의 촬영 거리를 그 개인의 상기 ID와 대응시켜 기억하고, 상기 식별 수단은 상기 기억 수단에 기억되어 있는 상기 식별의 대상이 되는 개인의 상기 ID에 대응하는 촬영 거리와, 상기 제2 신체 화상을 취득하기 위한 촬영시의 촬영 거리를 대조함으로써, 그 개인이 본인인지의 여부를 식별한다.
첨부 도면에 따라서, 본 발명을 보다 상세히 설명한다.
도 1은 촬영 장치(1)의 전체 구성을 도시하는 사시도, 도 2는 촬영 장치(1)의 중앙 부근의 단면 측면도, 도 3은 좌측 볼 촬영 상황의 예를 도시하는 도면, 도 4는 사용자 식별 시스템(100)의 예를 도시하는 도면, 도 5는 촬영 장치의 기능적 구성의 예를 도시하는 블럭도, 도 6은 거리 측정 센서(27)의 출력치와 실제의 거리와의 관계를 도시한 도면이다.
본 발명에 따른 촬영 장치(1)는 도 1 및 도 2에 도시한 바와 같이, 촬영 장치 본체(2) 및 본체 커버(3)에 의해서 구성된다. 이 촬영 장치(1)는 인간의 신체의 일부분의 혈관 패턴을 촬영하기 위한 장치이다. 촬영을 할 때는, 미리 본체 커버(3)를 촬영 장치 본체(2)의 정면(20a)에 부착해 놓는다. 그리고, 예컨대, 인간의 얼굴의 좌측 볼을 촬영하는 경우는 도 3에 도시한 바와 같이, 좌측 볼을 촬영 장치(1)의 정면으로 향하게 하여, 좌측 볼과 촬영 장치(1)의 정면이 평행하게 되도록(즉, 촬영면인 좌측 볼이 촬영 방향의 축에 대하여 수직으로 교차) 하고, 또한, 양자의 거리가 2 cm∼9 cm 정도가 되도록 한 상태에서, 셔터를 작동시킨다. 이하, 인간의 볼의 혈관 패턴을 촬영하는 경우를 예로 설명한다.
촬영 장치 본체(2)는 케이싱(몸체)(20), 촬상부(21), 회로 기판(22), 조사부(23), 인터페이스(24), 셔터 버튼(25), 거리 측정 센서(거리 센서)(27) 및 램프(28) 등에 의해서 구성된다. 촬영 장치 본체(2)는 인터페이스(24)를 통해, 도 4에 도시한 바와 같이 퍼스널 컴퓨터(6)에 접속할 수 있다.
케이싱(20)은 상자와 같은 형상을 하고 있으며, 정면(20a)은 개방되어 있다.
촬상부(21)는 렌즈(211) 및 이미지 센서(212) 등에 의해서 구성된다. 이미지 센서(212)로서, 예컨대, CCD 타입의 이미지 센서나 CMOS 타입의 이미지 센서가 이용된다.
회로 기판(22)에는 후에 설명하는 촬영 장치(1)의 각 부의 제어 및 D/A 변환 등을 하기 위한 제어 회로, 컴퓨터 프로그램(펌웨어) 및 데이터 등이 저장된 ROM, RAM 및 CPU 등이 설치되어 있다. CPU는 퍼스널 컴퓨터(6) 또는 셔터 버튼(25)으로부터의 지령, 컴퓨터 프로그램, 또는 데이터 등에 기초하여 연산 처리를 한다. 이러한 구성에 의해서, 촬영 장치(1)에는 도 5에 도시한 바와 같은 촬영 제어부(201), 화상 처리부(202), 촬영 조건 기억부(203), 거리 노출 기억부(204), 거리 산출부(205), 백색 퍼짐 판별부(206) 및 LED 구동부(261, 262) 등의 기능이 실현된다.
조사부(23)는 광원으로서 LED를 갖는다. 이들 LED로서, 적외선을 발광하는 것이 이용된다.
이들 LED에 공급하는 전류는, 인터페이스(24)를 통해 퍼스널 컴퓨터(6)로부터 얻어진다. 인터페이스로서 USB를 이용하면 퍼스널 컴퓨터(6)와 통신을 한 뒤에 전류를 얻을 수 있다.
도 1 및 도 2로 되돌아가면, 본체 커버(3)는 합성 수지판 또는 유리판 등으로 이루어지는 필터판(31) 및 합성 수지판 등으로 이루어지는 렌즈 커버(32)에 의해서 구성된다. 본체 커버(3)는 도시하지 않는 나사 등에 의해서 케이싱(20)의 정면(20a)에 부착된다. 필터판(31)으로서, 예컨대, 가시광선 및 그것보다도 파장이 짧은 빛(즉, 대체로 800 nm 이하의 빛)을 컷트하고, 또한, 적외선을 투과시킨다고 하는 성질의 재료가 이용된다.
거리 측정 센서(27)는 촬영 방향을 향해 부착되어 있으며, 거리 측정 센서(27) 자신과 촬영의 대상 즉 피사체와의 거리를 계측하여, 후에 설명하는 사용자의 식별 처리를 위해 이용된다. 거리 측정 센서(27)로서, 광학식 또는 초음파식 등의 거리 측정 센서(거리 센서)가 이용된다.
거리 측정 센서(27)와 촬영 장치(1)의 각 부의 위치 관계는 미리 알고 있기 때문에, 거리 측정 센서(27)에 의해서 구해진 거리에 기초하여, 촬영 장치(1)의 각 부에서 피사체까지의 거리도 구해진다. 본 실시예에서는, 피사체까지의 거리의 기준을 본체 커버(3)의 정면(3c)으로 정하고 있다. 즉, 촬영 장치(1)에서 피사체까지의 거리란, 본체 커버(3)의 정면(3c)에서부터 피사체까지의 거리라고 정의하고 있다.
거리 측정 센서(27)는 피사체인 볼이 촬영 장치(1)로부터 수 cm 떨어진 위치에 있는 경우에 있어서(도 3 참조), 예컨대 귀의 밑동아리 부근, 광대뼈의 선단 부근(눈초리 아래 부근) 및 입꼬리 부근의 3점에 관한 거리를 계측할 수 있도록 설정되어 있다.
촬영 장치(1)로부터 피사체의 1점까지의 거리는 구체적으로는, 다음과 같은 방법에 의해서 최종적으로 구해진다. 거리 측정 센서(27)는 피사체의 표면(촬영면)의 1점과의 거리의 계측 결과로서, 8 비트 즉 256 계조의 계측치를 출력한다.
계측치(출력치)와 실제의 거리의 대응 관계는 피사체의 종류에 따라서 각각 약간 다르지만, 계측치가 클수록 피사체까지의 실제의 거리는 짧아지는 경향이 있다. 예컨대, 인간의 신체 표면을 계측한 경우의 계측치와 실제의 거리와의 관계는, 도 6에 도시하는 함수「D=F(x)」와 같이 된다. 이러한 함수는 촬영 장치(1)와 볼과의 거리를 조금씩 바꾸면서 실제로 계측을 하여 얻어진 것이다. 그리고, 계측치를 피사체의 종류에 따른 함수에 대입함으로써, 촬영 장치(1)로부터 피사체의 1점까지의 거리가 구해진다.
도 5의 거리 산출부(205)는 위에 설명한 방법에 의해, 즉, 도 6에 도시하는 함수 및 볼의 3점에 관한 계측치(출력치)에 기초하여, 촬영 장치(1)로부터 볼의 3점까지의 거리를 산출한다. 그리고, 이들 거리의 평균을, 촬영 장치(1)에서부터 피사체까지의 거리로 한다. 이와 같이 하여 얻어진 거리의 값은 거리 정보(70)로서 촬영 제어부(201) 및 백색 퍼짐 판별부(206)에 주어진다.
촬영 제어부(201)는 셔터 버튼(25)이 눌려 셔터가 작동한 순간에, LED(51a∼51d, 52a∼52d)에의 전류 공급을 시작하도록 LED 구동부(261, 262)에 대하여 지령한다. 그리고, 노출 시간에 맞추어 전류의 공급을 그만두도록 지령한다. 이에 따라, 각 LED는 셔터 및 셔터 속도(노출 시간)와 동기하여 발광한다. 한편, 셔터를 작동시키는 지령은 셔터 버튼(25) 대신에 퍼스널 컴퓨터(6)에 의해서 이루어지도록 하더라도 좋다.
셔터가 작동하여 각 LED가 발광하면, 그 빛은 피사체인 볼에 조사된다. 다만, 가시광선 등은 필터판(31)(도 1, 도 2 참조)에 의해서 컷트되기 때문에, 적외선만이 피사체에 조사된다. 일반적으로, 인간 또는 동물의 혈관은 적외선을 흡수하는 성질이 있다. 따라서, 볼의 표면 중, 피하에 혈관이 있는 부분은 조사된 적외선을 그다지 반사하지 않지만, 혈관이 없는 부분은 잘 반사한다.
피사체로부터의 반사광은 필터판(31)을 투과하여 케이싱(20) 속으로 들어가 렌즈(211)에 의해서 이미지 센서(212) 상에 결상된다. 이미지 센서(212)는 이것을 신호화함으로써 촬상 데이터를 생성한다. 화상 처리부(202)는 이 촬상 데이터에 화상 처리를 실시함으로써, 볼의 혈관의 패턴 화상을 생성한다. 한편, 화상 처리는 퍼스널 컴퓨터(6)로 행하도록 구성하더라도 좋다.
셔터는 렌즈 셔터 또는 스크린 셔터와 같은 메카니컬적인 셔터, 액정 셔터와 같은 광학적인 셔터 등을 이용하는 것이 가능하다. 또한, 예컨대, 촬영의 지령에 동기하여 이미지 센서(212)에 의한 전하의 축적을 시작하고, 노출 시간 경과 후에 축적을 종료하여, 축적한 전하를 독출하도록 구성하더라도 좋다. 즉, 이와 같이 구성한 경우의 노출 시간이란, 전하의 축적 시간을 의미한다. 또는, 이들 메카니컬적, 광학적, 또는 전기적인 셔터를 조합시키더라도 좋다.
〔노출 자동 제어 기능〕
도 7은 노출 자동 제어 기능을 이용한 경우의 촬영 처리의 흐름의 예를 설명하는 흐름도, 도 8은 거리 노출 테이블(TL1)의 예를 도시하는 도면, 도 9는 볼 화상(FA1)의 예를 도시하는 도면, 도 10은 노출 보정용 테이블(TL2)의 예를 도시하는 도면이다.
촬영 장치(1)에는 백색 퍼짐의 발생을 억제하기 위해서, 피사체가 되는 개인(이하, 「사용자」라고 기재하는 경우가 있음)마다 노출(노광) 시간을 자동 제어하는 기능(이하, 「노출 자동 제어 기능」이라 기재함)이 마련되어 있다. 다음에, 이러한 기능의 내용 및 처리 순서를, 도 7에 도시하는 흐름도를 참조하여 설명한다.
도 5에 도시하는 거리 노출 기억부(204)에는 거리 노출 테이블(TL1) 및 노출 보정용 테이블(TL2)(도 10 참조)이 기억되어 있다. 거리 노출 테이블(TL1)에는 도 8에 도시한 바와 같이 촬영 장치(1)와 피사체와의 거리에 따른 표준 노출 시간이 정해져 있다. 도 8을 보고 알 수 있는 것과 같이, 촬영 장치(1)에서부터 피사체(볼)까지의 거리가 길수록 노출 시간이 길게 되도록 설정된다. 예컨대, 촬영 장치(1)까지의 거리가 2.5 cm인 경우는 노출 시간은 80 ms(밀리초)로 설정되고, 8.5 cm인 경우는 95 ms로 설정된다.
한편, 거리 노출 테이블(TL1)의 「게인」이란, 이미지 센서(212)로부터 화상 처리부(202)로 출력되는 출력 신호 S10의 출력 게인을 말한다. 도 5에서, 출력 게인을 조정하기 위한 조정 신호 S11은 거리 노출 테이블(TL1)에 기초하여 촬영 제어부(201) 등으로부터 보내져온다. 또한, 출력 게인은 수동으로 조정하는 것도 가능하다. 증폭기(208)는 출력 신호 S10을 증폭한다. 증폭기(208)를 생략하는 것도 가능하다. 증폭기(208)의 증폭율을 가변으로 하고, 조정 신호 S11에 의해서 증폭율을 조정하여, 출력 신호 S10의 출력 게인을 조정하더라도 좋다. 그 경우에, 증폭기(208) 대신에 이미지 센서(212)의 내부에 일체적으로 구성하더라도 좋다. 한편, 출력 신호 S10이 디지털 데이터인 경우에는 증폭기(208) 대신에 데이터 변환기 등을 이용하더라도 좋다. 여기서는 출력 게인은 거리에 상관없이 동일하게 설정되고 있다.
도 5의 거리 측정 센서(거리 센서)(27) 및 거리 산출부(205)는 촬영을 하기 전에, 촬영 장치(1)와 피사체인 사용자의 볼과의 거리를 계측하여, 거리 정보(70)를 취득한다(도 7의 #10, #11). 계측후에는, 거리 측정 센서(27)가 발하는 빛이 LED가 발하는 빛과 간섭하지 않도록 하기 위해서, 거리 측정 센서(27)를 정지한다(#12).
촬영 제어부(201)는 거리 정보(70)와 거리 노출 테이블(TL1)에 기초하여 노출 시간을 산출한다(#13). 그리고, 그 노출 시간으로 사용자의 볼을 촬영한다(#15). 이에 따라, 도 9에 도시한 바와 같은 볼 화상(FA1)을 얻을 수 있다. 한편, 도 9에서는, 설명을 간단하게 하기 위해, 볼 화상(FA1)에 나타나는 피부 아래 혈관의 패턴 묘사를 생략하고, 그 대신에 좌측 볼의 외관을 묘사하고 있다. 실제의 볼 화상(FA1)에는 혈관의 패턴이 나타난다. 후에 설명하는 도 15의 볼 화상(FA2)에 관해서도 동일하다.
백색 퍼짐 판별부(206)는 얻어진 볼 화상(FA1)에, 어느 만큼의 백색 퍼짐이 생기고 있는지를 판별한다(#17, #18). 이러한 판별은 다음과 같은 식으로 실행한다. 우선 볼 화상(FA1)의 소정 영역의 화소의 명도를 구한다. 소정의 영역이란, 미리 설정된 볼 화상(FA1)의 전부 또는 일부분의 영역을 의미한다. 도 9의 예에서는, 7×5개의 점선의 동그라미로 나타내는 영역이 소정의 영역이다. 각 동그라미는 각각, 서로 떨어진 위치에 있는 하나의 화소를 가리키고 있다. 즉, 도 9의 예에서는 7×5개의 점재하는 화소가 소정의 영역이다.
소정의 영역에 포함되는 각각의 화소(즉 7×5개의 동그라미가 나타내는 화소)에 대해서, 그 명도가 소정의 값보다도 높은지의 여부를 조사한다. 예컨대, 명도를 0∼255의 256 계조로 나타낸 경우는 소정의 값을 「255」로 한다. 이미지 센서(212)의 특성에 따라서, 「250」 전후의 값을 소정의 값으로 하여도 좋다.
소정의 영역 중에서 소정의 값보다도 높은 영역의 면적을 구한다. 각 화소는 각각 동일한 넓이의 면적을 갖고 있기 때문에, 영역의 면적은 화소의 수를 세는 것으로 구해진다. 이와 같이 하여 구해진 면적 또는 화소수가, 백색 퍼짐 발생의 정도를 나타내고 있다.
도 7로 되돌아가면, 소정의 값보다도 높은 화소의 수가 소정의 수보다도 적은(예컨대 2 미만인) 경우는(#18에서 No), 볼 화상(FA1)에는 노출 시간의 보정이 필요하게 될 정도의 백색 퍼짐은 생기고 있지 않다고 판별한다. 따라서, 지금, 촬영한 볼 화상(FA1)을 그대로 촬영 결과로서 퍼스널 컴퓨터(6) 등에 출력한다.
소정의 수 이상인 경우는(#18에서 Yes), 볼 화상(FA1)에는 노출 시간의 보정이 필요하게 될 정도의 백색 퍼짐이 생기고 있다고 판별한다. 이 경우는, 백색 퍼짐을 억제하기 위해서 노출 시간을 짧게 하기 위한 보정을 하여(#19), 그 노출 시간으로 사용자의 볼 촬영을 다시 한다(#15).
노출 시간의 보정은 백색 퍼짐의 화소의 수(백색 퍼짐의 면적), 거리 정보(70) 및 노출 보정용 테이블(TL2)에 기초하여 다음과 같은 식으로 행한다. 노출 보정용 테이블(TL2)에는 도 10에 도시한 바와 같이, 촬영시의 촬영 장치(1)와 피사체와의 거리(D) 및 백색 퍼짐의 화소의 수(N)에 따른, 노출 시간을 보정하기 위해서 더하는 조정치(G)가 정해지고 있다.
예컨대, 거리 정보(70)에 나타내어지는 거리 D=4, 백색 퍼짐의 화소의 수 N=3인 경우는, 노출 보정용 테이블(TL2)로부터, 조정치 G=-5를 얻을 수 있다. 이 조정치(G)를, 직전에 한 촬영시의 노출 시간에 가산한다. 즉, 직전의 노출 시간=85이었던 경우는 5을 감산하여, 노출 시간=80으로 보정한다.
한편, 이와 같이 하여 얻어진 조정치(G)가 노출 보정용 테이블(TL2)의 굵은 선으로 나타내는 프레임 속에 해당하는 것인 경우는, 노출 시간을 보정하더라도 최적의 촬영을 할 수 없는 경우가 있다. 따라서, 이 경우는, 촬영 에러로서 촬영의 처리를 중지하도록 하더라도 좋다. 그리고, 촬영 장치(1)와 피사체와의 거리를 변경하여, 처음부터 촬영을 다시 하면 된다.
그리고, 도 7로 되돌아가, 새롭게 얻어진 볼 화상(FA1)에 관해서 백색 퍼짐 판별을 하여(#17, #18), 백색 퍼짐의 화소가 소정의 수보다도 적게 되어 있으면(#18에서 No), 그 볼 화상(FA1)을 촬영 결과로서 퍼스널 컴퓨터(6) 등에 출력한다. 소정의 수 이상인 경우는(#18에서 Yes), 백색 퍼짐이 적어질 때까지(여기서는 2 미만이 될 때까지) 촬영을 반복한다. 다만, 촬영의 횟수를 카운트해 두고(#16), 촬영의 횟수가 소정의 수(예컨대 3회)를 넘은 경우는(#15에서 Yes), 촬영 불능이라고 하여 촬영 처리를 중지한다.
〔사용자의 식별 처리〕
도 11은 자기 기억 장치(6d)에 기억되어 있는 프로그램 및 데이터의 예를 도시하는 도면, 도 12는 특징 정보 데이터베이스(6DB)의 예를 도시하는 도면, 도 13은 특징 정보(71) 및 촬영 조건 정보(72)를 등록하기 위한 처리의 흐름의 예를 설명하는 도면, 도 14는 사용자의 식별 처리의 흐름의 예를 설명하는 흐름도, 도 15는 볼 화상(FA2)의 예를 도시하는 도면이다.
개인(사용자)의 식별을 하기 위한 사용자 식별 시스템(100)을, 촬영 장치(1) 및 퍼스널 컴퓨터(6)에 의해서 구성할 수 있다. 이하, 사용자의 식별 처리에 관해서, 도 4의 퍼스널 컴퓨터(6)에 로그온하는 경우를 예로 설명한다.
퍼스널 컴퓨터(6)의 자기 기억 장치(6d)에는, 도 11에 도시한 바와 같이, 특징 정보 데이터베이스(6DB)가 기억되어 있다. 이 특징 정보 데이터베이스(6DB)에는, 도 12에 도시한 바와 같이, 사용자마다의 특징 정보(71)(71a, 71b, …)가 그 사용자를 식별하는 사용자 ID와 대응시켜져 저장되어 있다. 퍼스널 컴퓨터(6)의 사용을 희망하는 사용자는 특징 정보(71) 및 촬영 조건 정보(72)를 자신의 사용자 ID와 대응시켜 미리 특징 정보 데이터베이스(6DB)에 등록(기억)시켜 놓을 필요가 있다.
특징 정보(71)는 사용자의 신체나 버릇 등의 특징에 관한 정보이다. 본 실시예에서는, 특징 정보(71)로서, 좌측 볼의 혈관 패턴에 관한 정보가 이용된다. 촬영 조건 정보(72)는 사용자에게 있어서의, 좌측 볼의 혈관 패턴의 화상을 촬영할 때의 최적의 촬영 조건을 나타내는 것이다.
특징 정보(71) 및 촬영 조건 정보(72)의 등록은, 도 13에 도시한 바와 같은 순서로 행한다. 우선, 사용자는, 자기의 좌측 볼의 혈관 패턴을 촬영 장치(1)에 의해서 촬영한다(#21). 촬영 순서는 앞에서 도 7 등을 참조하여 설명한 것과 같다. 촬영의 전 또는 후에, 사용자 자신의 사용자 ID를 퍼스널 컴퓨터(6)의 키보드에 입력한다(#22). 사용자 ID를 가지고 있지 않는 경우는, 사용자 ID를 시스템 관리자 등에 미리 발행해 받아 놓는다. 또는, 촬영후에 발행해 받는다.
촬영이 성공한 경우는, 퍼스널 컴퓨터(6)는 촬영에 의해서 얻어진 볼 화상(FA1)을 촬영 장치(1)로부터 수신한다(#23). 그리고, 이 볼 화상(FA1)의 화상 데이터를 특징 정보(71)로서, 입력 또는 발행된 사용자 ID와 대응시켜 특징 정보 데이터베이스(6DB)에 저장한다(#24). 또는, 볼 화상(FA1)을 해석함으로써 얻어지는 혈관의 굵기, 길이, 개수, 또는 배치 등의 특징을 나타내는 정보를 특징 정보(71)로서 저장하더라도 좋다.
볼 화상(FA1)을 취득할 때의 촬영 조건, 즉, 그 사용자에게 알맞도록 보정된 노출 시간 및 촬영 장치(1)와 좌측 볼과의 거리를 나타내는 정보를, 촬영 장치(1)로부터 수신한다(#25). 그리고, 이들 정보를 촬영 조건 정보(72)로서 사용자 ID와 대응시켜 특징 정보 데이터베이스(6DB)에 저장한다(#26).
도 11에 도시한 바와 같이, 자기 기억 장치(6d)에는 사용자 식별 프로그램(6PG)이 인스톨되어 있다. 이 프로그램을 실행함으로써, 퍼스널 컴퓨터(6)에 로그온하려고 하고 있는 사용자가 올바른 사용자인지의 여부를 판별(식별)하기 위한 처리가, 도 14에 도시하는 흐름도와 같은 순서로 실현된다.
퍼스널 컴퓨터(6)의 스위치를 온으로 하면, 퍼스널 컴퓨터(6)에는, 로그온 화면이 표시된다. 여기서, 사용자는 자신의 사용자 ID를 입력하고(#31), 촬영 장치(1)에 의해서 자신의 좌측 볼을 촬영하여 도 15에 도시한 바와 같은 볼 화상(FA2)을 취득한다(#32). 취득된 볼 화상(FA2)은 퍼스널 컴퓨터(6)에 송신된다.
한편, 볼 화상(FA2)을 취득하기 위한 촬영은, 도 12의 특징 정보 데이터베이스(6DB)를 참조하여, 입력된 사용자 ID에 대응하는 촬영 조건 정보(72)에 기초하여 이루어진다. 즉, 입력된 사용자 ID에 대응하는 사용자에게 있어서 최적의 노출 시간으로 촬영이 이루어진다. 또한, 이러한 촬영시에, 촬영 장치(1)와 사용자의 좌측 볼과의 거리가 촬영 조건 정보(72)에 나타내어지는 최적의 거리가 되도록, 사용자의 좌측 볼의 위치를 다음과 같은 식으로 안내한다.
촬영을 하기 전에, 거리 측정 센서(27)(도 1, 도 2 참조)에 의해서, 촬영 장치(1)와 사용자의 좌측 볼과의 거리를 정기적으로(예컨대, 1초마다) 계측한다. 계측한 거리와 촬영 조건 정보(72)에 나타내어지는 거리와의 차가 소정의 값(예컨대 0.1∼0.3 cm 정도) 이상인 경우는 램프(28)를 점멸시켜 놓는다. 그리고, 촬영 장치(1)와 사용자의 좌측 볼과의 거리가 최적의 거리에 근접하여, 소정의 값 미만이 된 경우는, 램프(28)의 점멸을 멈추고, 점등한 채로 한다. 아울러, 촬영 장치(1)와 좌측 볼의 3점과의 거리에 기초하여 좌측 볼의 자세를 판별하여, 촬영 장치(1)의 정면과 좌측 볼이 평행하게 되도록 안내하는 식으로 하더라도 좋다.
램프(28) 대신에 촬영 장치(1)에 스피커를 설치하여, 「이제 1 cm 근접해 주십시오」 또는 「좀더 떨어져 주십시오」와 같은 음성을 출력하여, 피사체의 위치를 안내하도록 하더라도 좋다. 액정 패널을 설치하여, 메시지, 도형, 사진, 또는 영상을 표시하여 안내하도록 하더라도 좋다. 퍼스널 컴퓨터(6)의 스피커 또는 디스플레이 장치에 의해서 안내하도록 하더라도 좋다.
도 14로 되돌아가면, 퍼스널 컴퓨터(6)는 특징 정보 데이터베이스(6DB) 중에서, 입력된 사용자 ID에 대응하는 특징 정보(71)를 검색한다(#33). 그리고, 그 특징 정보(71)가 나타내는 혈관의 패턴 특징과 볼 화상(FA2)의 혈관의 패턴 특징을 대조하여, 양자가 일치하는지의 여부를 판별함으로써, 그 사용자가 올바른 사용자인지의 여부를 판별한다(#34).
올바른 사용자라고 판별된 경우는(#35에서 Yes), 사용자는 퍼스널 컴퓨터(6)에 로그온할 수 있어, 퍼스널 컴퓨터(6)의 사용이 가능하게 된다(#36). 올바른 사용자라고 판별되지 않은 경우는(#35에서 No), 로그온할 수 없다는 취지 및 조작을 다시 하라는 취지의 메시지를 퍼스널 컴퓨터(6)에 표시한다(#37).
한편, 개인의 식별은 상기와 같은 로그온을 하는 경우에 한하지 않고, 예컨대, 전자 결제 시스템에 있어서의 결제 또는 출퇴근시의 본인 확인(타임 카드) 등을 위해서 할 수 있다.
본 실시예에 의하면, 개인마다의 특징에 맞춰 촬영을 하여, 백색 퍼짐이 적은 화상을 얻을 수 있다. 이에 따라, 보다 정확하게 개인 식별을 할 수 있다.
한편, 볼 화상(FA1)을 얻기 위한 촬영(도 13의 #21)을 했을 때의 촬영 조건 정보(72)를 사용자 ID와 대응시켜, 촬영 장치(1)의 촬영 조건 기억부(203)(도 5 참조)에 저장하도록 하더라도 좋다. 그렇게 하면, 촬영 장치(1)에 퍼스널 컴퓨터(6)가 접속되어 있지 않더라도, 촬영 장치(1)에 설치된 조작 버튼으로부터 입력되는 사용자 ID에 기초하여 촬영 조건 정보(72)를 검색하여, 곧바로 사용자에게 있어서 최적의 촬영 조건으로 촬영을 할 수 있다. 따라서, 예컨대 정기적으로 신체의 검진을 하기 위해서 혈관 패턴을 촬영하는 경우 등에 편리하다. 여러 장소로 운반하여 촬영을 하는 것도 용이하다.
본 실시예에서는, 도 8에 도시한 바와 같이, 피사체와의 거리가 길수록 노출 시간을 길게 하고, 거리에 상관없이 이미지 센서(212)의 출력의 게인(증폭)을 일정하게 했지만, 거리가 길수록 게인을 크게 하고, 노출 시간을 일정하게 하여도 좋다. 즉, 출력의 게인을 촬영 조건으로 하여도 좋다. 또는, 양방을 촬영 조건으로 하여도 좋다.
본 실시예에서는, 촬영 장치(1)에 의해서 인간의 볼의 혈관 패턴을 촬영하여 사용자의 식별에 이용했지만, 물론, 신체의 다른 부위의 혈관 패턴에 의한 식별도 가능하다. 예컨대, 이마, 머리 부분, 배, 등, 엉덩이, 목, 손발, 팔 및 다리 등의 모든 면을 촬영할 수 있다. 이 경우는, 촬영 대상이 되는 부위에 따라서 LED의 배치, LED의 광도, 자동 노출의 조정 조건(도 8, 도 10 참조) 등을 변경하여, 촬영 장치(1)를 구성하면 된다. 동물의 촬영을 위해서도 이용된다.
도 16은 노출 보정용 테이블(TL3)의 예를 도시하는 도면이다. 본 실시예에서는 사용자마다의 노출 시간(도 12 참조)을, 그 사용자를 촬영했을 때의 백색 퍼짐의 면적(백색 퍼짐의 화소의 수)에 기초하여 표준의 노출 시간을 보정함으로써 구했지만, 그 사용자의 연령 또는 성별 등에 기초하여 구하는 것도 가능하다.
이 경우는, 예컨대, 사용자마다, 그 사용자의 연령 및 성별을 나타내는 정보를 사용자 ID와 대응시켜 데이터베이스에 기억시켜 놓는다. 일반적으로, 백색 퍼짐은 남성보다도 여성 쪽에 나타나기 쉬운 경향이 있다. 또한, 백색 퍼짐이 나타나는 것은, 연령 또는 세대에 따라, 각각 특징적인 경향이 보인다. 그래서, 도 16에 도시한 바와 같은 노출 보정용 테이블(TL3)을 거리 노출 기억부(204)(도 5 참조)에 준비해 둔다. 한편, 노광 시간을 조정(보정)하기 위한 조정치(G)(g11, g12, …, g63, …)는 실제로 다수의 남녀노소를 촬영하여, 성별 및 세대(또는 연령)의 조합마다의 노광 시간의 통계를 취해 해석함으로써 얻어진 것이다.
그리고, 볼 화상(FA1, FA2)(도 9, 도 15 참조) 등의 화상을 취득하기 위한 최적의 노광 시간은 노출 보정용 테이블(TL3)을 참조하여, 그 사용자의 연령 및 성별에 대응하는 조정치(G)에 기초하여 구하면 된다. 또한, 구해진 노광 시간은 촬영 조건 정보(72)로서, 특징 정보 데이터베이스(6DB)(도 12 참조) 또는 촬영 조건 기억부(203)에 그 사용자의 사용자 ID와 대응시켜 기억시켜 놓는다.
한편, 연령 및 성별 이외에도, 직업 또는 평소 하고 있는 스포츠 등의 요소도 조합하여 노광 시간을 보정할 수 있도록 하더라도 좋다.
본 실시예에서는, 사용자의 백색 퍼짐의 상황에 따라서 노광 시간을 변경했지만, 이외의 촬영 조건을 변경하도록 하더라도 좋다. 예컨대, 광원(LED)의 광도 또는 주위의 밝기 등을 변경하도록 하더라도 좋다. 이 경우는, 거리 노출 테이블(TL1) 및 노출 보정용 테이블(TL2)(도 8, 도 10 참조)에 상당하는, 최적의 LED의 고도 등을 구하기 위한 테이블을 준비해 두면 좋다.
본 실시예에서는, 촬영 장치(1)와 피사체(사용자의 볼)와의 거리를, 피사체의 위치 안내를 위해 이용했지만, 볼 화상과 함께, 사용자의 식별 처리를 할 때의 특징 정보(71)로서 이용하는 것도 가능하다.
즉, 볼 화상(FA1)을 위한 촬영을 했을 때의 촬영 장치(1)와 좌측 볼과의 거리를 취하는 방법을 그 사용자의 버릇(특징)으로서 파악하여, 그 거리를 사용자 ID와 대응시켜 기억해 둔다. 그리고, 볼 화상(FA2)을 위한 촬영(도 14의 #32)을 했을 때의 거리와 특징 정보(71)에 나타내어지는 거리와의 차가 소정의 값(예컨대 수 밀리미터) 이하인 경우는 도 14에 도시하는 단계 #34, #35의 처리에 있어서, 올바른 사용자라고 판별한다. 그렇지 않은 경우는 올바른 사용자가 아니라고 판별한다.
본 실시예에서는, 사용자(개인)의 식별 처리에 있어서, 볼 화상(FA1, FA2)의 대조를 퍼스널 컴퓨터(6)에 의해서 행했지만, 대조의 처리를 촬영 장치(1)로 행하도록 하더라도 좋다. 즉, 퍼스널 컴퓨터(6)의 일부 또는 전부의 기능을 촬영 장치(1)에 마련하도록 하더라도 좋다.
볼 화상(FA1, FA2)을 취득하기 위한 촬영을, 별개의 촬영 장치(1)에 의해서 하더라도 좋다. 다만, 이 경우는 동일한 구성의 촬영 장치(1)를 이용하는 것이 바람직하다.
그 밖에, 촬영 장치(1), 퍼스널 컴퓨터(6)의 전체 또는 각 부의 구성, 촬영의 대상, LED의 배치 및 광도, 렌즈 등의 광학계의 배치, 처리 내용, 처리 순서, 데이터베이스 또는 테이블의 내용 등은 본 발명의 취지에 따라서 적절하게 변경할 수 있다.
이상과 같이, 본 발명에 의하면, 개인마다의 특징에 맞춰 촬영을 하여, 보다 정확하게 개인 식별을 할 수 있다는 점에서 유용한 것이다.

Claims (8)

  1. 개인의 식별을 미리 촬영에 의해 취득해 둔 제1 신체 화상과 그 식별을 할 때에 촬영에 의해 취득하는 제2 신체 화상을 대조함으로써 행하기 위해서, 그 제2 신체 화상을 취득하기 위한 촬영을 하는 촬영 장치로서,
    개인마다, 상기 제1 신체 화상을 취득하기 위해서 그 개인의 신체 촬영을 했을 때의 촬영 조건을 그 개인에게 발행된 ID와 대응시켜 기억하는 촬영 조건 기억 수단과,
    상기 식별 대상이 되는 개인의 상기 ID를 입력하는 입력 수단과,
    상기 식별 대상이 되는 개인의 상기 제2 신체 화상을 취득하기 위해서, 입력된 상기 ID에 대응하는 상기 촬영 조건에 기초하여 그 개인의 신체 촬영을 하는 촬영 수단
    을 구비하여 이루어지는 것을 특징으로 하는 촬영 장치.
  2. 개인의 식별을 미리 촬영에 의해 취득해 둔 제1 신체 화상과 그 식별을 할 때에 촬영에 의해 취득하는 제2 신체 화상을 대조함으로써 행하기 위해서, 그 제1 신체 화상을 취득하기 위한 촬영을 하는 촬영 장치로서,
    개인의 신체 촬영을 하는 촬영 수단과,
    상기 촬영 수단에 의한 촬영에 의해서 취득한 개인의 상기 제1 신체 화상과, 그 촬영시의 촬영 조건을, 그 개인에게 발행된 ID와 대응시켜 기억 수단에 대하여 출력하는 출력 수단
    을 구비하여 이루어지는 것을 특징으로 하는 촬영 장치.
  3. 개인의 식별을 하는 개인 식별 시스템으로서,
    개인마다, 미리 그 개인의 신체 촬영을 함으로써 취득해 둔 제1 신체 화상과 그 촬영시의 촬영 조건을 그 개인에게 발행된 ID와 대응시켜 기억하는 기억 수단에 대하여, 상기 제1 신체 화상과 상기 촬영 조건을 출력하는 출력 수단과,
    상기 식별 대상이 되는 개인의 상기 ID를 입력하는 입력 수단과,
    상기 식별을 할 때에, 그 식별의 대상이 되는 개인의 제2 신체 화상을 취득하기 위해서, 상기 입력 수단에 의해서 입력된 그 개인의 상기 ID에 대응하는 상기 촬영 조건에 기초하여 그 개인의 신체 촬영을 하는 촬영 수단과,
    상기 식별 대상이 되는 개인의 상기 ID에 대응하는 상기 제1 신체 화상과 상기 촬영 수단에 의한 촬영에 의해서 취득된 그 개인의 상기 제2 신체 화상을 대조함으로써, 그 개인이 본인인지의 여부를 식별하는 식별 수단
    을 구비하여 이루어지는 것을 특징으로 하는 개인 식별 시스템.
  4. 제3항에 있어서, 상기 기억 수단은, 개인마다 상기 제1 신체 화상을 취득하기 위한 촬영시의 촬영 거리를 그 개인의 상기 ID와 대응시켜 기억하고,
    상기 식별 수단은, 상기 기억 수단에 기억되어 있는 상기 식별 대상이 되는 개인의 상기 ID에 대응하는 촬영 거리와, 상기 제2 신체 화상을 취득하기 위한 촬영시의 촬영 거리를 대조함으로써, 그 개인이 본인인지의 여부를 식별하는 것을 특징으로 하는 개인 식별 시스템.
  5. 물체에서 반사한 빛을 수광 수단으로 결상시킴으로써 그 물체를 촬영하는 촬영 장치로서,
    상기 촬영에 의해서 취득된 화상의 전부 또는 일부분의 영역 중, 소정의 값보다도 명도가 큰 부분인 백색 퍼짐 부분이 소정의 면적보다도 큰지의 여부를 판별하는 판별 수단과,
    상기 판별 수단에 의해서 상기 백색 퍼짐 부분이 상기 소정의 면적보다도 크다고 판별된 경우에, 노출 시간을 상기 백색 퍼짐 부분의 면적이 클수록 짧아지도록 보정하여, 상기 촬영을 다시 하도록 제어하는 촬영 제어 수단
    을 구비하여 이루어지는 것을 특징으로 하는 촬영 장치.
  6. 물체에서 반사한 빛을 수광 수단으로 결상시킴으로써 그 물체를 촬영하는 촬영 장치로서,
    상기 촬영에 의해서 취득된 화상의 전부 또는 일부분의 영역 중, 소정의 값보다도 명도가 큰 부분인 백색 퍼짐 부분의 면적이 소정의 면적보다도 큰지의 여부를 판별하는 판별 수단과,
    상기 판별 수단에 의해서 상기 백색 퍼짐 부분의 면적이 상기 소정의 면적보다도 크다고 판별된 경우에, 노출 시간을 상기 백색 퍼짐 부분의 면적이 클수록 짧아지도록 보정함으로써 상기 백색 퍼짐 부분의 면적이 상기 소정의 면적보다도 작아지는 노출 시간인 보정 노출 시간을 산출하는 보정 노출 시간 산출 수단과,
    상기 보정 노출 시간 산출 수단에 의해서 산출된 상기 보정 노출 시간을, 상기 물체를 식별하는 ID와 대응시켜 기억하는 보정 노출 시간 기억 수단과,
    상기 ID를 입력하는 입력 수단과,
    입력된 상기 ID에 대응하는 상기 보정 노출 시간으로 상기 촬영을 다시 하도록 제어하는 촬영 제어 수단과,
    촬영의 재시도에 의해서 취득된 화상을 촬영 결과로서 출력하는 출력 수단
    을 구비하여 이루어지는 것을 특징으로 하는 촬영 장치.
  7. 개인의 식별을 하는 개인 식별 방법으로서,
    개인마다, 미리 그 개인의 신체 촬영을 함으로써 취득해 둔 제1 신체 화상과 그 촬영시의 촬영 조건을 그 개인에게 발행된 ID와 대응시켜 기억 수단에 기억시켜 두고,
    상기 식별 대상이 되는 개인의 상기 ID를 입력하는 입력 단계와,
    상기 식별을 할 때에, 그 식별의 대상이 되는 개인의 제2 신체 화상을 취득하기 위해서, 입력된 그 개인의 상기 ID에 대응하는 상기 촬영 조건에 기초하여 그 개인의 신체 촬영을 하는 촬영 단계와,
    상기 식별 대상이 되는 개인의 상기 ID에 대응하는 상기 제1 신체 화상과 상기 촬영 단계의 촬영으로 취득된 그 개인의 상기 제2 신체 화상을 대조함으로써, 그 개인이 본인인지의 여부를 식별하는 식별 단계
    를 구비하여 이루어지는 것을 특징으로 하는 개인 식별 방법.
  8. 물체에서 반사한 빛을 수광 수단으로 결상시킴으로써 그 물체를 촬영하는 촬영 방법으로서,
    상기 촬영에 의해서 취득된 화상의 전부 또는 일부분의 영역 중, 소정의 값보다도 명도가 큰 부분인 백색 퍼짐 부분이 소정의 면적보다도 큰지의 여부를 판별하는 단계와,
    상기 백색 퍼짐 부분이 상기 소정의 면적보다도 크다고 판별된 경우에, 노출시간을 상기 백색 퍼짐 부분의 면적이 클수록 짧아지도록 보정하여, 상기 촬영을 다시 하도록 제어하는 단계
    를 구비하여 이루어지는 것을 특징으로 하는 촬영 방법.
KR1020057009655A 2003-03-28 2003-03-28 촬영 장치 및 개인 식별 시스템 KR100732136B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2003/003988 WO2004088590A1 (ja) 2003-03-28 2003-03-28 撮影装置および個人識別システム

Publications (2)

Publication Number Publication Date
KR20050085197A true KR20050085197A (ko) 2005-08-29
KR100732136B1 KR100732136B1 (ko) 2007-06-27

Family

ID=33105313

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020057009655A KR100732136B1 (ko) 2003-03-28 2003-03-28 촬영 장치 및 개인 식별 시스템

Country Status (7)

Country Link
US (1) US7340159B2 (ko)
EP (1) EP1610268A4 (ko)
JP (1) JP4030547B2 (ko)
KR (1) KR100732136B1 (ko)
CN (2) CN100361160C (ko)
AU (1) AU2003220950A1 (ko)
WO (1) WO2004088590A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100874066B1 (ko) * 2006-03-15 2008-12-12 오므론 가부시키가이샤 인증 장치, 인증 방법, 인증 프로그램 및 컴퓨터 판독가능한 기록 매체

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6788460B2 (en) 1998-04-15 2004-09-07 Duke University Projection screen apparatus
US6829087B2 (en) 1998-04-15 2004-12-07 Bright View Technologies, Inc. Micro-lens array based light transmitting screen with tunable gain
US6816306B2 (en) 1998-04-15 2004-11-09 Bright View Technologies Inc. Micro-lens array based light transmitting screen with high resolution and low imaging artifacts
WO2004081853A1 (en) 2003-03-06 2004-09-23 Animetrics, Inc. Viewpoint-invariant image matching and generation of three-dimensional models from two-dimensional imagery
TWM288941U (en) * 2005-08-23 2006-03-21 Instr Technology Res Er Ct Near-photographing device having illumination
JP4566930B2 (ja) * 2006-03-03 2010-10-20 富士通株式会社 撮像装置
JP4566929B2 (ja) * 2006-03-03 2010-10-20 富士通株式会社 撮像装置
JP4804962B2 (ja) * 2006-03-03 2011-11-02 富士通株式会社 撮像装置
MY169546A (en) * 2007-11-30 2019-04-22 Mimos Berhad System and method of object positioning
US20090292958A1 (en) * 2008-05-21 2009-11-26 Kabushiki Kaisha Toshiba Electronic apparatus and state notification method
JP6316540B2 (ja) * 2012-04-13 2018-04-25 三星電子株式会社Samsung Electronics Co.,Ltd. カメラ装置及びその制御方法
JP6435779B2 (ja) * 2014-10-30 2018-12-12 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
US9451170B2 (en) * 2014-11-17 2016-09-20 Ricoh Company, Ltd. Image acquisition and management using a reference image
US9558553B2 (en) * 2014-11-17 2017-01-31 Ricoh Company, Ltd. Image acquisition and management using a reference image
US10217022B2 (en) 2015-03-06 2019-02-26 Ricoh Company, Ltd. Image acquisition and management
US10136050B2 (en) 2015-03-06 2018-11-20 Ricoh Company, Ltd. Image acquisition and management using a reference image
DE102016104383A1 (de) * 2016-03-10 2017-09-14 Osram Opto Semiconductors Gmbh Verfahren und optoelektronische Leuchtvorrichtung zum Beleuchten eines Gesichts einer Person sowie Kamera und mobiles Endgerät
JP6631331B2 (ja) * 2016-03-10 2020-01-15 富士通株式会社 生体認証装置、生体認証方法および生体認証プログラム
CN113228622A (zh) * 2019-09-12 2021-08-06 深圳市汇顶科技股份有限公司 图像采集方法、装置及存储介质
CN114979498B (zh) * 2021-02-20 2023-06-30 Oppo广东移动通信有限公司 曝光处理方法、装置、电子设备及计算机可读存储介质
CN113327364B (zh) * 2021-06-21 2023-02-10 哈尔滨工程大学 一种基于人脸识别的排队管理装置及方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2907465B2 (ja) 1989-11-24 1999-06-21 オリンパス光学工業株式会社 画像入出力装置
US5194960A (en) * 1990-03-05 1993-03-16 Konica Corporation Optical image signal control device
KR0158038B1 (ko) * 1993-03-29 1998-12-15 모리시다 요오이찌 개인식별장치
US5678098A (en) * 1994-06-09 1997-10-14 Fuji Photo Film Co., Ltd. Method and apparatus for controlling exposure of camera
JPH0981727A (ja) * 1995-09-12 1997-03-28 Toshiba Corp 個人認証装置
JPH1021378A (ja) * 1996-07-01 1998-01-23 Toyo Commun Equip Co Ltd 撮像装置及び撮像方法
ATE216823T1 (de) * 1996-09-27 2002-05-15 Markus Boehm Lokalautoadaptiver optischer sensor
US5734426A (en) * 1996-11-15 1998-03-31 Omnivision Technologies, Inc. Method of automatic exposure control in a MOS imaging array
US5991429A (en) * 1996-12-06 1999-11-23 Coffin; Jeffrey S. Facial recognition system for security access and identification
JP3869545B2 (ja) * 1998-01-19 2007-01-17 株式会社日立製作所 指の特徴パターン特徴検出装置及び個人識別装置
JPH11261994A (ja) * 1998-03-11 1999-09-24 Mitsubishi Electric Corp 物体検出装置及びエレベーターの利用客数検出装置
JP2000306095A (ja) * 1999-04-16 2000-11-02 Fujitsu Ltd 画像照合・検索システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100874066B1 (ko) * 2006-03-15 2008-12-12 오므론 가부시키가이샤 인증 장치, 인증 방법, 인증 프로그램 및 컴퓨터 판독가능한 기록 매체

Also Published As

Publication number Publication date
CN100361160C (zh) 2008-01-09
AU2003220950A1 (en) 2004-10-25
WO2004088590A1 (ja) 2004-10-14
EP1610268A4 (en) 2011-07-27
KR100732136B1 (ko) 2007-06-27
US20060018652A1 (en) 2006-01-26
EP1610268A1 (en) 2005-12-28
CN101038624A (zh) 2007-09-19
US7340159B2 (en) 2008-03-04
JP4030547B2 (ja) 2008-01-09
CN100520809C (zh) 2009-07-29
JPWO2004088590A1 (ja) 2006-07-06
CN1685366A (zh) 2005-10-19

Similar Documents

Publication Publication Date Title
KR100732136B1 (ko) 촬영 장치 및 개인 식별 시스템
EP0989517B1 (en) Determining the position of eyes through detection of flashlight reflection and correcting defects in a captured frame
JP4297876B2 (ja) 撮影装置、光源制御方法、およびコンピュータプログラム
JP4218348B2 (ja) 撮影装置
US7715595B2 (en) System and method for iris identification using stereoscopic face recognition
US8159561B2 (en) Digital camera with feature extraction device
KR20030062377A (ko) 스테레오 얼굴인식을 이용한 홍채인식시스템 및홍채인식방법
JP2005323180A (ja) 撮像制御装置及びプログラム
EP1610545B1 (en) Photographing apparatus, photographing method and computer program
JP3119558B2 (ja) 顔画像データ取り込み方法および装置並びにシステム
JP2004320284A (ja) デジタルカメラ
JP4063583B2 (ja) デジタルカメラ
US20230377101A1 (en) Dentition image capturing system and dentition image capturing method
JP2008010006A (ja) 撮影装置、個人識別方法、および撮影方法
JP2006320724A (ja) 撮影装置、撮影方法、およびコンピュータプログラム
JP2007257658A (ja) 撮影装置および個人識別システム
KR100732931B1 (ko) 촬영 장치, 촬영 방법 및 컴퓨터 프로그램을 기록한 기록매체
TW201011451A (en) Image pick-up device and flash control method thereof
US20100123793A1 (en) Imager for determining a main subject
JP4597178B2 (ja) 撮影装置および個人確認システム
KR100847792B1 (ko) 촬영 장치, 광원 제어 방법 및 컴퓨터 프로그램을 기록한기록매체
KR100748923B1 (ko) 촬영 장치, 광원 제어 방법 및 컴퓨터 프로그램을 기록한 기록매체
TW201642647A (zh) 控制對焦與自動曝光的方法與系統
KR20220095985A (ko) 빛 반사 감소기술이 적용된 자궁경부 진단 카메라 장치
JP2008160279A (ja) 撮像装置および撮像方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130531

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140603

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150515

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160517

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170522

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20180516

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20190515

Year of fee payment: 13