JPWO2020129138A1 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JPWO2020129138A1
JPWO2020129138A1 JP2020560667A JP2020560667A JPWO2020129138A1 JP WO2020129138 A1 JPWO2020129138 A1 JP WO2020129138A1 JP 2020560667 A JP2020560667 A JP 2020560667A JP 2020560667 A JP2020560667 A JP 2020560667A JP WO2020129138 A1 JPWO2020129138 A1 JP WO2020129138A1
Authority
JP
Japan
Prior art keywords
image
visible
visible image
pupil
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020560667A
Other languages
English (en)
Inventor
尚司 谷内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020129138A1 publication Critical patent/JPWO2020129138A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Signal Processing (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Studio Devices (AREA)

Abstract

瞳孔を検出するためのコストを低減する画像処理装置を提供する。本開示の一態様に係る画像処理装置103は、顔の可視画像を受け取る第1入力部110と、前記顔の近赤外画像を受け取る第2入力部120と、前記可視画像の画素値の頻度分布と、前記近赤外画像の画素値の頻度分布とに基づいて、前記可視画像の明るさを調整する調整部130と、前記可視画像と前記近赤外画像とが対応する相対位置を特定する位置合わせ部160と、調整された前記可視画像の明るさを反転する反転部170と、明るさが反転された前記可視画像と前記近赤外画像とを、前記相対位置に基づいて足し合わせた合成画像から、瞳孔の領域を検出する瞳孔検出部180と、検出した前記瞳孔の情報を出力する出力部190と、を備える。

Description

本開示は、画像を処理する技術に関し、特に、画像からの瞳孔の検出に関連する技術に関する。
例えばカメラが設置されているウォークスルーゲートにおいて、被認証者が立ち止まることなく、カメラによって撮影された、被認証者の身体の部位(例えば虹彩や顔)の画像を使用して認証を行う場合、画像におけるその部位の位置を素早く特定する必要がある。認証の対象の部位として、虹彩や顔を使用する場合、瞳孔の位置を素早く検出できれば、瞳孔の位置に基づいて虹彩や顔の位置を素早く特定できる。人間の瞳孔は、近赤外線(例えば、850nm(nanometer)付近の波長の電磁波)に対する、再帰反射特性を持つ。特許文献1には、900nmを間に含む異なる2つの波長(例えば、850nm及び950nm)の光が照射された被験者の2枚の画像の差分画像から、瞳孔の明るさの差に基づいて、瞳孔を検出する瞳孔検出装置が開示されている。
特許4528980号公報
特許文献1の技術では、照射される光の波長が異なる2つの光源の光軸と、それらの波長の光をそれぞれ選択的に受光する2つの撮影装置の光軸とが、共通である必要がある。そのため、これらの光源及び撮影装置の光軸が共通であるように、2つの光源、2つの撮影装置、及び、光路を変更する例えばハーフミラーなどの装置の、各々の設置位置を調整する必要がある。さらに、光源が発光している間に、発光している光源によって照射される波長の光を受光する撮影装置が撮影を行うように、光源の発光のタイミングと撮影のタイミングとを、正確に調整する必要がある。また、2つの光源を同時に発光させ、2つの波長の光がそれぞれ照射された2つの画像を同時に得るためには、光を、約900nmよりも長い波長の光と、約900nmよりも短い波長の光とに分離する装置が必要である。そのような装置は、光を約900nmよりも長い波長の光と約900nmよりも短い波長の光とに分離するダイクロイックミラーであってもよい。そのような装置は、遮断波長がそれぞれ約900nmである低域通過フィルタ及び高域通過フィルタの組み合わせであってもよい。
従って、特許文献1の技術では、画像から瞳孔を検出するために、画像を撮影する装置に加えて、2つの光源や、近赤外線を特定の波長において分離する装置等が必要である。さらに、2つの撮影装置に加えて、2つの光源やハーフミラーなどの装置を、正確に配置する必要がある。すなわち、特許文献1の技術では、それらの装置のコストと、それらの装置を正確に設置するコストとが必要である。
本開示の目的の1つは、瞳孔を検出するためのコストを低減する画像処理装置を提供することにある。
本開示の一態様に係る画像処理装置は、顔の可視画像を受け取る第1入力手段と、前記顔の近赤外画像を受け取る第2入力手段と、前記可視画像の画素値の頻度分布と、前記近赤外画像の画素値の頻度分布とに基づいて、前記可視画像の明るさを調整する調整手段と、前記可視画像と前記近赤外画像とが対応する相対位置を特定する位置合わせ手段と、調整された前記可視画像の明るさを反転する反転手段と、明るさが反転された前記可視画像と前記近赤外画像とを、前記相対位置に基づいて足し合わせた合成画像から、瞳孔の領域を検出する瞳孔検出手段と、検出した前記瞳孔の情報を出力する出力手段と、を備える。
本開示の一態様に係る画像処理方法は、顔の可視画像を受け取り、前記顔の近赤外画像を受け取り、前記可視画像の画素値の頻度分布と、前記近赤外画像の画素値の頻度分布とに基づいて、前記可視画像の明るさを調整し、前記可視画像と前記近赤外画像とが対応する相対位置を特定する位置合わせ手段と、調整された前記可視画像の明るさを反転し、明るさが反転された前記可視画像と前記近赤外画像とを、前記相対位置に基づいて足し合わせた合成画像から、瞳孔の領域を検出し、検出した前記瞳孔の情報を出力する。
本開示の一態様に係る記憶媒体は、顔の可視画像を受け取る第1入力処理と、前記顔の近赤外画像を受け取る第2入力処理と、前記可視画像の画素値の頻度分布と、前記近赤外画像の画素値の頻度分布とに基づいて、前記可視画像の明るさを調整する調整処理と、前記可視画像と前記近赤外画像とが対応する相対位置を特定する位置合わせ処理と、調整された前記可視画像の明るさを反転する反転処理と、明るさが反転された前記可視画像と前記近赤外画像とを、前記相対位置に基づいて足し合わせた合成画像から、瞳孔の領域を検出する瞳孔検出処理と、検出した前記瞳孔の情報を出力する出力処理と、をコンピュータに実行させるプログラムを記憶する。
本開示の一態様は、上述のプログラムが格納されているきおく媒体によっても実現される。
本開示には、瞳孔を検出するためのコストを低減することができるという効果がある。
図1は、本開示の第1の実施形態に係る画像処理システムの構成の例を表すブロック図である。 図2は、本開示の第1の実施形態の画像処理装置の動作の例を表すフローチャートである。 図3は、本開示の第1の実施形態の画像処理装置の動作の例を表すフローチャートである。 図4は、本開示の第1の実施形態の第1及び第2の変形例の認証システムの構成の例を表すブロック図である。 図5は、本開示の第1の実施形態の第1及び第2の変形例の認証システムの動作の例の全体を表すフローチャートである。 図6は、本開示の第1の実施形態の第1から第4の変形例の画像処理装置100の瞳孔検出処理の動作の例を表すフローチャートである。 図7は、本開示の第1の実施形態の第1及び第4の変形例の認証装置の認証処理の動作の例を表すフローチャートである。 図8は、本開示の第1の実施形態の第2の変形例の認証装置の認証処理の動作の例を表すフローチャートである。 図9は、本開示の第1の実施形態の第3の変形例の画像処理システムの構成の例を表すブロック図である。 図10は、本開示の第1の実施形態の第3の変形例の画像処理システムの動作の例の全体を表すフローチャートである。 図10は、本開示の第1の実施形態の第3の変形例の画像処理システムの、サングラス判定処理の動作の例の全体を表すフローチャートである。 図12は、本開示の第1の実施形態の第4の変形例の認証システムの構成の例を表すブロック図である。 図13は、本開示の第1の実施形態の第4の変形例の認証システムの動作の例の全体を表すフローチャートである。 図14は、本開示の第1の実施形態の第4の変形例の認証システムの、光源制御処理の動作の例を表すフローチャートである。 図15は、本開示の第2の実施形態の画像処理装置の構成の例を表すブロック図である。 図15は、本開示の第2の実施形態の画像処理装置の動作の例を表すフローチャートである。 図17は、本開示の実施形態に係る画像処理装置及び認証装置を実現できるコンピュータの構成の例を表すブロック図である。
次に、本開示の実施形態について、図面を参照して詳細に説明する。
<第1の実施形態>
まず、第1の実施形態に係る画像処理装置の構成を説明し、次に、第1の実施携帯に係る画像処理装置の動作を説明する。
<構成>
図1は、第1の実施形態に係る画像処理システム1の構成の例を表すブロック図である。画像処理システム1は、画像処理装置100と、可視撮像装置200と、近赤外撮像装置300とを含む。
図1に示す画像処理装置100は、第1入力部110と、第2入力部120と、調整部130と、第1検出部140と、第2検出部150と、位置合わせ部160と、反転部170と、第3検出部180と、出力部190とを含む。画像処理装置100は、可視撮像装置200と、近赤外撮像装置300とが接続されている。
可視撮像装置200は、可視光の波長域で撮影を行う撮像装置である。可視撮像装置200は、例えば、ビデオカメラやデジタルカメラによって実現される。可視撮像装置200は、撮影した画像を出力する。可視撮像装置200が出力する画像は、カラー画像であってもよい。可視撮像装置200が出力する画像は、グレースケールの画像であってもよい。画像のフォーマットは、画像処理装置100がデコードできるフォーマットのいずれかである。
近赤外撮像装置300は、人間の網膜が再帰反射特性を持つ、近赤外の波長域で撮影を行う撮像装置である。近赤外撮像装置300は、人間の網膜が再帰反射特性を持つ波長域(例えば、850nmの波長を含む波長域)の近赤外光を撮影できる赤外線カメラによって実現される。近赤外撮像装置300は、撮影した画像を出力する。近赤外撮像装置300が出力する画像は、例えば、グレースケールの画像である。画像のフォーマットは、画像処理装置100がデコードできるフォーマットのいずれかでよい。
可視撮像装置200及び近赤外撮像装置300は、同一の対象を撮影できるように設置されている。可視撮像装置200及び近赤外撮像装置300は、例えば、隣接して設置されていてもよい。可視撮像装置200及び近赤外撮像装置300は、光軸が同様の方向を向くよう設置されていてもよい。可視撮像装置200の光軸は、近赤外撮像装置300の光軸と、同一でなくてもよい。可視撮像装置200及び近赤外撮像装置300は、例えば、ウォークスルーゲートなどのゲートや、ドアの横などに設置されていてよい。可視撮像装置200及び近赤外撮像装置300は、例えば、可視撮像装置200及び近赤外撮像装置300が設置されているゲート等を通過する人物(例えば、人物の顔)を同様のタイミングで撮影するように構成されていてよい。可視撮像装置200及び近赤外撮像装置300の画角及び画素数は、同一でなくてもよい。
以下では、可視撮像装置200及び近赤外撮像装置300は、同じ人物の顔を、同じタイミングで撮影する場合について説明する。
画像処理装置100は、可視撮像装置200が撮影した画像を画像処理装置100が受け取り可能であるように、可視撮像装置200と、無線、有線、又は、それらの組み合わせによって接続されている。同様に、画像処理装置100は、近赤外撮像装置300が撮影した画像を画像処理装置100が受け取り可能であるように、近赤外撮像装置300と、無線、有線、又は、それらの組み合わせによって接続されている。
第1入力部110は、可視撮像装置200から、可視撮像装置200が撮影した画像を受け取る。可視撮像装置200がカラー画像を出力する場合、第1入力部110は、受け取ったカラー画像をグレースケールの画像に変換する。カラー画像をグレースケールの画像に変換する方法は、各画素の画素値の色空間に応じた既存の方法のいずれかでよい。例えば、1つの画素の画素値が赤、緑、青の3色のそれぞれの濃淡値によって表されている場合、変換する方法は、カラー画像の画素毎に、画素値の3色の濃淡値のそれぞれに予め定められている重みをかけて足し合わせることにより得られる値を、グレースケールの画像の画素値にすることであってよい。カラー画像の画素値に明度が成分として含まれる場合、明度をグレースケールの画像の画素値にしてもよい。以下の説明では、可視撮像装置200が出力し第1入力部110が受け取ったグレースケールの画像、及び、可視撮像装置200が出力し第1入力部110が受け取ったカラー画像から変換されたグレースケールの画像を、可視入力画像と表記する。可視入力画像は、可視画像とも表記されることがある。第1入力部110は、可視入力画像を、調整部130に送出する。第1入力部110は、可視入力画像を、第1検出部140に送出してもよい。
第2入力部120は、近赤外撮像装置300から、近赤外撮像装置300が撮影した画像を受け取る。以下の説明では、近赤外撮像装置300が出力し第2入力部120が受け取った画像を、近赤外入力画像と表記する。近赤外入力画像は、近赤外画像と表記されることもある。第2入力部120は、受け取った近赤外入力画像を、調整部130と、第2検出部150とに送出する。第2入力部120は、受け取った近赤外入力画像を、第3検出部180に送出してもよい。
調整部130は、第1入力部から可視入力画像を受け取る。調整部130は、さらに、第2入力部120から、近赤外入力画像を受け取る。調整部130は、可視入力画像の画素値(すなわち、明るさ)の頻度分布(すなわちヒストグラム)と、近赤外入力画像の画素値の頻度分布とに基づいて、可視入力画像の明るさのレベルと近赤外入力画像の明るさのレベルとを合わせる。調整部130は、例えば以下のように、可視入力画像のヒストグラムが、近赤外入力画像のヒストグラムに近づくように、可視入力画像の画素値を調整する。
具体的には、調整部130は、まず、可視入力画像のヒストグラムと、近赤外入力画像のヒストグラムとを生成する。ヒストグラムのビンの個数及び幅は、適宜定められていてよい。さらに、調整部130は、可視入力画像のヒストグラムと、近赤外入力画像のヒストグラムとにおいて、暗部のピークを検出する。暗部のピークは、例えば、頻度が、大きさにおいて所定の基準を満たし、ヒストグラムのピーク(すなわち、頻度の極大値)であるビンのうち、最も暗い画素値の頻度を表すビンであってよい。上述の所定の基準は、例えば、最頻値の、適宜定められた1未満の定数倍を超えることであってよい。暗部のピークは、この例に限られない。例えば、最も暗い画素値に対応するビンから所定の範囲におけるピークのうち、頻度が最も大きいビンが示す画素値であってもよい。なお、ビンが示す画素値は、そのビンに対応する画素値の範囲の代表値(例えば、平均、最大値、又は、最小値等)であってもよい。以下の説明では、ヒストグラムの暗部のピークを示す画素値(すなわち、ヒストグラムの暗部のピークのビンが示す画素値)を、暗部ピーク画素値と表記する。
調整部130は、まず、可視入力画像の暗部ピーク画素値を近赤外入力画像の暗部ピーク画素値から引いた値(以下、暗部オフセット値と表記する)を算出する。可視入力画像のヒストグラムの暗部のピークが、近赤外入力画像のヒストグラムの暗部のピークに一致するように、算出した暗部オフセット値を、可視入力画像の各画素の画素値に加える。
調整部130は、さらに、例えば、暗部のピークを含む範囲を除く範囲の、可視入力画像の画素値のヒストグラムが、近赤外入力画像の画素値のヒストグラムに最も近くなるように、可視入力画像の画素値を調整してもよい。上述の、暗部のピークを含む範囲は、例えば、暗部のピークのビンを含み、暗部のピークの頻度に所定の定数を掛けた値よりも頻度が大きいビンが連続する範囲であってよい。この所定の定数は、適宜定められてよい。以下の説明では、ヒストグラムによって頻度の分布が表されるビンの範囲のうち、暗部のピークを含む範囲として除かれなかった範囲を、対象範囲と表記する。
調整部130は、例えば、暗部オフセット値が各画素の画素値に加えられた状態の、可視入力画像の各画素の画素値と暗部ピーク画素値との差に、調整倍率を掛けることによって、可視入力画像の画素値の調整を行ってよい。この場合の可視入力画像の画素値の調整は、言い換えると、可視入力画像の各画素の画素値を、暗部ピーク画素値と、画素値から暗部ピーク画素値を引いた値に調整倍率を掛けた値と、の和に変更することである。調整部130は、例えば、可視入力画像の画素値の調整を行った場合の可視入力画像のヒストグラムが、近赤外入力画像のヒストグラムに最も一致する調整値を算出してよい。
調整部130は、調整を行った場合の可視入力画像のヒストグラムのうち、対象範囲の頻度の分布が、近赤外入力画像のヒストグラムのうち、対象範囲の分布に最も近くなる、調整倍率を算出してよい。具体的には、調整部130は、例えば、調整された可視入力画像のヒストグラムの対象範囲と、近赤外入力画像のヒストグラムの対象範囲との間の共通の範囲における、対応するビンの頻度の差の絶対値の平均を、分布の近さを表す値として算出してよい。そして、調整部130は、分布の近さを表す値が最小になる調整倍率を特定してよい。調整部130は、調整倍率が特定した調整倍率である場合における、調整された可視入力画像を、ヒストグラムが近赤外入力画像のヒストグラムに近づくよう画素値が調整された可視入力画像(以下では、調整可視画像と表記)にする。
調整可視画像の画素の画素値が、画素値として可能な最小値より小さくなる場合、調整部130は、その画素の画素値を、画素値として可能な最小値に変更する。調整可視画像の画素の画素値が、画素値として可能な最大値より大きくなる場合、調整部130は、その画素の画素値を、画素値として可能な最大値に変更する。画素値として可能な最小値は、例えば、可視入力画像の画素値の値域における、画素値の最小値(すなわち、下限)であってもよい。画素値として可能な最大値は、例えば、可視入力画像の画素値の値域における、画素値の最大値(すなわち、上限)であってもよい。調整部130は、調整可視画像の画素の画素値が、可視入力画像の画素値の値域に含まれなくなる場合であっても、その画素の画素値を、画素値の値域の上限又は下限に変更しなくてもよい。
調整部130は、さらに、近赤外入力画像のヒストグラムの、明部のピークを検出してもよい。明部のピークは、例えば、例えば、頻度が、大きさにおいて所定の基準を満たし、ヒストグラムのピーク(すなわち、頻度の極大値)であるビンのうち、最も明るい画素値の頻度を表すビンであってよい。明部のピークは、例えば、頻度が、大きさにおいて所定の基準を満たし、ヒストグラムのピーク(すなわち、頻度の極大値)であるビンのうち、最も明るい画素値の頻度を表すビンであってよい。上述の所定の基準は、例えば、最頻値の、適宜定められた1未満の定数倍を超えることであってよい。明部のピークは、この例に限られない。例えば、最も明るい画素値に対応するビンから所定の範囲におけるピークのうち、頻度が最も大きいビンが示す画素値であってもよい。なお、ビンが示す画素値は、そのビンに対応する画素値の範囲の代表値(例えば、平均、最大値、又は、最小値等)であってもよい。
そして、調整部130は、近赤外入力画像の対象範囲から、明部のピークを含む範囲を除いてもよい。対象範囲から除かれる、明部のピークを含む範囲は、例えば、明部のピークのビンを含み、明部のピークの頻度に所定の定数を掛けた値よりも頻度が大きいビンが連続する範囲であってよい。この所定の定数は、適宜定められてよい。
調整部130は、近赤外入力画像のヒストグラムの明部のピークを検出する場合と同様の方法で、さらに、可視入力画像のヒストグラムの、明部のピークを検出してもよい。可視入力画像のヒストグラムの明部のピークを検出する場合の、所定の基準は、近赤外入力画像のヒストグラムの明部のピークを検出する場合の所定の基準と異なっていてもよい。
可視入力画像のヒストグラムの、明部のピークが検出された場合、可視入力画像の対象範囲から、明部のピークを含む範囲を除いてもよい。可視入力画像の明部のピークを含む範囲は、近赤外入力画像の明部のピークを含む範囲と同様に定義されていてよい。可視入力画像のヒストグラムの明部のピークが検出されない場合、調整部130は、対象範囲から、可視入力画像の明部のピークを含む範囲を除く処理を行わない。
近赤外入力画像又は可視入力画像の少なくとも一方において、明部のピークを含む範囲を対象範囲から除く場合、調整部130は、明部のピークを含む範囲が除かれた対象範囲に基づいて、可視入力画像の調整を行う。
第1検出部140は、第1入力部110から可視入力画像を受け取る。第1検出部140は、受け取った可視画像から、顔を検出する。第1検出部140が可視入力画像から顔を検出する方法は、既存の様々な方法のいずれかであってよい。可視入力画像から顔が検出されない場合、画像処理装置100は、その可視入力画像に対する処理を終了してよい。調整部130は、第1検出部140が、可視入力画像から顔を検出した場合に、可視入力画像に対して、上述の調整を行ってよい。
第2検出部150は、第2入力部120から、近赤外画像を受け取る。第2検出部150は、受け取った近赤外画像から顔を検出する。第2検出部150が、近赤外画像から顔を検出する方法は、既存の様々な方法のいずれかであってよい。
位置合わせ部160は、第1検出部140が可視入力画像から顔を検出し、さらに、第2検出部150が近赤外画像から顔を検出した場合、例えば以下のように、調整可視画像と近赤外入力画像との間の位置合わせを行う。位置合わせ部160は、例えば、調整可視画像と近赤外入力画像とを重ねた場合の、重なっている部分の差(例えば、後述の差の大きさを表す指標)が最も小さくなる、調整可視画像と近赤外入力画像との相対位置を特定する。相対位置は、例えば、平行移動を表すベクトルによって表されていてもよい。相対位置は、例えば、平行移動と回転(例えば、回転の角度)とによって表されていてもよい。相対位置を特定する方法として、既存の様々な方法が使用できる。
具体的には、位置合わせ部160は、例えば、調整可視画像と近赤外入力画像とが重なっている部分の、重なっている画素毎の画素値の差の絶対値の平均が最も小さい、調整可視画像と近赤外入力画像との相対位置を特定してもよい。この場合、調整可視画像と近赤外入力画像との間の、重なっている部分の差の大きさを表す指標は、素毎の画素値の差の絶対値の平均である。指標は、画像間の差の大きさを表す他の指標であってもよい。
また、位置合わせ部160は、調整可視画像のヒストグラムの、暗部のピークを含むビンの範囲に含まれる画素値を持つ画素と、明部のピークを含むビンの範囲に含まれる画素値を持つ画素とを、調整可視画像と近赤外入力画像との差の算出に使用しなくてよい。同様に、位置合わせ部160は、近赤外入力画像のヒストグラムの、暗部のピークを含むビンの範囲に含まれる画素値を持つ画素と、明部のピークを含むビンの範囲に含まれる画素値を持つ画素とを、調整可視画像と近赤外入力画像との差の算出に使用しなくてよい。位置合わせ部160は、重なっている、調整可視画像の画素と近赤外入力画像の画素とのうち、少なくとも一方の画素の画素値が、明部のピークを含む範囲及び暗部のピークを含む範囲のいずれかに含まれる場合、それらの画素を画素値の差の計算から除外してよい。位置合わせ部160は、例えば、画素値の差の計算から除外されていない画素のみから、画像間の差の大きさを表す指標を算出してよい。
なお、第1検出部140は、可視入力画像から顔の特徴点を検出し、検出した顔の特徴点の情報を、位置合わせ部160に送信してもよい。特徴点の情報は、例えば、特徴点が抽出された画像における特徴点の位置、及び、特徴点の種類などである。特徴点の情報は、以上の例に限られない。第2検出部150は、近赤外入力画像から顔の特徴点を検出し、検出した顔の特徴点を、位置合わせ部160に送信してもよい。顔の特徴点は、例えば、目尻、目頭、瞳孔、口角、鼻の頭など、予め定められている特徴点であってよい。
位置合わせ部160は、第1検出部140から、可視入力画像における顔の特徴点の情報を受け取り、第2検出部150から、近赤外入力画像における顔の特徴点を受け取ってもよい。そして、位置合わせ部160は、対応する顔の特徴点の位置の差が最も近くなるように、可視入力画像と近赤外入力画像とを重ねた場合の、可視入力画像と近赤外入力画像との相対位置を算出する。具体的には、位置合わせ部160は、可視入力画像において検出された顔の特徴点の座標が、近赤外入力画像において検出された、可視入力画像の顔の特徴点に対応する、顔の特徴点の座標になるような、座標の変換を算出してよい。座標の変換の算出方法として、既存の様々な方法が適用可能である。
反転部170は、調整部130から、調整可視画像を受け取る。反転部170は、調整可視画像の画素値を反転させ、調整可視画像の画素値が反転した反転可視画像を生成する。画素値の反転は、例えば、画像の画素値の値域における画素値の最大値から、画素値を引くことであってもよい。画素値の反転は、例えば、画素値の符号をプラスからマイナスに変更することであってもよい。
第3検出部180は、反転部170から反転可視画像を受け取り、例えば第2入力部120から、入力近赤外画像を受け取る。第3検出部180は、さらに、位置合わせ部160から、調整可視画像と近赤外入力画像とを重ねた場合の、重なっている部分の差が最も小さい、調整可視画像と近赤外入力画像との相対位置を受け取る。第3検出部180は、受け取った相対位置における、調整可視画像と近赤外入力画像とが重複する領域において、調整可視画像と近赤外入力画像とを重ねた合成画像を生成する。具体的には、第3検出部180は、調整可視画像と近赤外入力画像とが重複する領域において、重複する各画素の位置において、調整可視画像画素値と近赤外入力画像の画素値との和を算出し、算出した和が、その位置の画素の画素値である、合成画像を生成する。重複する画素は、2つの画像を重ねた場合に、同じ位置に存在する画素を表す。
上述のように、人間の瞳孔は、近赤外の電磁波に対する再帰反射特性を持つ。従って、近赤外入力画像において、瞳孔の領域は明るくなる。しかし、人間の瞳孔は可視光に対する再帰反射特性を持たないので、可視入力画像において、瞳孔の領域は暗くなる。反転可視画像では、瞳孔の領域は、比較的明るくなる。従って、反転可視画像の画素値と近赤外入力画像の画素値とが、対応する画素毎に加算された合成画像では、瞳孔の領域は非常に明るくなることが見込まれる。
第3検出部180は、合成画像において、瞳孔を検出する。具体的には、まず、第3検出部180は、例えば、合成画像を二値化する。第3検出部180は、例えば、合成画像の、明度のピークのビンに含まれる画素値を持つ画素及びそれらの画素値より明るい画素値を持つ画素の画素値を、例えば1にし、他の画素の画素値を例えば0にしてもよい。第3検出部180は、明度のピークの頻度に基づいて頻度の閾値(例えばピークの頻度すなわち最頻値の、1未満の定数倍)を決定してもよい。第3検出部180は、最頻値のビンを含み、頻度が閾値を超える連続するビンの範囲の画素値又はそれらのビンが表す画素値よりも明るいことを表す画素値を持つ、合成画像の画素の画素値を1にし、それ以外の画素の画素値を0にしてもよい。第3検出部180は、他の方法で合成画像の二値化を行ってもよい。第3検出部180は、二値化によって、2つの画素値のうち明るい方の画素値が設定された画素の、所定の面積以上の連結領域を、瞳孔の領域として検出してもよい。第3検出部180は、上述の連結領域のうち、面積が、例えば予め実験的に定められた所定の範囲に含まれる連結領域を、瞳孔の領域として検出してもよい。第3検出部180は、上述の連結領域のうち、長径に対する短径の比が、所定値より小さい連結領域を、瞳孔の領域として検出してもよい。以下の説明において、第3検出部180は、瞳孔検出部180と表記されることもある。
出力部190は、第3検出部180によって検出された瞳孔の情報を出力する。具体的には、出力部190は、近赤外入力画像における、瞳孔の領域を表す情報を、出力してもよい。瞳孔の領域を表す情報は、瞳孔の領域として検出された領域に含まれる画素を特定できる情報(例えば、瞳孔の領域として検出された領域に含まれる画素の座標のリスト)であってよい。瞳孔の情報は、例えば、瞳孔の位置を表す情報(例えば、瞳孔を表す領域の重心等の座標)であってもよい。瞳孔の位置を表す情報は、たとえば、近赤外入力画像における瞳孔の位置を表す情報であってもよい。瞳孔の位置を表す情報は、例えば、可視入力画像における瞳孔の位置を表す情報であってもよい。瞳孔を表す情報は、瞳孔の位置を表す情報に加えて、相対位置を含んでいてよい。瞳孔の位置を表す情報は、近赤外入力画像における瞳孔の位置を表す情報と、可視入力画像における瞳孔の位置を表す情報とを含んでいてもよい。瞳孔の情報は、他の情報であってもよい。
<<動作>>
次に、本実施形態の画像処理装置100の動作について、図面を参照して詳細に説明する。
図2及び図3は、本実施形態の画像処理装置100の動作の例を表すフローチャートである。
図2に示す動作では、まず、第1入力部110が、例えば可視撮像装置200から、可視画像を取得し、第2入力部120が、例えば近赤外撮像装置300から、近赤外画像を取得する(ステップS101)。ステップS101において取得される可視画像は、上述の可視入力画像である。ステップS101において取得される近赤外画像が、上述の近赤外入力画像である。
次に、第1検出部140が、第1入力部110によって取得された可視画像において、顔の検出を行う。そして、第2検出部150が、第2入力部120によって取得された近赤外画像において、顔の検出を行う(ステップS102)。顔が検出されない画像が存在する場合、すなわち、可視画像及び近赤外画像のいずれかから顔が検出されなかった場合(ステップS103においてYES)、画像処理装置100は、図2及び図3に示す動作を終了する。可視画像及び近赤外画像の両方から顔が検出された場合、画像処理装置100は、次に、ステップS104の動作を行う。
調整部130は、可視画像及び近赤外画像のそれぞれの、画素の明るさのヒストグラムを生成する(ステップS104)。調整部130は、生成したヒストグラムに基づいて、可視画像の明るさのレベルと近赤外画像の明るさのレベルとを合わせる(ステップS105)。ステップS105において、調整部130は、上述のように、例えば暗部のピークを含む範囲と明部のピークを含む範囲とを除く範囲のヒストグラムが、近赤外入力画像のヒストグラムに近づくように、可視画像(ここでは、可視入力画像)の画素値を調整する。そして、調整部130は、そのように画素値が調整された、調整可視画像を生成する。
次に、位置合わせ部160が、可視画像と近赤外画像との間の位置合わせを行う(ステップS106)。ステップS106における可視画像は、調整部130によって生成された調整可視画像である。ステップS106における近赤外画像は、近赤外入力画像である。ステップS106の位置合わせにおいて、位置合わせ部160は、調整可視画像と近赤外入力画像の重なり部分における差が最も小さくなる、調整可視画像と近赤外入力画像との相対位置を導出する。ステップS106の動作の後、画像処理装置100は、図3に示すステップS107の動作を行う。
図3に示す動作では、次に、反転部170が、可視画像の画素値を反転させる(ステップS107)。ステップS107における可視画像は、ステップS105において明るさのレベルを合わせることにより生成された、調整可視画像である。
次に、第3検出部180が、ステップS106の位置合わせによって得られた、相対位置における、調整可視画像と近赤外入力画像の重なり部分において、重なっている画素の画素値を画素毎に加算することによって、合成画像を生成する(ステップS108)。第3検出部180は、合成画像から、瞳孔を検出する(ステップS109)。
そして、出力部190が、検出した瞳孔の情報を出力する(ステップS110)。
<<効果>>
以上で説明した本実施形態には、瞳孔を検出するためのコストを低減することができるという効果がある。その理由は、調整部130が可視画像の明るさのレベルと近赤外画像の明るさのレベルとを合わせる調整を行い、位置合わせ部160が可視画像と近赤外画像の位置合わせを行うからである。従って、2つの光源及び2つの撮像装置の4つの装置の光軸が同一になるように調整する必要がない。従って、光軸を屈曲させるハーフミラー等の装置は必要ない。また、2つの光源、2つの撮像装置、及び、複数のハーフミーらなどを、正確に配置する必要がない。よって、瞳孔を検出するためのコストを低減できる。
また、本実施形態には、瞳孔の検出の性能を向上できると言う効果がある。その理由は、調整部130が、暗部のピークを含む範囲及び明部のピークを含む範囲以外の範囲のヒストグラムに基づいて画素値の調整を行うからである。また、位置合わせ部160も、ヒストグラムの暗部のピークを含む画素値の範囲及び明部のピークを含む画素値の範囲に含まれる画素値を持つ画素以外の画素を使用して、位置合わせを行うからである。
瞳孔には近赤外線において再帰反射特性があるので、近赤外入力画像における瞳孔の領域は明るい。言い換えると、近赤外入力画像の瞳孔の領域に含まれる画素の画素値は、明るいことを表す値をとる。瞳孔は可視光に対する再帰反射特性を持たない。従って、可視入力画像において、瞳孔の領域は暗い。言い換えると、瞳孔の領域に含まれる画素の画素値は、暗いことを表す値をとる。瞳孔以外の領域では、可視入力画像及び調整可視画像では暗く、近赤外入力画像では明るい領域は、通常は無いとみなせる。調整部130によって調整が行われた調整可視画像と、近赤外入力画像では、ヒストグラムの暗部のピークとして現れる画素値と、明部のピークとして現れる画素値とを除く画素値を持つ画素において、画素値の分布は近くなる。
可視画像(可視入力画像及び調整可視画像)において、明部のピークは、例えば影の領域の画素値に対応し、暗部のピークは、例えば、眼鏡による反射や涙による反射の領域の画素値に対応する。また、近赤外入力画像において、明部のピークは、例えば瞳孔の領域は眼鏡による反射の画素値に対応し、暗部のピークは、例えば、温度が低い部分の画素値に対応する。眼鏡による反射の角度は、波長によって異なる。従って、可視画像における眼鏡による反射の領域は、近赤外画像における眼鏡による反射の領域と異なる。
本実施形態では、眼鏡による反射の領域など、可視画像と近赤外画像とで明るさが大きく異なる領域の、画素値の調整や位置合わせへの影響を抑制できるので、画素値の調整の精度や位置合わせの精度を向上できる。従って、本実施形態では、瞳孔の検出の精度を向上できる。
<第1の実施形態の第1の変形例>
次に、本開示の第1の実施形態の第1の変形例について、図面を参照して詳細に説明する。まず、本変形例の構成について説明し、次に、本変形例の動作について説明する。
<<構成>>
図4は、本変形例の認証システム10の構成の例を表すブロック図である。
図4に示す認証システム10は、瞳孔検出装置である画像処理装置100と、可視撮像装置200と、近赤外撮像装置300と、認証装置400とを含む。画像処理装置100、可視撮像装置200及び近赤外撮像装置300は、第1の実施形態の画像処理装置100、可視撮像装置200及び近赤外撮像装置300と同じである。認証装置400は、画像処理装置100と通信可能に接続されている。認証装置400は、画像処理装置100に含まれていてもよい。言い換えると、画像処理装置100が、さらに認証装置400として動作してもよい。
本変形例の出力部190は、検出された瞳孔の情報と、顔画像とを出力する。本変形例の出力部190は、瞳孔の情報として、瞳孔の位置の情報を出力してよい。顔画像は、可視撮像装置200によって取得され出力された、可視入力画像であってもよい。その場合、可視入力画像は、例えば、第1入力部110と、第1検出部140と、位置合わせ部160と、第3検出部180とを介して、出力部190に送られてもよい。可視入力画像は、第1入力部110から、簡単のため図4では省略されている経路を介して、出力部190に送られてもよい。顔画像は、調整部130によって調整された、調整可視画像であってもよい。その場合、調整可視画像は、例えば、位置合わせ部160と、第3検出部180とを介して、出力部190に送られてもよい。調整可視画像は、調整部130から、簡単のため図4では省略されている経路を介して、出力部190に送られてもよい。顔画像は、近赤外撮像装置300によって取得され出力された、近赤外入力画像であってもよい。その場合、近赤外入力画像は、第2入力部120から、位置合わせ部160と、第3検出部180とを介して、出力部190に送られてもよい。赤外入力画像は、第2入力部120から、第3検出部180を介して、出力部190に送られてもよい。近赤外入力画像は、第2入力部120から、簡単のため図4では省略されている経路を介して、出力部190に送られてもよい。顔画像として送られる画像の種類は、予め決められていてよい。
認証装置400は、認証部410と第2出力部420とを含む。
認証部410は、画像処理装置100の出力部190から、検出された瞳孔の情報(例えば、検出された瞳孔の位置の情報)と、顔画像とを受け取る。認証部410は、例えば、受け取った瞳孔の情報に基づいて、顔画像において認証部位の位置を特定する。認証部410は、位置を特定した認証部位の画像に基づいて、認証を行う。認証部位は、認証に使用する顔の少なくとも一部である。認証部位は、例えば、虹彩であってもよい。認証部位は、例えば、顔であってもよい。認証部位は、予め定められていてよい。認証部410は、認証部位の画像を使用した、既存の認証方法のいずれかによって、認証を行う。具体的には、認証部410は、例えば、顔画像から、認証方法に応じた認証部位の領域の画像を抽出し、抽出された領域から、認証方法に応じた特徴量を抽出する。そして、認証部410は、抽出した特徴量を使用して、認証を行う。以下、さらに具体的に説明する。
認証部位が虹彩である場合、認証部410は、瞳孔の領域の周囲から、虹彩の領域を抽出してよい。認証部位が顔である場合、検出された瞳孔の位置に基づいて、顔の領域が存在しうる領域を推定し、推定された領域から顔の領域を抽出してもよい。認証部位が顔である場合、検出された瞳孔の位置に基づいて、他の、顔の特徴点を抽出してもよい。認証部410による認証の方法として、認証部位に応じた既存の様々な方法が適用可能である。
認証部410は、認証部位の領域の画像から、認証の方法に応じた特徴量を抽出する。認証部410は、抽出した特徴量と、例えば、認証部410に予め登録されている特徴量とを比較する。認証部410は、比較の結果に基づいて、抽出した特徴量が抽出された顔画像の人物が、予め登録されている特徴量が抽出された顔画像の人物と同一であるか判定する。
第2出力部420は、認証部410による認証の結果を出力する。
<<動作>>
図5は、本変形例の認証システム10の動作の例の全体を表すフローチャートである。
図5に示す動作では、まず、画像処理装置100が瞳孔検出処理を行う(ステップS100)。瞳孔検出処理については、後で説明する。瞳孔検出処理によって、上述の瞳孔の情報が得られる。出力部190は、検出した瞳孔の情報(例えば、検出した瞳孔の位置の情報)と、顔画像とを、認証装置400に出力する(ステップS110)。そして、認証装置400は、認証処理を行う(ステップS120)。認証処理については、後で説明する。
図6は、本変形例の画像処理装置100の瞳孔検出処理の動作の例を表すフローチャートである。図6に示す、ステップS101からステップS109までの動作は、図2及び図3に示す、第1の実施形態の画像処理装置100の、ステップS101からステップS109までの動作と同じである。ステップS109の動作の後、画像処理装置100は、図6に示す瞳孔検出処理を終了する。
図7は、本変形例の認証装置400の認証処理の動作の例を表すフローチャートである。図7に示す動作では、まず、認証部410が、瞳孔の位置の情報と顔画像とを受け取る(ステップS121)。次に、認証部410は、瞳孔の位置に基づいて、顔画像から認証部位の領域を抽出する(ステップS122)。認証部410は、抽出した認証部位の領域から、特徴量を抽出する(ステップS123)。認証部410は、抽出した特徴量に基づいて、認証を行う(ステップS124)。第2出力部420は、認証の結果を出力する(ステップS125)。
<第1の実施形態の第2の変形例>
次に、第1の実施形態の第2の変形例について説明する。
<<構成>>
図4は、本変形例の認証システム10の構成を表すブロック図である。本変形例の認証システム10の構成は、第1の実施形態の第1の変形例の認証システム10の構成と同じである。本変形例は、以下で説明する差異を除いて、第1の実施形態の第1の変形例と同じである。
画像処理装置100の出力部190は、顔画像として、近赤外入力画像を出力する。
認証装置400の認証部410は、認証部位として、虹彩を抽出する。また、認証部410は、近赤外入力画像の瞳孔の領域の画素値を、他の値に変更する。他の値は、例えば、虹彩の領域の画素の画素値の平均が示す明るさよりも暗い明るさを示す画素値であってよい。他の値は、近赤外入力画像の瞳孔の領域の画素値が示す明るさよりも暗い明るさを示す画素値であってもよい。他の値は、予め実験的に定められていてもよい。瞳孔の領域の画素値を、画素値が示す明るさが暗くなるように変更することによって、瞳孔の領域が明るいことによる、認証制度の低下などの悪影響を軽減できる。認証部410は、認証として、虹彩認証を行う。
<<動作>>
図5は、本変形例の認証システム10の動作を表すフローチャートである。本変形例の認証システム10の全体的な動作は、第1の実施形態の第1の変形例の認証システム10の全体的な動作と同じである。本変形例の認証システム10の、ステップS100及びステップS110の動作は、第1の実施形態の第1の変形例の認証システム10の、ステップS100及びステップS110の動作と同じである。ただし、ステップS110において出力される顔画像は、近赤外入力画像である。本変形例の認証システム10の、ステップS120の認証処理の動作は、第1の実施形態の第1の変形例の認証システム10のステップS120の認証処理の動作と異なる。
図8は、本変形例の認証システム10の認証処理の動作の例を表すフローチャートである。図8に示す動作では、認証部410が、瞳孔の位置の情報と顔画像とを受け取る(ステップS221)。ステップS221において受け取る顔画像は、近赤外入力画像である。次に、認証部410は、瞳孔の位置の情報に基づいて、顔画像から虹彩の領域を抽出する(ステップS222)。認証部410は、瞳孔の領域の画素値を、他の値(例えば、所定値)に設定する(ステップS223)。認証部410は、虹彩の領域から特徴量を抽出する(ステップS224)。認証部410は、抽出した特徴量に基づいて、認証を行う(ステップS225)。第2出力部420は、認証の結果を出力する(ステップS226)。
<第1の実施形態の第3の変形例>
次に、第1の実施形態の第3の変形例について説明する。
<<構成>>
図9は、本変形例の画像処理システム2の構成の例を表すブロック図である。画像処理システム2は、画像処理装置101と、可視撮像装置200と、近赤外撮像装置300とを含む。画像処理装置101は、可視撮像装置200によって得られた可視画像を取得できるように、可視撮像装置200と接続されている。画像処理装置101は、近赤外撮像装置300によって得られた近赤外画像を取得できるように、近赤外撮像装置300と接続されている。本変形例の画像処理装置101は、第1の実施形態の画像処理装置100の構成要素と同じ構成要素と、判定部181とを含む。
第3検出部180は、可視画像と、検出した瞳孔の情報とを、判定部181に送出する。第3検出部180は、可視画像として、反転可視画像を判定部181に送出してもよい。第3検出部180は、可視画像として、調整可視画像を判定部181に送出してもよい。第3検出部180は、可視画像として、可視入力画像を判定部181に送出してもよい。第3検出部180が送出する可視画像の種類は、予め定められていてよい。瞳孔の情報は、可視画像において瞳孔の位置を特定する情報を含む。瞳孔の情報は、例えば、可視画像における瞳孔の位置を表す情報を含んでいてもよい。瞳孔の情報は、例えば、相対位置と、近赤外入力画像における瞳孔の位置を表す情報を含んでいてもよい。相対位置は、上述の相対位置である。具体的には、相対位置は、調整可視画像と近赤外入力画像との重なり部分の差が最も小さくなる、調整可視画像と近赤外入力画像と相対位置である。
判定部181は、可視画像と、検出した瞳孔の情報とを受け取る。判定部181は、可視画像の、瞳孔の情報によって特定される、瞳孔の位置において、瞳孔を検出する。言い換えると、可視画像の、検出された瞳孔の位置に、瞳孔があるか否かを判定する。
例えば、顔画像を撮影された被撮像者がサングラスをかけている場合、可視画像では、目の領域が、可視光を吸収するサングラスによって遮蔽されるため、虹彩と瞳孔の明るさの差が小さくなる。サングラスが、濃い色のサングラスである場合、虹彩と瞳孔の明るさに明確な差がなくなる場合がある。サングラスが、さらに濃い色のサングラスである場合、サングラスによって遮蔽されている部分の明るさの差を確認できなくなる場合がある。しかし、一般に、サングラスは、近赤外線を透過する場合が多い。言い換えると、サングラスの近赤外の波長の電磁波に対する透過率は、可視光に対する透過率よりも高い場合が多い。そのような場合、近赤外入力画像に、瞳孔の再帰反射による明るい領域が存在すれば、合成画像から瞳孔を検出することは可能である。
判定部181は、例えば、可視画像における、検出された瞳孔の領域の明るさと、例えば、瞳孔の領域の周辺の領域(すなわち、虹彩の領域に相当する領域)の明るさとの差に基づいて、瞳孔を検出してよい。具体的には、判定部181は、例えば、可視画像における、瞳孔の領域の画素の画素値の平均と、瞳孔の領域の周辺の領域の画素の画素値の平均との差が、予め定められた閾値よりも小さい場合、瞳孔が検出されないと判定してよい。すなわち、この場合、判定部181は、サングラスが存在すると判定してよい。言い換えると、この場合、判定部181は、サングラスを検出してよい。判定部181は、例えば、可視画像における、瞳孔の領域の画素の画素値の平均と、瞳孔の領域の周辺の領域の画素の画素値の平均との差が、前述の閾値以上である場合、瞳孔が検出されると判定してよい。すなわち、この場合、判定部181は、サングラスが存在しないと判定してよい。言い換えると、この場合、判定部181は、サングラスが検出されないと判定してよい。
出力部190は、サングラスの検出の結果を出力する。画像処理装置101に上述の第1又は第2の変形例の認証装置400が接続されている場合、出力部190は、認証装置400が認証を行うために必要な情報を出力してもよい。
<<動作>>
次に、本変形例の画像処理装置101の動作について説明する。
図10は、本変形例の画像処理装置101の動作の全体の例を表すフローチャートである。図10に示す動作では、画像処理装置101は、瞳孔検出処理を行う(ステップS100)。ステップS100における瞳孔検出処理は、図5に示すステップS100における、第1の実施形態の第1の変形例及び第2の変形例の画像処理装置100の瞳孔検出処理と同じである。次に、画像処理装置101は、サングラス判定処理を行う(ステップS130)。サングラス判定処理については、後で詳細に説明する。画像処理装置101は、さらに、検出した瞳孔の情報と顔画像とを出力してもよい(ステップS110)。本変形例の画像処理装置101のステップS110の動作は、第1の実施形態の第1の変形例及び第2の変形例の画像処理装置100の、図5に示すステップS110における動作と同じである。
図11は、本変形例の画像処理装置100の、サングラス判定処理の動作の例を表すフローチャートである。図11に示す動作では、判定部181は、まず、瞳孔の位置の情報と、顔の可視画像を取得する(ステップS131)。顔の可視画像は、上述の、可視入力画像、調整可視画像、又は、反転可視画像である。瞳孔の位置の情報は、可視画像における、検出された瞳孔に位置を特定できる情報である。判定部181は、可視画像の瞳孔の位置において、瞳孔が検出されるか否かを判定する(ステップS132)。瞳孔が検出される場合(ステップS133においてYES)、判定部181は、サングラスが存在しないと判定する(ステップS134)。瞳孔が検出されない場合(ステップS133においてNO)、判定部181は、サングラスが存在すると判定する(ステップS135)。出力部190は、サングラスが存在するか否かの判定の結果を出力する(ステップS136)。
<第1の実施形態の第4の変形例>
次に、第1の実施形態の第4の変形例について説明する。
<<構成>>
図12は、本変形例の認証システム11の構成を表すブロック図である。図12に示す認証システム11は、画像処理装置102と、可視撮像装置200と、近赤外撮像装置300と、認証装置400と、光源500とを含む。本変形例の可視撮像装置200及び近赤外撮像装置300は、第1の実施形態の可視撮像装置200及び近赤外撮像装置と同じである。本変形例の認証装置400は、第1の実施形態の第1の変形例の認証装置400と同じである。本変形例の認証装置400は、第1の実施形態の第2の変形例の認証装置400と同じであってもよい。光源500は、近赤外線を照射する光源である。光源500は、照射する近赤外線の強度を、外部から制御可能であるように構成されている。
画像処理装置102は、第1の実施形態の画像処理装置100の構成要素と同じ構成要素と、光源制御部182とを含む。
本変形例の第3検出部180は、第1の実施形態の第3検出部180と同様に動作する。本変形例の第3検出部180は、さらに、可視画像の、検出された瞳孔の位置に、瞳孔が検出されるか否かを判定する。可視画像は、可視入力画像、調整可視画像、及び、反転可視画像のいずれか1つであってよい。第3検出部180によって瞳孔が検出されるか判定される可視画像は、予め決められていてよい。本変形例の第3検出部180の、可視画像から瞳孔が検出されるか判定する方法は、第3の変形例の判定部181の、可視画像から瞳孔が検出されるか判定する方法と同じであってよい。可視画像から瞳孔が検出されないと判定した場合、第3検出部180は、光源制御部182に、光源500が照射する近赤外線の強度を増加するように制御する指示を送信する。
光源制御部182は、例えば、第3検出部180からの指示に従って、光源500を制御する。具体的には、光源制御部182は、光源500が照射する光(すなわち、近赤外線)の強度を制御する。光源制御部182は、第3検出部180からの指示を受信すると、例えば、光源500が照射する光の強度を、所定量増加させるよう構成されていてもよい。光源制御部182が、光源500によって照射される光の強度を増加させた後、画像処理装置102は、再び、可視入力画像及び近赤外入力画像を取得し、取得した可視入力画像及び近赤外入力画像に基づいて、瞳孔の検出を行う。その際、光源制御部182が、簡単のため図12に示されていない経路を介して、第1入力部110に可視入力画像の取得を指示し、第2入力部120に近赤外入力画像の取得を指示してもよい。第1入力部110及び第2入力部120は、定期的に、それぞれの画像を取得するよう構成されていてもよい。
<<動作>>
次に、本変形例の認証システム11の動作について説明する。
図13は、本変形例の認証システム11の動作の例を表すフローチャートである。図13に示す動作の例では、画像処理装置102は、瞳孔検出処理を行う(ステップS100)。ステップS100の瞳孔検出処理は、第1の実施形態の第1の変形例の瞳孔検出処理と同じである。次に、画像処理装置102は、光源制御処理を行う(ステップS140)。後で詳細に説明するように、可視画像から瞳孔が検出されない場合、画像処理装置102は、光源制御処理によって、光源500が照射する近赤外線の強度を増加させる。そして、画像処理装置102は、近赤外線の強度が増加した状態で、再度、瞳孔検出処理を行う。出力部190は、瞳孔検出処理によって得られた、検出した瞳孔の情報と顔画像とを出力する(ステップS110)。ステップS110の動作は、第1の実施形態の第1の変形例のステップS110の動作と同様である。ただし、瞳孔検出処理が再度行われた場合、ステップS110において送信される瞳孔の情報と顔画像は、再度行われた瞳孔検出処理において得られた、瞳孔の情報と顔画像である。そして、認証装置400が、認証処理を行う(ステップS120)。ステップS120の認証処理は、第1の実施形態の第1の変形例のステップS120の認証処理の動作と同じである。
図14は、本変形例の認証システム11の、光源制御処理の動作の例を表すフローチャートである。図14の動作の例では、まず、第3検出部180が、可視画像の瞳孔の位置において、瞳孔が検出されるか判定する(ステップS141)。第3検出部180は、ステップS141において、第1の実施形態の第3の変形例の判定部181の、ステップS132における動作と同様に、可視画像から瞳孔が検出されるか判定してよい。可視画像から瞳孔が検出された場合(ステップS142においてYES)、画像処理装置102は、光源制御処理を終了する。可視画像から瞳孔が検出されない場合(ステップS142においてNO)、光源制御部182は、光源500の照射光を強める(ステップS143)。そして、画像処理装置102は、瞳孔検出処理を行う(ステップS144)。ステップS144における瞳孔検出処理は、ステップS100における瞳孔検出処理と同じでよい。
例えば、認証部位が虹彩であり、被撮像者がサングラスをかけており、そのサングラスによる近赤外線の吸収がゼロでない場合、近赤外入力画像における虹彩の領域の明るさは低下する。本変形例の光源制御部182が、光源500が照射する近赤外線の強度を増加させることによって、近赤外入力画像における虹彩の領域の明るさを向上させることができる。虹彩の領域の明るさが向上し、鮮明な虹彩の画像が得られれば、認証の精度が向上する。
なお、画像処理装置102は、光源制御部182が、光源500によって照射される近赤外線の強度を増加させた後、第1入力部110は可視入力画像を取得せず、第2入力部120は近赤外入力画像を取得するよう構成されていてもよい。この場合、出力部190は、最初に取得された可視入力画像及び近赤外入力画像に基づいて検出された瞳孔の情報と、照射される近赤外線の強度が増加した後に取得された近赤外入力画像とを出力するよう構成されていてもよい。
以上で説明した第1の実施形態の変形例は、可能な範囲でどのように組み合わせられていてもよい。
<第2の実施形態>
次に、本開示の第2の実施形態について、図面を参照して詳細に説明する。
<<構成>>
図15は、本実施形態の画像処理装置103の構成の例を表すブロック図である。図15に構成の一例を示す、画像処理装置103は、第1入力部110と、第2入力部120と、調整部130と、位置合わせ部160と、反転部170と、瞳孔検出部180と、出力部190と、を備える。
第1入力部110は、顔の可視画像を受け取る。第2入力部120は、前記顔の近赤外画像を受け取る。調整部130は、前記可視画像の画素値の頻度分布と、前記近赤外画像の画素値の頻度分布とに基づいて、前記可視画像の明るさを調整する。位置合わせ部160は、前記可視画像と前記近赤外画像とが対応する相対位置を特定する。反転部170は、調整された前記可視画像の明るさを反転する。瞳孔検出部180は、明るさが反転された前記可視画像と前記近赤外画像とを、前記相対位置に基づいて足し合わせた合成画像から、瞳孔の領域を検出する。出力部190は、検出した前記瞳孔の情報を出力する。瞳孔検出部180は、第1の実施形態の第3検出部180に相当する。
<<動作>>
次に、本実施形態の画像処理装置103の動作について、図面を参照して詳細に説明する。
図16は、本実施形態の画像処理装置103の動作の例を表すフローチャートである。図16に示す動作の例では、まず、第1入力部110が、可視画像を取得し、第2入力部120が、近赤外画像を取得する(ステップS201)。この可視画像は、第1の実施形態の可視入力画像に相当する。近赤外画像は、第1の実施形態の近赤外入力画像に相当する。次に、調整部130が、可視画像の画素値の頻度分布と近赤外画像の画素値の頻度分布とに基づいて、可視画像の明るさを調整する(ステップS202)。ステップS202の可視画像は、第1の実施形態の可視入力画像に相当する。可視画像の明るさの調整の方法は、第1の実施形態の調整部130による、可視入力画像の明るさの調整の方法と同じでよい。調整部130は、明るさが調整された調整可視画像を生成してよい。次に、位置合わせ部160が、可視画像と近赤外画像とが対応する相対位置を特定する位置合わせを行う(ステップS203)。ステップS203における可視画像は、ステップS202において明るさが調整された可視画像(第1の実施形態の調整可視画像に相当する)であってよい。次に、反転部170が、調整された可視画像の画素値を反転させる。反転部170が調整された可視画像の画素値を反転する方法は、第1の実施形態の反転部170が調整可視画像の画素値を反転する方法と同じであってよい。そして、瞳孔検出部180が、可視画像の画素値と近赤外の画素値とが、相対位置に基づいて足し合わされた合成画像から、瞳孔の領域を検出する(ステップS205)。ステップS205の可視画像は、調整された可視画像である。そして、出力部190が、検出した瞳孔の情報を出力する(ステップS206)。瞳孔の情報は、第1の実施形態の出力部190が出力する瞳孔の情報と同じであってよい。
<<効果>>
本実施形態には、瞳孔を検出するためのコストを低減することができるという効果がある。その理由は、第1の実施形態において、瞳孔を検出するためのコストを低減することができるという効果が生じる理由と同じである。
<他の実施形態>
本開示の上述の実施形態に係る画像処理装置及び認証装置は、それぞれ、記憶媒体から読み出されたプログラムがロードされたメモリと、そのプログラムを実行するプロセッサとを含むコンピュータによって実現することができる。コンピュータは、通信可能に接続された、複数のコンピュータによって実現されていてもよい。上述の実施形態に係る画像処理装置及び認証装置は、それぞれ、例えば回路等の、専用のハードウェアによって実現することもできる。上述の実施形態に係る画像処理装置及び認証装置は、それぞれ、前述のコンピュータと専用のハードウェアとの組み合わせによって実現することもできる。
図17は、上述の実施形態に係る画像処理装置及び認証装置を実現できる、コンピュータ1000のハードウェア構成の一例を表す図である。図17に示す例では、コンピュータ1000は、プロセッサ1001と、メモリ1002と、記憶装置1003と、I/O(Input/Output)インタフェース1004とを含む。また、コンピュータ1000は、記憶媒体1005にアクセスすることができる。メモリ1002と記憶装置1003は、例えば、RAM(Random Access Memory)、ハードディスクなどの記憶装置である。記憶媒体1005は、例えば、RAM、ハードディスクなどの記憶装置、ROM(Read Only Memory)、可搬記憶媒体である。記憶装置1003が記憶媒体1005であってもよい。プロセッサ1001は、メモリ1002と、記憶装置1003に対して、データやプログラムの読み出しと書き込みを行うことができる。プロセッサ1001は、I/Oインタフェース1004を介して、例えば、他の装置にアクセスすることができる。プロセッサ1001は、記憶媒体1005にアクセスすることができる。記憶媒体1005には、コンピュータ1000を、上述の実施形態に係る画像処理装置及び認証装置としてそれぞれ動作させるプログラムのいずれかが格納されている。
プロセッサ1001は、記憶媒体1005に格納されている、コンピュータ1000を、上述の実施形態に係る装置(すなわち、画像処理装置及び認証装置のいずれか)として動作させるプログラムを、メモリ1002にロードする。そして、プロセッサ1001が、メモリ1002にロードされたプログラムを実行することにより、コンピュータ1000は、上述の装置として動作する。
第1入力部110、第2入力部120、調整部130、第1検出部140、第2検出部150、位置合わせ部160、反転部170、第3検出部180、出力部190は、メモリ1002にロードされたプログラムを実行するプロセッサ1001により実現できる。判定部181、光源制御部182も、メモリ1002にロードされたプログラムを実行するプロセッサ1001により実現できる。瞳孔検出部180も、メモリ1002にロードされたプログラムを実行するプロセッサ1001により実現できる。
第1入力部110、第2入力部120、調整部130、第1検出部140、第2検出部150、位置合わせ部160、反転部170、第3検出部180、出力部190の一部または全部は、専用の回路によって実現できる。判定部181、光源制御部182、瞳孔検出部180の一部または全部も、専用の回路によって実現できる。
また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
顔の可視画像を受け取る第1入力手段と、
前記顔の近赤外画像を受け取る第2入力手段と、
前記可視画像の画素値の頻度分布と、前記近赤外画像の画素値の頻度分布とに基づいて、前記可視画像の明るさを調整する調整手段と、
前記可視画像と前記近赤外画像とが対応する相対位置を特定する位置合わせ手段と、
調整された前記可視画像の明るさを反転する反転手段と、
明るさが反転された前記可視画像と前記近赤外画像とを、前記相対位置に基づいて足し合わせた合成画像から、瞳孔の領域を検出する瞳孔検出手段と、
検出した前記瞳孔の情報を出力する出力手段と、
を備える画像処理装置。
(付記2)
前記可視画像から顔を検出する第1検出手段と、
前記近赤外画像から顔を検出する第2検出手段と、
を備え、
前記瞳孔検出手段は、前記可視画像及び前記近赤外画像の双方から顔が検出された場合、前記瞳孔の領域を検出する
付記1に記載の画像処理装置。
(付記3)
前記調整手段は、前記可視画像の画素値の分布を、前記近赤外画像の画素値の分布に近づけるように、前記可視画像の画素値の調整を行う
付記1または2に記載の画像処理装置。
(付記4)
前記調整手段は、前記近赤外画像の、最も暗い画素値を含む第1の範囲と最も明るい画素値を含む第2の範囲とを除く、画素値の範囲において、前記近赤外画像の前記頻度分布の形状に、前記可視画像の前記頻度分布の形状の少なくとも一部が近づくよう、前記可視画像の画素値の調整を行う
付記1乃至3のいずれか1項に記載の画像処理装置。
(付記5)
前記調整手段は、前記可視画像の前記頻度分布の、最も暗い画素値から第1の範囲における、頻度ピークが示す画素値が、前記近赤外画像の前記頻度分布の、最も暗い画素値から第2の範囲における、頻度のピークを示す画素値に一致するように、前記可視画像の画素値の調整を行う
付記4に記載の画像処理装置。
(付記6)
前記可視画像の、前記瞳孔の領域を含む領域における画素の画素値に基づいて、サングラスの装着を判定する判定手段
を備える付記1乃至5のいずれか1項に記載の画像処理装置。
(付記7)
前記瞳孔の領域を含む領域における画素の画素値に基づく、前記顔に光を照射する光源の光の強さの制御を行う光源制御手段
を備える付記1乃至6のいずれか1項に記載の画像処理装置。
(付記8)
前記可視画像を撮像する可視撮像装置と、
前記近赤外画像を撮像する近赤外撮像装置と、
付記1乃至7のいずれか1項に記載の画像処理装置と、
を含む画像処理システム。
(付記9)
顔の可視画像を受け取り、
前記顔の近赤外画像を受け取り、
前記可視画像の画素値の頻度分布と、前記近赤外画像の画素値の頻度分布とに基づいて、前記可視画像の明るさを調整し、
前記可視画像と前記近赤外画像とが対応する相対位置を特定する位置合わせ手段と、
調整された前記可視画像の明るさを反転し、
明るさが反転された前記可視画像と前記近赤外画像とを、前記相対位置に基づいて足し合わせた合成画像から、瞳孔の領域を検出し、
検出した前記瞳孔の情報を出力する、
画像処理方法。
(付記10)
前記可視画像から顔を検出し、
前記近赤外画像から顔を検出し、
前記可視画像及び前記近赤外画像の双方から顔が検出された場合、前記瞳孔の領域を検出する
付記9に記載の画像処理方法。
(付記11)
前記可視画像の画素値の分布を、前記近赤外画像の画素値の分布に近づけるように、前記可視画像の画素値の調整を行う
付記9または10に記載の画像処理方法。
(付記12)
前記近赤外画像の、最も暗い画素値を含む第1の範囲と最も明るい画素値を含む第2の範囲とを除く、画素値の範囲において、前記近赤外画像の前記頻度分布の形状に、前記可視画像の前記頻度分布の形状の少なくとも一部が近づくよう、前記可視画像の画素値の調整を行う
付記9乃至11のいずれか1項に記載の画像処理方法。
(付記13)
前記可視画像の前記頻度分布の、最も暗い画素値から第1の範囲における、頻度ピークが示す画素値が、前記近赤外画像の前記頻度分布の、最も暗い画素値から第2の範囲における、頻度のピークを示す画素値に一致するように、前記可視画像の画素値の調整を行う
付記12に記載の画像処理方法。
(付記14)
前記可視画像の、前記瞳孔の領域を含む領域における画素の画素値に基づいて、サングラスの装着を判定する
付記9乃至13のいずれか1項に記載の画像処理方法。
(付記15)
前記瞳孔の領域を含む領域における画素の画素値に基づく、前記顔に光を照射する光源の光の強さの制御を行う
付記9乃至14のいずれか1項に記載の画像処理方法。
(付記16)
顔の可視画像を受け取る第1入力処理と、
前記顔の近赤外画像を受け取る第2入力処理と、
前記可視画像の画素値の頻度分布と、前記近赤外画像の画素値の頻度分布とに基づいて、前記可視画像の明るさを調整する調整処理と、
前記可視画像と前記近赤外画像とが対応する相対位置を特定する位置合わせ処理と、
調整された前記可視画像の明るさを反転する反転処理と、
明るさが反転された前記可視画像と前記近赤外画像とを、前記相対位置に基づいて足し合わせた合成画像から、瞳孔の領域を検出する瞳孔検出処理と、
検出した前記瞳孔の情報を出力する出力処理と、
をコンピュータに実行させるプログラムを記憶する記憶媒体。
(付記17)
前記プログラムは、
前記可視画像から顔を検出する第1検出処理と、
前記近赤外画像から顔を検出する第2検出処理と、
をコンピュータにさらに実行させ、
前記瞳孔検出処理は、前記可視画像及び前記近赤外画像の双方から顔が検出された場合、前記瞳孔の領域を検出する
付記16に記載の記憶媒体。
(付記18)
前記調整処理は、前記可視画像の画素値の分布を、前記近赤外画像の画素値の分布に近づけるように、前記可視画像の画素値の調整を行う
付記16または17に記載の記憶媒体。
(付記19)
前記調整処理は、前記近赤外画像の、最も暗い画素値を含む第1の範囲と最も明るい画素値を含む第2の範囲とを除く、画素値の範囲において、前記近赤外画像の前記頻度分布の形状に、前記可視画像の前記頻度分布の形状の少なくとも一部が近づくよう、前記可視画像の画素値の調整を行う
付記16乃至18のいずれか1項に記載の記憶媒体。
(付記20)
前記調整処理は、前記可視画像の前記頻度分布の、最も暗い画素値から第1の範囲における、頻度ピークが示す画素値が、前記近赤外画像の前記頻度分布の、最も暗い画素値から第2の範囲における、頻度のピークを示す画素値に一致するように、前記可視画像の画素値の調整を行う
付記19に記載の記憶媒体。
(付記21)
前記プログラムは、
前記可視画像の、前記瞳孔の領域を含む領域における画素の画素値に基づいて、サングラスの装着を判定する判定処理
をさらにコンピュータに実行させる付記16乃至20のいずれか1項に記載の記憶媒体。
(付記22)
前記プログラムは、
前記瞳孔の領域を含む領域における画素の画素値に基づく、前記顔に光を照射する光源の光の強さの制御を行う光源制御処理
をさらにコンピュータに実行させる付記16乃至21のいずれか1項に記載の記憶媒体。
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
1 画像処理システム
2 画像処理システム
10 認証システム
11 認証システム
100 画像処理装置
101 画像処理装置
102 画像処理装置
103 画像処理装置
110 第1入力部
120 第2入力部
130 調整部
140 第1検出部
150 第2検出部
160 位置合わせ部
170 反転部
180 第3検出部
180 瞳孔検出部
181 判定部
182 光源制御部
190 出力部
200 可視撮像装置
300 近赤外撮像装置
400 認証装置
410 認証部
420 第2出力部
500 光源
1000 コンピュータ
1001 プロセッサ
1002 メモリ
1003 記憶装置
1004 I/Oインタフェース
1005 記憶媒体

Claims (22)

  1. 顔の可視画像を受け取る第1入力手段と、
    前記顔の近赤外画像を受け取る第2入力手段と、
    前記可視画像の画素値の頻度分布と、前記近赤外画像の画素値の頻度分布とに基づいて、前記可視画像の明るさを調整する調整手段と、
    前記可視画像と前記近赤外画像とが対応する相対位置を特定する位置合わせ手段と、
    調整された前記可視画像の明るさを反転する反転手段と、
    明るさが反転された前記可視画像と前記近赤外画像とを、前記相対位置に基づいて足し合わせた合成画像から、瞳孔の領域を検出する瞳孔検出手段と、
    検出した前記瞳孔の情報を出力する出力手段と、
    を備える画像処理装置。
  2. 前記可視画像から顔を検出する第1検出手段と、
    前記近赤外画像から顔を検出する第2検出手段と、
    を備え、
    前記瞳孔検出手段は、前記可視画像及び前記近赤外画像の双方から顔が検出された場合、前記瞳孔の領域を検出する
    請求項1に記載の画像処理装置。
  3. 前記調整手段は、前記可視画像の画素値の分布を、前記近赤外画像の画素値の分布に近づけるように、前記可視画像の画素値の調整を行う
    請求項1または2に記載の画像処理装置。
  4. 前記調整手段は、前記近赤外画像の、最も暗い画素値を含む第1の範囲と最も明るい画素値を含む第2の範囲とを除く、画素値の範囲において、前記近赤外画像の前記頻度分布の形状に、前記可視画像の前記頻度分布の形状の少なくとも一部が近づくよう、前記可視画像の画素値の調整を行う
    請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記調整手段は、前記可視画像の前記頻度分布の、最も暗い画素値から第1の範囲における、頻度ピークが示す画素値が、前記近赤外画像の前記頻度分布の、最も暗い画素値から第2の範囲における、頻度のピークを示す画素値に一致するように、前記可視画像の画素値の調整を行う
    請求項4に記載の画像処理装置。
  6. 前記可視画像の、前記瞳孔の領域を含む領域における画素の画素値に基づいて、サングラスの装着を判定する判定手段
    を備える請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記瞳孔の領域を含む領域における画素の画素値に基づく、前記顔に光を照射する光源の光の強さの制御を行う光源制御手段
    を備える請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記可視画像を撮像する可視撮像装置と、
    前記近赤外画像を撮像する近赤外撮像装置と、
    請求項1乃至7のいずれか1項に記載の画像処理装置と、
    を含む画像処理システム。
  9. 顔の可視画像を受け取り、
    前記顔の近赤外画像を受け取り、
    前記可視画像の画素値の頻度分布と、前記近赤外画像の画素値の頻度分布とに基づいて、前記可視画像の明るさを調整し、
    前記可視画像と前記近赤外画像とが対応する相対位置を特定する位置合わせ手段と、
    調整された前記可視画像の明るさを反転し、
    明るさが反転された前記可視画像と前記近赤外画像とを、前記相対位置に基づいて足し合わせた合成画像から、瞳孔の領域を検出し、
    検出した前記瞳孔の情報を出力する、
    画像処理方法。
  10. 前記可視画像から顔を検出し、
    前記近赤外画像から顔を検出し、
    前記可視画像及び前記近赤外画像の双方から顔が検出された場合、前記瞳孔の領域を検出する
    請求項9に記載の画像処理方法。
  11. 前記可視画像の画素値の分布を、前記近赤外画像の画素値の分布に近づけるように、前記可視画像の画素値の調整を行う
    請求項9または10に記載の画像処理方法。
  12. 前記近赤外画像の、最も暗い画素値を含む第1の範囲と最も明るい画素値を含む第2の範囲とを除く、画素値の範囲において、前記近赤外画像の前記頻度分布の形状に、前記可視画像の前記頻度分布の形状の少なくとも一部が近づくよう、前記可視画像の画素値の調整を行う
    請求項9乃至11のいずれか1項に記載の画像処理方法。
  13. 前記可視画像の前記頻度分布の、最も暗い画素値から第1の範囲における、頻度ピークが示す画素値が、前記近赤外画像の前記頻度分布の、最も暗い画素値から第2の範囲における、頻度のピークを示す画素値に一致するように、前記可視画像の画素値の調整を行う
    請求項12に記載の画像処理方法。
  14. 前記可視画像の、前記瞳孔の領域を含む領域における画素の画素値に基づいて、サングラスの装着を判定する
    請求項9乃至13のいずれか1項に記載の画像処理方法。
  15. 前記瞳孔の領域を含む領域における画素の画素値に基づく、前記顔に光を照射する光源の光の強さの制御を行う
    請求項9乃至14のいずれか1項に記載の画像処理方法。
  16. 顔の可視画像を受け取る第1入力処理と、
    前記顔の近赤外画像を受け取る第2入力処理と、
    前記可視画像の画素値の頻度分布と、前記近赤外画像の画素値の頻度分布とに基づいて、前記可視画像の明るさを調整する調整処理と、
    前記可視画像と前記近赤外画像とが対応する相対位置を特定する位置合わせ処理と、
    調整された前記可視画像の明るさを反転する反転処理と、
    明るさが反転された前記可視画像と前記近赤外画像とを、前記相対位置に基づいて足し合わせた合成画像から、瞳孔の領域を検出する瞳孔検出処理と、
    検出した前記瞳孔の情報を出力する出力処理と、
    をコンピュータに実行させるプログラムを記憶する記憶媒体。
  17. 前記プログラムは、
    前記可視画像から顔を検出する第1検出処理と、
    前記近赤外画像から顔を検出する第2検出処理と、
    をコンピュータにさらに実行させ、
    前記瞳孔検出処理は、前記可視画像及び前記近赤外画像の双方から顔が検出された場合、前記瞳孔の領域を検出する
    請求項16に記載の記憶媒体。
  18. 前記調整処理は、前記可視画像の画素値の分布を、前記近赤外画像の画素値の分布に近づけるように、前記可視画像の画素値の調整を行う
    請求項16または17に記載の記憶媒体。
  19. 前記調整処理は、前記近赤外画像の、最も暗い画素値を含む第1の範囲と最も明るい画素値を含む第2の範囲とを除く、画素値の範囲において、前記近赤外画像の前記頻度分布の形状に、前記可視画像の前記頻度分布の形状の少なくとも一部が近づくよう、前記可視画像の画素値の調整を行う
    請求項16乃至18のいずれか1項に記載の記憶媒体。
  20. 前記調整処理は、前記可視画像の前記頻度分布の、最も暗い画素値から第1の範囲における、頻度ピークが示す画素値が、前記近赤外画像の前記頻度分布の、最も暗い画素値から第2の範囲における、頻度のピークを示す画素値に一致するように、前記可視画像の画素値の調整を行う
    請求項19に記載の記憶媒体。
  21. 前記プログラムは、
    前記可視画像の、前記瞳孔の領域を含む領域における画素の画素値に基づいて、サングラスの装着を判定する判定処理
    をさらにコンピュータに実行させる請求項16乃至20のいずれか1項に記載の記憶媒体。
  22. 前記プログラムは、
    前記瞳孔の領域を含む領域における画素の画素値に基づく、前記顔に光を照射する光源の光の強さの制御を行う光源制御処理
    をさらにコンピュータに実行させる請求項16乃至21のいずれか1項に記載の記憶媒体。
JP2020560667A 2018-12-18 2018-12-18 画像処理装置、画像処理方法及びプログラム Pending JPWO2020129138A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/046446 WO2020129138A1 (ja) 2018-12-18 2018-12-18 画像処理装置、画像処理方法及び記憶媒体

Publications (1)

Publication Number Publication Date
JPWO2020129138A1 true JPWO2020129138A1 (ja) 2021-10-28

Family

ID=71102233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020560667A Pending JPWO2020129138A1 (ja) 2018-12-18 2018-12-18 画像処理装置、画像処理方法及びプログラム

Country Status (5)

Country Link
US (5) US11763598B2 (ja)
EP (1) EP3900629A4 (ja)
JP (1) JPWO2020129138A1 (ja)
CN (1) CN113453618A (ja)
WO (1) WO2020129138A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11763598B2 (en) * 2018-12-18 2023-09-19 Nec Corporation Image processing device, image processing method, and storage medium
US11875544B2 (en) * 2020-04-30 2024-01-16 Teledyne Flir Commercial Systems, Inc. Annotation of infrared images for machine learning using beamsplitter-based camera system and methods
JP6956985B1 (ja) 2020-12-22 2021-11-02 株式会社スワローインキュベート 目検出方法、目検出装置及び目検出プログラム
CN115205939B (zh) * 2022-07-14 2023-07-25 北京百度网讯科技有限公司 人脸活体检测模型训练方法、装置、电子设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03165737A (ja) * 1989-11-27 1991-07-17 Nippon Telegr & Teleph Corp <Ntt> 視線方向検出方法
JP2001340300A (ja) * 2000-05-31 2001-12-11 Mixed Reality Systems Laboratory Inc 瞳孔位置検出装置及び方法、視点位置検出装置及び方法、並びに立体画像表示システム
JP2008246004A (ja) * 2007-03-30 2008-10-16 National Univ Corp Shizuoka Univ 瞳孔検出方法
JP2014078052A (ja) * 2012-10-09 2014-05-01 Sony Corp 認証装置および方法、並びにプログラム
JP2015232771A (ja) * 2014-06-09 2015-12-24 国立大学法人静岡大学 顔検出方法、顔検出システム、および顔検出プログラム
JP2016093253A (ja) * 2014-11-12 2016-05-26 国立大学法人静岡大学 瞳孔検出用光源装置の制御方法
JP2016095584A (ja) * 2014-11-12 2016-05-26 国立大学法人静岡大学 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム
JP2017038162A (ja) * 2015-08-07 2017-02-16 キヤノン株式会社 撮像装置及び画像処理方法、プログラム、並びに記憶媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3214195B2 (ja) 1993-11-11 2001-10-02 三菱電機株式会社 運転者撮影装置
JP4528980B2 (ja) 2005-08-23 2010-08-25 国立大学法人静岡大学 瞳孔検出装置及び瞳孔検出方法
US8457352B2 (en) 2007-05-23 2013-06-04 The University Of British Columbia Methods and apparatus for estimating point-of-gaze in three dimensions
JP5949389B2 (ja) * 2012-09-24 2016-07-06 富士通株式会社 検出装置、検出プログラムおよび検出方法
US20160011657A1 (en) * 2014-07-14 2016-01-14 Futurewei Technologies, Inc. System and Method for Display Enhancement
WO2017013913A1 (ja) 2015-07-17 2017-01-26 ソニー株式会社 視線検出装置、アイウェア端末、視線検出方法及びプログラム
JP2017097645A (ja) * 2015-11-25 2017-06-01 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
CN105678286B (zh) * 2016-02-29 2019-03-15 徐鹤菲 一种瞳孔定位方法及设备
KR20180014624A (ko) 2016-08-01 2018-02-09 삼성전자주식회사 홍채 인증 시스템 및 방법
EP3699808B1 (en) 2017-11-14 2023-10-25 Huawei Technologies Co., Ltd. Facial image detection method and terminal device
JP7171254B2 (ja) * 2018-06-13 2022-11-15 キヤノン株式会社 画像処理装置、撮像装置、および画像処理方法
US11763598B2 (en) * 2018-12-18 2023-09-19 Nec Corporation Image processing device, image processing method, and storage medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03165737A (ja) * 1989-11-27 1991-07-17 Nippon Telegr & Teleph Corp <Ntt> 視線方向検出方法
JP2001340300A (ja) * 2000-05-31 2001-12-11 Mixed Reality Systems Laboratory Inc 瞳孔位置検出装置及び方法、視点位置検出装置及び方法、並びに立体画像表示システム
JP2008246004A (ja) * 2007-03-30 2008-10-16 National Univ Corp Shizuoka Univ 瞳孔検出方法
JP2014078052A (ja) * 2012-10-09 2014-05-01 Sony Corp 認証装置および方法、並びにプログラム
JP2015232771A (ja) * 2014-06-09 2015-12-24 国立大学法人静岡大学 顔検出方法、顔検出システム、および顔検出プログラム
JP2016093253A (ja) * 2014-11-12 2016-05-26 国立大学法人静岡大学 瞳孔検出用光源装置の制御方法
JP2016095584A (ja) * 2014-11-12 2016-05-26 国立大学法人静岡大学 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム
JP2017038162A (ja) * 2015-08-07 2017-02-16 キヤノン株式会社 撮像装置及び画像処理方法、プログラム、並びに記憶媒体

Also Published As

Publication number Publication date
US20220277587A1 (en) 2022-09-01
US11776310B2 (en) 2023-10-03
EP3900629A4 (en) 2022-04-13
CN113453618A (zh) 2021-09-28
US11776311B2 (en) 2023-10-03
US20220180655A1 (en) 2022-06-09
US12014572B2 (en) 2024-06-18
WO2020129138A1 (ja) 2020-06-25
US20220036046A1 (en) 2022-02-03
US11763598B2 (en) 2023-09-19
US11776312B2 (en) 2023-10-03
EP3900629A1 (en) 2021-10-27
US20220180656A1 (en) 2022-06-09
US20230368573A1 (en) 2023-11-16

Similar Documents

Publication Publication Date Title
JPWO2020129138A1 (ja) 画像処理装置、画像処理方法及びプログラム
US10445574B2 (en) Method and apparatus for iris recognition
US20190236404A1 (en) Image processing apparatus image processing method and storage medium for lighting processing on image using model data
US8605955B2 (en) Methods and apparatuses for half-face detection
US20160019420A1 (en) Multispectral eye analysis for identity authentication
US20170091550A1 (en) Multispectral eye analysis for identity authentication
US9495590B1 (en) Extended depth-of-field biometric system
EP3440593B1 (en) Method and apparatus for iris recognition
KR102317180B1 (ko) 3차원 깊이정보 및 적외선정보에 기반하여 생체여부의 확인을 행하는 얼굴인식 장치 및 방법
CN111598065B (zh) 深度图像获取方法及活体识别方法、设备、电路和介质
JP2007128127A (ja) 顔検出方法および装置並びにプログラム
WO2019163065A1 (ja) なりすまし検知装置、なりすまし検知方法、及びコンピュータ読み取り可能な記録媒体
US9600871B2 (en) Image correcting apparatus, image correcting method and computer readable recording medium recording program thereon
JP7401013B2 (ja) 情報処理装置、制御装置、情報処理方法及びプログラム
US9349071B2 (en) Device for detecting pupil taking account of illuminance and method thereof
WO2017141730A1 (ja) 画像処理装置および方法、並びにプログラム
KR20190072643A (ko) 얼굴 검출 장치 및 그 제어 방법, 그리고 프로그램
CN111699495B (zh) 反欺骗面部id感测
KR20200034018A (ko) 적외선 영상 기반 얼굴 인식 방법 및 이를 위한 학습 방법
US11640663B1 (en) Method of determining suitability of skin analysis image and apparatus therefor
WO2023181108A1 (ja) カメラ制御装置、制御方法、及び非一時的なコンピュータ可読媒体
Jo et al. Adaptive white point extraction based on dark channel prior for automatic white balance
KR20230035975A (ko) 인공 지능 학습을 위한 학습용 영상 촬영 장치 및 방법
KR20200115728A (ko) 차량의 운전자 판단 장치 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210608

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230208

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230208

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230217

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230221

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230407

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240621