JP2017201303A - Image processing method and image processor - Google Patents

Image processing method and image processor Download PDF

Info

Publication number
JP2017201303A
JP2017201303A JP2017074535A JP2017074535A JP2017201303A JP 2017201303 A JP2017201303 A JP 2017201303A JP 2017074535 A JP2017074535 A JP 2017074535A JP 2017074535 A JP2017074535 A JP 2017074535A JP 2017201303 A JP2017201303 A JP 2017201303A
Authority
JP
Japan
Prior art keywords
value
unit
image
image processing
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017074535A
Other languages
Japanese (ja)
Other versions
JP6409088B2 (en
Inventor
優 川端
Masaru Kawabata
優 川端
貴司 中野
Takashi Nakano
貴司 中野
夏秋 和弘
Kazuhiro Kashu
和弘 夏秋
瀧本 貴博
Takahiro Takimoto
貴博 瀧本
信夫 山崎
Nobuo Yamazaki
信夫 山崎
大輔 本田
Daisuke Honda
大輔 本田
幸夫 玉井
Yukio Tamai
幸夫 玉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to US15/494,603 priority Critical patent/US10521660B2/en
Priority to KR1020170052987A priority patent/KR102011195B1/en
Priority to CN201710288252.2A priority patent/CN107341771B/en
Publication of JP2017201303A publication Critical patent/JP2017201303A/en
Application granted granted Critical
Publication of JP6409088B2 publication Critical patent/JP6409088B2/en
Priority to US16/668,088 priority patent/US20200065581A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Input (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To increase the accuracy of iris verification.SOLUTION: The image processing method includes: a luminance value information acquisition step for acquiring an effective radiant luminance value from an object; and an image generation step for removing at least a part of regular reflection optical components in the surface of the object from the effective radiant luminance value and generating the taken image as a collection of unit regions having the obtained luminance value.SELECTED DRAWING: Figure 16

Description

以下の開示は、虹彩認証に用いる画像に対する処理を行う画像処理方法、画像処理装置および画像処理プログラムに関する。   The following disclosure relates to an image processing method, an image processing apparatus, and an image processing program for performing processing on an image used for iris authentication.

近年、被写体を撮影した画像において、被写体からの反射光に含まれる拡散反射成分と鏡面反射成分とを分離する技術が開発されている。これは、画像処理アルゴリズムの多くは拡散反射を前提としており、鏡面反射は画像処理アルゴリズムの性能低下の要因となり得るためである。上記2つの反射成分を分離する技術の一例が、特許文献1に開示されている。   In recent years, a technique for separating a diffuse reflection component and a specular reflection component included in reflected light from a subject in an image obtained by photographing the subject has been developed. This is because most image processing algorithms are based on diffuse reflection, and specular reflection can be a factor in reducing the performance of the image processing algorithm. An example of a technique for separating the two reflection components is disclosed in Patent Document 1.

特許文献1には、下記(1)〜(5)の工程を含む画像処理方法が開示されている。
(1)任意の照明下で、主軸方向が互いに異なる偏光素子を通してカメラにより被写体の複数の画像を撮影する。
(2)撮影した複数の画像の、鏡面反射が生じている画素群について、画素毎に、被写体の法線ベクトルと視線ベクトルとから入射面を特定する。
(3)上記画素毎に、被写体の法線ベクトルと視線ベクトルとから入射角を特定する。
(4)入射面及び入射角の両方が類似している画素同士をクラスタリングして画素集合を形成する。
(5)画素集合において、拡散反射成分と鏡面反射成分との間の確率的独立性を仮定して反射成分を分離する。
Patent Document 1 discloses an image processing method including the following steps (1) to (5).
(1) A plurality of images of a subject are photographed by a camera through polarizing elements having different principal axis directions under arbitrary illumination.
(2) For a pixel group in which specular reflection occurs in a plurality of captured images, an incident surface is specified for each pixel from the normal vector and the line-of-sight vector of the subject.
(3) The incident angle is specified for each pixel from the normal vector and the line-of-sight vector of the subject.
(4) Pixels having similar incident surfaces and incident angles are clustered to form a pixel set.
(5) In the pixel set, the reflection component is separated assuming a stochastic independence between the diffuse reflection component and the specular reflection component.

特許文献1の画像処理方法によれば、一般の照明環境においても拡散反射成分と鏡面反射成分を分離することができる。   According to the image processing method of Patent Literature 1, it is possible to separate the diffuse reflection component and the specular reflection component even in a general illumination environment.

特許第3955616号公報(2007年5月11日登録)Japanese Patent No. 3955616 (registered on May 11, 2007)

しかしながら、特許文献1には、被写体からの反射光に含まれる正反射光成分を低減しして虹彩認証を行うことについての開示は無い。   However, Patent Document 1 does not disclose that iris recognition is performed by reducing the regular reflection light component included in the reflected light from the subject.

本開示の一態様は、正反射光成分を低減することが可能な画像処理方法等を実現することを目的とする。   An object of one embodiment of the present disclosure is to realize an image processing method or the like that can reduce specular reflection light components.

上記の課題を解決するために、本開示の一態様に係る画像処理方法は、主軸方向が互いに異なる複数の偏光素子と対応付けられた複数の画素を1つの画素ユニットとし、前記画素ユニットが二次元的に配列された撮像素子によって、当該撮像素子における被写体の実効的な放射輝度値である実効放射輝度値を当該被写体から取得する輝度値情報取得ステップと、前記被写体から取得した実効放射輝度値を用いて前記被写体の像を含む撮像画像を生成する画像生成ステップとを含み、前記画像生成ステップにおいて、前記被写体の少なくとも一部に対応する前記画素ユニットごとに、当該画素ユニットに含まれる複数の画素の実効放射輝度値から、前記被写体の表面での正反射光成分の少なくとも一部を除去し、得られた輝度値を有する単位領域の集合としての前記撮像画像を生成する。   In order to solve the above problem, an image processing method according to an aspect of the present disclosure uses a plurality of pixels associated with a plurality of polarization elements having different principal axis directions as one pixel unit, and the pixel unit includes two pixel units. Luminance value information acquisition step of acquiring from the subject an effective radiance value that is an effective radiance value of the subject in the image sensor, and an effective radiance value acquired from the subject. An image generation step of generating a captured image including the image of the subject by using a plurality of pixel units included in the pixel unit corresponding to at least a part of the subject in the image generation step. A unit area having a luminance value obtained by removing at least part of the specularly reflected light component on the surface of the subject from the effective radiance value of the pixel. Generating the captured image as a set of.

また、本開示の一態様に係る画像処理方法は、主軸方向が互いに異なる複数の偏光素子と対応付けられた複数の画素を1つの画素ユニットとし、該画素ユニットが二次元的に配列された撮像素子によって撮影された被写体の画像を取得するステップと、前記撮像素子における前記画素ユニットの二次元的位置と対応する前記被写体上の位置により決まる前記被写体への入射角に依存したS偏光の輝度分布を、前記撮像素子の出力を用いて算出するステップと、を含む。   The image processing method according to an aspect of the present disclosure includes a plurality of pixels associated with a plurality of polarizing elements having different principal axis directions as one pixel unit, and imaging in which the pixel units are two-dimensionally arranged. A step of acquiring an image of a subject photographed by an element, and a luminance distribution of S-polarized light depending on an incident angle to the subject determined by a position on the subject corresponding to a two-dimensional position of the pixel unit in the image sensor Calculating using the output of the image sensor.

また、本開示の一態様に係る画像処理装置は、主軸方向が互いに異なる複数の偏光素子と対応付けられた複数の画素を1つの画素ユニットとし、前記画素ユニットが二次元的に配列された撮像素子を備える画像処理装置であって、前記撮像素子によって当該撮像素子における被写体の実効的な放射輝度値である実効放射輝度値を当該被写体から取得する輝度値情報取得部と、前記被写体から取得した実効放射輝度値を用いて前記被写体の像を含む撮像画像を生成する画像生成部とを含み、前記画像生成部は、前記被写体の少なくとも一部に対応する前記画素ユニットごとに、当該画素ユニットに含まれる複数の画素の実効放射輝度値から、前記被写体の表面での正反射光成分の少なくとも一部を除去し、得られた輝度値を有する単位領域の集合としての前記撮像画像を生成する。   In addition, an image processing apparatus according to an aspect of the present disclosure includes a plurality of pixels associated with a plurality of polarizing elements having different principal axis directions as one pixel unit, and imaging in which the pixel units are two-dimensionally arranged. An image processing apparatus including an element, the luminance value information acquisition unit that acquires from the subject an effective radiance value that is an effective radiance value of the subject in the imaging element by the imaging element, and acquired from the subject An image generation unit that generates a captured image including an image of the subject using an effective radiance value, and the image generation unit includes a pixel unit for each pixel unit corresponding to at least a part of the subject. At least a part of the specularly reflected light component on the surface of the subject is removed from the effective radiance values of a plurality of pixels included, and a collection of unit regions having the obtained brightness values is removed. Generating the captured image as.

本開示の一態様に係る画像処理方法および画像処理装置によれば、正反射光成分を低減することが可能な画像処理方法等を実現することができる。   According to the image processing method and the image processing apparatus according to an aspect of the present disclosure, it is possible to realize an image processing method or the like that can reduce the specular reflection light component.

本実施形態の画像処理方法における処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process in the image processing method of this embodiment. 画像処理装置の概要を説明するための図である。It is a figure for demonstrating the outline | summary of an image processing apparatus. 画像処理装置における画像処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the image processing in an image processing apparatus. 本実施形態の画像処理装置を備える携帯情報端末の構成を示すブロック図である。It is a block diagram which shows the structure of a portable information terminal provided with the image processing apparatus of this embodiment. (a)および(b)は、カメラが備える集積偏光子の別の例を示す図である。(A) And (b) is a figure which shows another example of the integrated polarizer with which a camera is provided. 画像処理装置における処理に用いる値について説明するための図である。It is a figure for demonstrating the value used for the process in an image processing apparatus. 偏光角に対する、画素において受光される光の受光強度を示すグラフである。It is a graph which shows the light reception intensity | strength of the light received in a pixel with respect to a polarization angle. 入射角に対するS偏光およびP偏光の反射係数を示すグラフである。It is a graph which shows the reflection coefficient of S polarized light and P polarized light with respect to an incident angle. 本実施形態の画像処理方法における処理の流れの、別の例を示すフローチャートである。It is a flowchart which shows another example of the flow of a process in the image processing method of this embodiment. (a)および(b)はいずれも、本実施形態の画像処理方法における処理の流れの、さらに別の例を示すフローチャートである。(A) And (b) is a flowchart which shows another example of the flow of the process in the image processing method of this embodiment. ゴムボールへの光の入射角に対する、S偏光の反射強度を示すグラフである。It is a graph which shows the reflection intensity of S polarized light with respect to the incident angle of the light to a rubber ball. 本実施形態の画像処理装置による画像処理の実験結果を示す画像の概略を示す図である。It is a figure which shows the outline of the image which shows the experimental result of the image processing by the image processing apparatus of this embodiment. 実施形態3の画像処理装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an image processing apparatus according to a third embodiment. 実施形態3の画像処理装置における処理の流れを示すフローチャートである。10 is a flowchart illustrating a flow of processing in the image processing apparatus according to the third embodiment. 実施形態4の画像処理装置を備える電子情報機器の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an electronic information device including an image processing device according to a fourth embodiment. 実施形態4の画像処理装置における処理の流れを示すフローチャートである。14 is a flowchart illustrating a flow of processing in the image processing apparatus according to the fourth embodiment. 単位領域における画素の輝度値の例を示すグラフである。It is a graph which shows the example of the luminance value of the pixel in a unit field. 実施形態5の画像処理装置を備える電子情報機器の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an electronic information device including an image processing device according to a fifth embodiment. 実施形態5の画像処理装置における処理の流れを示すフローチャートである。10 is a flowchart illustrating a processing flow in the image processing apparatus according to the fifth embodiment. 単位領域における画素の輝度値の例を示すグラフである。It is a graph which shows the example of the luminance value of the pixel in a unit field. 式(5−1)に含まれるパラメータを示すグラフである。It is a graph which shows the parameter contained in a formula (5-1). (a)は、ルックアップテーブルの例を示す図であり、(b)は、最小輝度値推定部が作成するテーブルの例を示す図であり、(c)は、輝度値の信号強度の例を示す図であり、(d)は、(c)に示した信号強度の例、および最小輝度値推定部が推定した輝度値を示す信号強度の例を示すグラフである。(A) is a figure which shows the example of a lookup table, (b) is a figure which shows the example of the table which a minimum luminance value estimation part produces, (c) is an example of the signal strength of a luminance value. (D) is a graph showing an example of the signal intensity shown in (c) and an example of the signal intensity indicating the luminance value estimated by the minimum luminance value estimation unit. 実施形態6の画像処理装置を備える電子情報機器の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an electronic information device including an image processing apparatus according to a sixth embodiment. 実施形態6の画像処理装置における処理の流れを示すフローチャートである。14 is a flowchart illustrating a processing flow in the image processing apparatus according to the sixth embodiment. 画素ユニットに含まれる画素の実効放射輝度値、当該画素ユニットに含まれる画素が取り得る実効放射輝度値の推定値、および拡散光成分の推定値の例を示すグラフであって、(a)は眼球への入射角が30°である光が眼球で反射された反射光が入射する画素ユニットのグラフであり、(b)は眼球への入射角が20°である光が眼球で反射された反射光が入射する画素ユニットのグラフであり、(c)は眼球への入射角が10°である光が眼球で反射された反射光が入射する画素ユニットのグラフである。It is a graph which shows the example of the effective radiance value of the pixel contained in a pixel unit, the estimated value of the effective radiance value which the pixel contained in the said pixel unit can take, and the estimated value of a diffused light component, (a) FIG. 6 is a graph of a pixel unit in which light having an incident angle to the eyeball of 30 ° is reflected by the eyeball, and FIG. 5B is a graph in which light having an incident angle to the eyeball of 20 ° is reflected by the eyeball. It is a graph of the pixel unit in which reflected light injects, (c) is a graph of the pixel unit in which the reflected light which the light whose incident angle to the eyeball is 10 degrees reflected by the eyeball enters. 実施形態8の画像処理装置を備える電子情報機器の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an electronic information device including an image processing apparatus according to an eighth embodiment. 実施形態8の画像処理装置における処理の流れを示すフローチャートである。19 is a flowchart illustrating a processing flow in the image processing apparatus according to the eighth embodiment. 画素ユニットの配置を示す図であり、(a)は、9つの画素からなる画素ユニットが互いに重ならないように配置された状態を示す図であり、(b)は、4つの画素からなる画素ユニットが互いに重ならないように配置された状態を示す図であり、(c)は、9つの画素からなる画素ユニットが部分的に重なるように配置された状態を示す図であり、(d)は、4つの画素からなる画素ユニットが部分的に重なるように配置された状態を示す図である。It is a figure which shows arrangement | positioning of a pixel unit, (a) is a figure which shows the state arrange | positioned so that the pixel unit which consists of nine pixels may not mutually overlap, (b) is a pixel unit which consists of four pixels Is a diagram showing a state in which the pixel units are arranged so as not to overlap each other, (c) is a diagram showing a state in which pixel units composed of nine pixels are arranged so as to partially overlap, and (d) It is a figure which shows the state arrange | positioned so that the pixel unit which consists of four pixels may overlap partially. 実施形態6の画像処理と他の画像処理とを並行して実行する画像処理装置における処理の流れを示すフローチャートである。14 is a flowchart illustrating a flow of processing in an image processing apparatus that executes image processing of Embodiment 6 and other image processing in parallel. 被写体が両目の眼球を含む場合について説明するための図である。It is a figure for demonstrating the case where a to-be-photographed object contains the eyeball of both eyes.

〔実施形態1〕
以下、本発明の実施形態1について、詳細に説明する。本実施形態の画像処理装置は、人間の眼球の、虹彩の画像に基づいて認証を行う装置である。
Embodiment 1
Hereinafter, Embodiment 1 of the present invention will be described in detail. The image processing apparatus of this embodiment is an apparatus that performs authentication based on an iris image of a human eyeball.

(画像処理装置10の概要)
まず、画像処理装置10の概要について説明する。図2は、画像処理装置10の概要を説明するための図である。画像処理装置10は、被写体を撮影した画像に対して画像処理を行うものである。具体的には、画像処理装置10は、被写体からの反射光に含まれる拡散反射成分と鏡面反射成分とを分離する処理を行う。画像処理装置10は、本実施形態では携帯情報端末1に搭載されている。
(Outline of the image processing apparatus 10)
First, an outline of the image processing apparatus 10 will be described. FIG. 2 is a diagram for explaining an overview of the image processing apparatus 10. The image processing apparatus 10 performs image processing on an image obtained by photographing a subject. Specifically, the image processing apparatus 10 performs a process of separating the diffuse reflection component and the specular reflection component included in the reflected light from the subject. The image processing apparatus 10 is mounted on the portable information terminal 1 in this embodiment.

携帯情報端末1は、例えば、ユーザの眼球E(被写体)の画像について上記2つの反射成分を分離し、当該分離した画像を用いて当該ユーザの虹彩認証を行うことが可能な端末であり、図2に示すように、上述した画像処理装置10とカメラ20とを備えている。画像処理装置10の詳細については後述する。なお、本発明の一態様における被写体は眼球に限定されず、映り込みが発生する可能性のある被写体であればどのようなものでもよい。   For example, the portable information terminal 1 is a terminal that can separate the two reflection components from an image of the user's eyeball E (subject) and perform the iris authentication of the user using the separated image. As shown in FIG. 2, the image processing apparatus 10 and the camera 20 described above are provided. Details of the image processing apparatus 10 will be described later. Note that the subject in one embodiment of the present invention is not limited to an eyeball, and may be any subject as long as it is likely to be reflected.

カメラ20は、ユーザ操作に基づいて被写体を撮影する。本実施形態では、図2に示すように、カメラ20はユーザの眼球Eを撮影して、眼球Eの画像を取得する。また、カメラ20は、主として、集積偏光子21と受光素子22(撮像素子)(図3参照)と備えており、カメラ20に光が入射する方向から見て、集積偏光子21および受光素子22の順に積層されている。   The camera 20 captures a subject based on a user operation. In the present embodiment, as shown in FIG. 2, the camera 20 captures an image of the eyeball E by photographing the user's eyeball E. The camera 20 is mainly provided with an integrated polarizer 21 and a light receiving element 22 (imaging element) (see FIG. 3). The integrated polarizer 21 and the light receiving element 22 are viewed from the direction in which light enters the camera 20. Are stacked in this order.

集積偏光子21は、複数の偏光素子から構成され、複数の偏光素子の主軸方向は異なる。本実施形態では、集積偏光子21は、1画素につき1つの偏光素子が対応している。そして本実施形態では、図2に示すように、隣接する9つの画素にそれぞれ対応する9つの偏光素子21a〜21iを備えている。具体的には、9つの偏光素子21a〜21iは、各画素において、それぞれ0°、20°、40°、60°、80°、100°、120°、140°および160°の偏光角を有する。   The integrated polarizer 21 is composed of a plurality of polarizing elements, and the principal axis directions of the plurality of polarizing elements are different. In the present embodiment, the integrated polarizer 21 corresponds to one polarizing element per pixel. In this embodiment, as shown in FIG. 2, nine polarizing elements 21 a to 21 i respectively corresponding to nine adjacent pixels are provided. Specifically, the nine polarizing elements 21a to 21i have polarization angles of 0 °, 20 °, 40 °, 60 °, 80 °, 100 °, 120 °, 140 °, and 160 °, respectively, in each pixel. .

受光素子22は、上記9つの偏光素子21a〜21iと対応付けられた複数の画素を1つの画素ユニットとし、当該画素ユニットが二次元的に配列された構成を有する。   The light receiving element 22 includes a plurality of pixels associated with the nine polarizing elements 21a to 21i as one pixel unit, and the pixel units are two-dimensionally arranged.

携帯情報端末1においてユーザの虹彩認証を行う場合、カメラ20によってユーザの眼球Eが撮影される。図2に示すように、ユーザの眼球Eに外光または室内光が照射されると、当該光は眼球Eの表面において反射され、反射光Lrがカメラ20に入射することになる。   When the user's iris authentication is performed in the portable information terminal 1, the user's eyeball E is photographed by the camera 20. As shown in FIG. 2, when the user's eyeball E is irradiated with external light or room light, the light is reflected on the surface of the eyeball E, and the reflected light Lr enters the camera 20.

カメラ20は、ユーザの眼球Eに外光(太陽光)または室内光が照射され、虹彩において当該外光または室内光を反射した反射光Lrを取得することにより、ユーザの虹彩の像を含む画像を取得し、携帯情報端末1は、当該虹彩の像を解析することによりユーザ認証を行う。一方、ユーザの視界に物体Oが存在する場合、図2に示すように、外光または室内光の影響により物体Oが眼球Eに映り込み、眼球Eには映り込み像Irが形成される。すなわち、物体Oに照射され、物体Oで反射した外光または室内光が眼球Eに照射されることにより、眼球Eに映り込み像Irが形成される。そして、カメラ20は、この映り込み像Irにおいて外光または室内光を反射した反射光Lrを取得することにより、映り込み像Irを含む画像を取得する。携帯情報端末1は、取得した虹彩の像および映り込み像Irを含む画像から映り込み像Irを除去する処理を行わなければ、虹彩の画像解析において映り込み像Irの影響を受けてしまい、正確な虹彩認証ができない可能性がある。   The camera 20 irradiates the user's eyeball E with external light (sunlight) or room light, and obtains reflected light Lr that reflects the external light or room light in the iris, thereby including an image including the user's iris image. The mobile information terminal 1 performs user authentication by analyzing the iris image. On the other hand, when the object O exists in the user's field of view, the object O is reflected in the eyeball E due to the influence of outside light or room light, and a reflected image Ir is formed in the eyeball E as shown in FIG. That is, an external image or room light that is irradiated onto the object O and reflected by the object O is irradiated onto the eyeball E, whereby a reflected image Ir is formed on the eyeball E. Then, the camera 20 acquires an image including the reflected image Ir by acquiring the reflected light Lr obtained by reflecting external light or room light in the reflected image Ir. If the mobile information terminal 1 does not perform the process of removing the reflection image Ir from the acquired image including the iris image and the reflection image Ir, the portable information terminal 1 is affected by the reflection image Ir in the iris image analysis. Might not be able to perform iris authentication.

特に、太陽光の照射下においてはユーザの眼球Eに強い映り込みが生じるため、屋外での正確な虹彩認証は困難を伴う。太陽光の強度よりも高い強度を有する光をユーザの眼球Eに照射することで、虹彩認証における太陽光の影響を低減することはできるが、このような強度の高い光を眼球Eまたは肌に照射した場合には、眼球Eまたは肌の状態が悪化してしまう可能性がある。   In particular, since strong reflection occurs in the user's eyeball E under sunlight, accurate iris authentication outdoors is difficult. By irradiating the user's eyeball E with light having an intensity higher than the intensity of sunlight, the influence of sunlight in iris authentication can be reduced, but such high intensity light is applied to the eyeball E or the skin. When irradiated, the state of the eyeball E or the skin may deteriorate.

本実施形態の携帯情報端末1は、集積偏光子21と画像処理装置10とを備えることにより、上記のような強度の高い光を眼球Eに照射することなく、虹彩の画像解析における上記映り込み像Irの影響を低減し、正確な虹彩認証を行うことを可能とする。   The portable information terminal 1 of the present embodiment includes the integrated polarizer 21 and the image processing device 10, so that the reflection in the image analysis of the iris is performed without irradiating the eyeball E with the above-described high-intensity light. It is possible to reduce the influence of the image Ir and perform accurate iris authentication.

次に、上記影響を低減するための画像処理装置10における処理の概要について、図3を用いて説明する。図3は、画像処理装置10における画像処理の概要を説明するための図である。なお、図3では、集積偏光子21の図示を簡略化している。   Next, an outline of processing in the image processing apparatus 10 for reducing the influence will be described with reference to FIG. FIG. 3 is a diagram for explaining an outline of image processing in the image processing apparatus 10. In FIG. 3, the illustration of the integrated polarizer 21 is simplified.

図3に示す例では、太陽光の照射下において、虹彩認証のためにユーザの眼球Eの撮影を行っている。また、ユーザの眼球Eには物体Oの映り込み像Irが形成されている。   In the example shown in FIG. 3, the user's eyeball E is photographed for iris authentication under sunlight irradiation. A reflected image Ir of the object O is formed on the user's eyeball E.

虹彩認証を行うために、カメラ20によってユーザの眼球Eが撮影されると、ユーザの眼球Eからの反射光Lrは、集積偏光子21を介して受光素子22によって受光される。   When the user's eyeball E is photographed by the camera 20 in order to perform iris authentication, the reflected light Lr from the user's eyeball E is received by the light receiving element 22 via the integrated polarizer 21.

ここで一般に、画像処理に用いる像を形成する光(ここでは、認証処理に用いられる虹彩を示す反射光Lr)の強度は、そのほとんどが拡散反射成分から構成される。本実施形態では、当該光は、認証処理において必要となる眼球E(具体的には虹彩)の表面を示す表面情報を示すものとして処理される。一方、上記画像処理において除去すべきノイズとなる像を形成する光(ここでは、認証処理に悪影響を与える物体Oを示す反射光Lr)の強度は、そのほとんどが鏡面反射成分から構成される。この鏡面反射成分は、S偏光光源成分(S偏光成分)とP偏光光源成分(P偏光成分)とを含む。   Here, in general, most of the intensity of light forming an image used for image processing (here, reflected light Lr indicating an iris used for authentication processing) is composed of a diffuse reflection component. In the present embodiment, the light is processed as indicating surface information indicating the surface of the eyeball E (specifically, the iris) necessary for the authentication process. On the other hand, most of the intensity of light forming an image that becomes noise to be removed in the image processing (here, the reflected light Lr indicating the object O that adversely affects the authentication processing) is composed of a specular reflection component. This specular reflection component includes an S-polarized light source component (S-polarized light component) and a P-polarized light source component (P-polarized light component).

図3では、映り込み像Irおよび虹彩を含む眼球Eが撮影されているので、上記3種類の反射成分を含む反射光Lrが集積偏光子21を介して受光素子22によって受光される。したがって、受光素子22が受光した反射光LrからS偏光成分およびP偏光成分を除去する必要がある。   In FIG. 3, since the eyeball E including the reflected image Ir and the iris is photographed, the reflected light Lr including the three types of reflection components is received by the light receiving element 22 through the integrated polarizer 21. Therefore, it is necessary to remove the S polarization component and the P polarization component from the reflected light Lr received by the light receiving element 22.

本実施形態では、受光素子22が受光した反射光Lrに対してデジタル変換処理を行い、デジタル信号化された反射光Lrに対して、S偏光成分およびP偏光成分を除去する処理(S波P波除去)が行われる。これにより、図3に示すように、認証処理において必要となる眼球Eの画像から、映り込み像Irが除去される。携帯情報端末1は、この映り込み像Irが除去された画像(すなわち、眼球Eの虹彩の像のみを含む画像)についてコード化を行うことにより、認証用の眼球Eのデータを生成する。これにより、携帯情報端末1は、正確な虹彩認証を行うことができる。   In the present embodiment, a digital conversion process is performed on the reflected light Lr received by the light receiving element 22, and an S-polarized component and a P-polarized component are removed from the reflected light Lr converted into a digital signal (S-wave P). Wave removal). Thereby, as shown in FIG. 3, the reflected image Ir is removed from the image of the eyeball E necessary for the authentication process. The portable information terminal 1 generates data for the eyeball E for authentication by coding the image from which the reflected image Ir has been removed (that is, an image including only the iris image of the eyeball E). Thereby, the portable information terminal 1 can perform accurate iris authentication.

なお、更に精度良く虹彩認証を行うために、S偏光成分およびP偏光成分を除去する処理後に、既知の独立成分分析(Independent Component Analysis;ICA)処理が行われてもよい。   In order to perform iris authentication with higher accuracy, a known independent component analysis (ICA) process may be performed after the process of removing the S-polarized component and the P-polarized component.

(携帯情報端末1の構成)
図4は、本実施形態の画像処理方法を実行する画像処理装置10を備える携帯情報端末1の構成を示すブロック図である。図4に示すように、携帯情報端末1は、画像処理装置10と、カメラ20と、カメラ20からユーザの眼球Eの表面の各点までの距離を測定して後述するS偏光算出部12へ送信するする測距装置30と、を備える。
(Configuration of portable information terminal 1)
FIG. 4 is a block diagram illustrating a configuration of the portable information terminal 1 including the image processing apparatus 10 that executes the image processing method of the present embodiment. As shown in FIG. 4, the portable information terminal 1 measures the distance from the image processing device 10, the camera 20, and each point on the surface of the user's eyeball E to the S polarization calculation unit 12 described later. And a distance measuring device 30 for transmission.

なお、本実施形態では、画像処理装置10、カメラ20および測距装置30を一体に備える携帯情報端末1を例に挙げて説明するが、これらの部材は一体に設けられている必要は無い。すなわち、画像処理装置10が、当該画像処理装置10とは別装置であるカメラ20から撮像された画像を取得でき、かつ、当該画像処理装置10とは別装置である測距装置30から測定された上記距離を取得できればよい。   In the present embodiment, the portable information terminal 1 that includes the image processing device 10, the camera 20, and the distance measuring device 30 will be described as an example. However, these members do not need to be provided integrally. That is, the image processing apparatus 10 can acquire an image captured from the camera 20 that is a separate apparatus from the image processing apparatus 10 and is measured from the distance measuring apparatus 30 that is a separate apparatus from the image processing apparatus 10. It is sufficient that the above distance can be acquired.

本実施形態のカメラ20は、画素としてCCD(Charge Coupled Device)を用いている。なお、カメラ20は、画素としてCMOS(Complementary Metal Oxide Semiconductor)を用いるものであってもよい。   The camera 20 of this embodiment uses a CCD (Charge Coupled Device) as a pixel. The camera 20 may use a CMOS (Complementary Metal Oxide Semiconductor) as a pixel.

図5の(a)および(b)は、カメラ20が備える集積偏光子の別の例を示す図である。本実施形態のカメラ20は、図2において説明した通り、9種の偏光素子21a〜21iを備える集積偏光子21を備える。しかし、本発明の一態様において用いられるカメラは、例えば図5の(a)に示すような、4種の偏光素子21j、21k、21l(エル)および21mを備える集積偏光子21Aを備えていてもよい。また、本発明の一態様において用いられるカメラは、例えば図5の(b)に示すような、2種の偏光素子21nおよび21oを備える集積偏光子21Bを備えていてもよい。   FIGS. 5A and 5B are diagrams showing another example of the integrated polarizer included in the camera 20. The camera 20 of this embodiment is provided with the integrated polarizer 21 provided with nine types of polarizing elements 21a-21i as demonstrated in FIG. However, the camera used in one embodiment of the present invention includes an integrated polarizer 21A including four types of polarizing elements 21j, 21k, 21l, and 21m, for example, as shown in FIG. Also good. In addition, the camera used in one embodiment of the present invention may include an integrated polarizer 21B including two types of polarizing elements 21n and 21o, for example, as illustrated in FIG.

(画像処理装置10)
画像処理装置10は、黒目検出部11と、S偏光算出部12と、P偏光算出部13と、拡散光算出部14と、認証部15と、を備える。
(Image processing apparatus 10)
The image processing apparatus 10 includes a black eye detection unit 11, an S polarization calculation unit 12, a P polarization calculation unit 13, a diffused light calculation unit 14, and an authentication unit 15.

黒目検出部11は、カメラ20が撮影した画像を取得し、当該画像に含まれる、ユーザの黒目に対応する領域を特定する。黒目検出部11における処理は、例えば虹彩の画像による認証の分野においては公知であるため、本明細書では説明を省略する。   The black eye detection unit 11 acquires an image captured by the camera 20 and identifies an area corresponding to the user's black eye included in the image. The processing in the black-eye detection unit 11 is well known in the field of authentication using, for example, an iris image, and will not be described in this specification.

S偏光算出部12は、画像に含まれるS偏光の輝度分布を算出する。S偏光算出部12による処理については後述する。   The S-polarized light calculation unit 12 calculates the luminance distribution of S-polarized light included in the image. The processing by the S polarization calculation unit 12 will be described later.

P偏光算出部13は、画像に含まれるP偏光の輝度分布を算出する。P偏光算出部13は、S偏光の輝度分布、およびフレネルの法則に基づいて、P偏光の輝度分布を算出する。   The P-polarized light calculation unit 13 calculates the luminance distribution of P-polarized light included in the image. The P-polarized light calculation unit 13 calculates the luminance distribution of P-polarized light based on the luminance distribution of S-polarized light and Fresnel's law.

拡散光算出部14は、画像に含まれる拡散光の輝度分布を算出する。具体的には、拡散光算出部14は、各画素の輝度値から、当該画素におけるS偏光およびP偏光の輝度値を減算する。上記減算処理により、S偏光およびP偏光の成分が除去された、拡散光の成分のみの画像を得ることができる。   The diffused light calculation unit 14 calculates the luminance distribution of the diffused light included in the image. Specifically, the diffused light calculation unit 14 subtracts the luminance values of S-polarized light and P-polarized light at the pixel from the luminance value of each pixel. By the subtraction process, an image of only the diffused light component from which the S-polarized light and P-polarized light components are removed can be obtained.

認証部15は、拡散光のみの画像に含まれる虹彩の画像を用いて、ユーザの認証を行う。認証部15における、虹彩による認証は公知技術であるため、本明細書では説明を省略する。   The authentication unit 15 performs user authentication using an iris image included in an image of only diffused light. Since the authentication by the iris in the authentication unit 15 is a known technique, the description is omitted in this specification.

(S偏光算出部12における処理)
図6は、画像処理装置における処理に用いる値について説明するための図である。以下の説明においては、各数値を以下のように規定する。
・R:カメラ20のレンズから眼球Eの中心までの距離
・r:眼球Eの半径
・θ:眼球Eへの光の入射角((i)光が入射した眼球上の位置Pと眼球の中心とを結ぶ直線L1(第1の仮想線)と、(ii)当該位置Pとカメラ20のレンズの中心とを結ぶ直線L2(第2の仮想線)と、がなす角)
・φ:(i)カメラ20のレンズの中心と眼球Eの中心とを結ぶ直線と、(ii)上記直線L1と、がなす角
S偏光算出部12は、画素ユニットの二次元的位置に対応する眼球E上の位置Pにより決まる入射角θに依存したS偏光の輝度分布を、受光素子22の画素の輝度値(出力)を用いて算出する。S偏光算出部12における処理について、以下に説明する。
(Processing in the S polarization calculation unit 12)
FIG. 6 is a diagram for explaining values used for processing in the image processing apparatus. In the following description, each numerical value is defined as follows.
R: Distance from the lens of the camera 20 to the center of the eyeball E r: Radius of the eyeball E θ: Incident angle of light to the eyeball E ((i) Position P on the eyeball where light is incident and the center of the eyeball And (ii) an angle formed by a straight line L2 (second imaginary line) connecting the position P and the center of the lens of the camera 20).
Φ: (i) an angle formed by the straight line connecting the center of the lens of the camera 20 and the center of the eyeball E, and (ii) the straight line L1 The S-polarized light calculation unit 12 corresponds to the two-dimensional position of the pixel unit. The luminance distribution of S-polarized light depending on the incident angle θ determined by the position P on the eyeball E is calculated using the luminance value (output) of the pixel of the light receiving element 22. Processing in the S polarization calculation unit 12 will be described below.

(S偏光算出部12による第1の処理)
まず、S偏光算出部12は、入射角θがブリュースター角になる眼球上の点(以下、必要に応じて「ブリュースター点」と記す)に対応する、受光素子22における画素を特定する。具体的には、以下の式(1−1)に基づいて角度φを算出する。式(1−2)は、式(1−1)を変形したものである。
(First processing by the S-polarized light calculation unit 12)
First, the S-polarized light calculation unit 12 specifies a pixel in the light receiving element 22 corresponding to a point on the eyeball where the incident angle θ becomes the Brewster angle (hereinafter, referred to as “Brewster point” as necessary). Specifically, the angle φ is calculated based on the following equation (1-1). Expression (1-2) is a modification of Expression (1-1).

Figure 2017201303
Figure 2017201303

Figure 2017201303
Figure 2017201303

式(1−1)および(1−2)において、Rは測距装置30により測定される。より正確には、測距装置30は、カメラ20のレンズから眼球Eの表面までの距離、すなわちRからrを引いた距離を測定する。人体における眼球の場合、rの値は7.4mmでほぼ一定である。したがって、測距装置30による測定データからRを算出することができる。さらに、眼球の角膜の屈折率nが1.376であることから、本実施形態ではブリュースター角(=θ)は53.1°であるものとする。これらの数値から、S偏光算出部12は、式(1−1)または(1−2)を用いて角度φを算出できる。   In the expressions (1-1) and (1-2), R is measured by the distance measuring device 30. More precisely, the distance measuring device 30 measures the distance from the lens of the camera 20 to the surface of the eyeball E, that is, the distance obtained by subtracting r from R. In the case of an eyeball in a human body, the value of r is 7.4 mm and is almost constant. Therefore, R can be calculated from the measurement data obtained by the distance measuring device 30. Furthermore, since the refractive index n of the cornea of the eyeball is 1.376, the Brewster angle (= θ) is 53.1 ° in the present embodiment. From these numerical values, the S-polarized light calculation unit 12 can calculate the angle φ using the formula (1-1) or (1-2).

ここで、カメラ20と眼球Eの中心とを結ぶ直線上に存在する、眼球Eの表面に対応する画素は、眼球Eの領域内でもっともカメラに近い画素である。当該画素の位置と上記距離から、眼球Eの画像における、ブリュースター点に対応する画素を特定することができる。なお、ブリュースター点に対応する画素は、画像中で複数特定される。   Here, the pixel corresponding to the surface of the eyeball E existing on the straight line connecting the camera 20 and the center of the eyeball E is the pixel closest to the camera in the region of the eyeball E. From the position of the pixel and the distance, the pixel corresponding to the Brewster point in the image of the eyeball E can be specified. A plurality of pixels corresponding to the Brewster point are specified in the image.

次に、S偏光算出部12は、カメラ20の受光素子22に含まれる、特定した各々の画素を含む画素ユニットを特定する。画素ユニットは、複数の偏光素子と対応付けられている一群の画素である。本実施形態では、画素ユニットは、主軸方向が互いに異なる9つの偏光素子と対応付けられている。その画素ユニットが、カメラ20の受光素子22に二次元的に配列されている。図6において、眼球上の位置Pとカメラ20のレンズの中心とを結ぶ直線L2上の、受光素子22における画素ユニットの二次元的位置において、当該位置Pに入射された光を受ける。   Next, the S-polarized light calculation unit 12 specifies a pixel unit including each specified pixel included in the light receiving element 22 of the camera 20. The pixel unit is a group of pixels associated with a plurality of polarizing elements. In the present embodiment, the pixel unit is associated with nine polarizing elements having different principal axis directions. The pixel units are two-dimensionally arranged on the light receiving element 22 of the camera 20. In FIG. 6, light incident on the position P is received at a two-dimensional position of the pixel unit in the light receiving element 22 on a straight line L2 connecting the position P on the eyeball and the center of the lens of the camera 20.

次に、S偏光算出部12は、特定した画素ユニットに含まれる画素の輝度値の最大値から最小値を減算することで、ブリュースター点におけるS偏光の輝度値を算出する。このとき、例えば特定した全ての画素ユニットについて画素の輝度値の最大値から最小値を減算した差の平均値をブリュースター点におけるS偏光の輝度値としてもよい。または、任意の画素ユニットについてのみ画素の輝度値の最大値から最小値を減算し、算出された差をブリュースター点におけるS偏光の輝度値としてもよい。   Next, the S-polarized light calculation unit 12 calculates the luminance value of S-polarized light at the Brewster point by subtracting the minimum value from the maximum value of the luminance values of the pixels included in the specified pixel unit. At this time, for example, an average value of differences obtained by subtracting the minimum value from the maximum value of the luminance values of the pixels for all the specified pixel units may be used as the luminance value of the S-polarized light at the Brewster point. Alternatively, only for an arbitrary pixel unit, the minimum value may be subtracted from the maximum value of the luminance value of the pixel, and the calculated difference may be used as the luminance value of S-polarized light at the Brewster point.

図7は、偏光角(主軸方向の角度)に対する、画素において受光される光の受光強度を示すグラフである。図7に示すグラフにおいて、横軸は偏光角であり、縦軸は受光強度である。上記受光強度は、認証処理に必要となる虹彩像を示す拡散反射成分(k−term)と、認証処理においてノイズとなる外光の映り込み像Irを示す鏡面反射成分とを含む。鏡面反射成分は、上述したように、S偏光成分(f−term)とP偏光成分(g−term)とを含む。S偏光成分は、略余弦関数(cos(θ+ψ)(ψは任意の定数))または略正弦関数を形成する。   FIG. 7 is a graph showing the received light intensity of light received by the pixel with respect to the polarization angle (angle in the principal axis direction). In the graph shown in FIG. 7, the horizontal axis is the polarization angle, and the vertical axis is the received light intensity. The received light intensity includes a diffuse reflection component (k-term) indicating an iris image necessary for the authentication process and a specular reflection component indicating a reflection image Ir of external light that becomes noise in the authentication process. As described above, the specular reflection component includes the S polarization component (f-term) and the P polarization component (g-term). The S-polarized component forms a substantially cosine function (cos (θ + ψ) (ψ is an arbitrary constant)) or a substantially sine function.

拡散反射成分は、偏光角によらず一定である。したがって、図7に示すグラフにおける、偏光角に対する受光強度の変動は、鏡面反射成分、特にS偏光成分の変動である。   The diffuse reflection component is constant regardless of the polarization angle. Therefore, in the graph shown in FIG. 7, the fluctuation of the received light intensity with respect to the polarization angle is the fluctuation of the specular reflection component, particularly the S polarization component.

図8は、入射角θに対するS偏光およびP偏光の反射係数(フレネルの法則)を示すグラフである。図8に示すグラフにおいて、横軸は眼球Eへの光の入射角θ(図6参照)であり、縦軸は反射係数である。反射係数とは、反射強度を示す相対的な値である。また、眼球EにおけるS偏光およびP偏光の反射強度は、画素におけるそれぞれの受光強度と1対1に対応する。また、以下の式(2−1)および(2−2)は、眼球Eへの光の入射角θと、反射光に含まれるS偏光およびP偏光の反射係数との関係を示す式である。式(2−1)および(2−2)において、上述した通りn=1.376である。   FIG. 8 is a graph showing reflection coefficients (Fresnel's law) of S-polarized light and P-polarized light with respect to the incident angle θ. In the graph shown in FIG. 8, the horizontal axis represents the incident angle θ of light to the eyeball E (see FIG. 6), and the vertical axis represents the reflection coefficient. The reflection coefficient is a relative value indicating the reflection intensity. Further, the reflection intensity of the S-polarized light and the P-polarized light in the eyeball E corresponds to each received light intensity in the pixel on a one-to-one basis. Also, the following formulas (2-1) and (2-2) are formulas showing the relationship between the incident angle θ of light to the eyeball E and the reflection coefficients of S-polarized light and P-polarized light included in the reflected light. . In the formulas (2-1) and (2-2), n = 1.376 as described above.

Figure 2017201303
Figure 2017201303

Figure 2017201303
Figure 2017201303

図8に示すように、P偏光の反射係数は、入射角θがブリュースター角近傍である場合においてほぼ0になる。すなわち、ブリュースター点に対応する画素を含む画素ユニットに含まれる画素においては、偏光角に対する受光強度の変動は、S偏光の変動であるとみなすことができる。   As shown in FIG. 8, the reflection coefficient of P-polarized light is almost 0 when the incident angle θ is near the Brewster angle. That is, in the pixel included in the pixel unit including the pixel corresponding to the Brewster point, the variation in the received light intensity with respect to the polarization angle can be regarded as the variation in S polarization.

S偏光の強度は、偏光角の変動に対して正弦関数的な変化を示すことが知られている。したがって、特定した画素ユニットに含まれる画素の輝度値の最大値から最小値を減算することで、当該画素ユニットにおけるS偏光の反射強度(振幅)を求めることができる。   It is known that the intensity of S-polarized light exhibits a sinusoidal change with respect to fluctuations in the polarization angle. Therefore, the reflection intensity (amplitude) of S-polarized light in the pixel unit can be obtained by subtracting the minimum value from the maximum luminance value of the pixels included in the specified pixel unit.

その後、S偏光算出部12は、ブリュースター角におけるS偏光の反射係数および反射強度、ならびにブリュースター点に対応する画素ユニット以外におけるS偏光の反射係数から、特定した画素ユニット以外の画素ユニットにおけるS偏光の反射強度を算出する。具体的には、ブリュースター角におけるS偏光の反射係数と反射強度との比率を算出し、当該比率を用いてブリュースター角以外の入射角θにおける反射係数に対応する反射強度を算出する。すなわち、S偏光算出部12は、入射角θがブリュースター角である画素におけるS偏光の輝度値を起点とし、ブリュースター角以外の入射角θにおけるS偏光の輝度値を算出する。   Thereafter, the S-polarized light calculation unit 12 determines the S-polarization in the pixel units other than the specified pixel unit from the reflection coefficient and the reflection intensity of the S-polarization at the Brewster angle and the reflection coefficient of the S-polarization in other than the pixel unit corresponding to the Brewster point. Calculate the reflection intensity of the polarized light. Specifically, the ratio between the reflection coefficient of S-polarized light and the reflection intensity at the Brewster angle is calculated, and the reflection intensity corresponding to the reflection coefficient at the incident angle θ other than the Brewster angle is calculated using the ratio. That is, the S-polarized light calculation unit 12 calculates the luminance value of the S-polarized light at the incident angle θ other than the Brewster angle, starting from the luminance value of the S-polarized light at the pixel whose incident angle θ is the Brewster angle.

なお、画像内における眼球Eの領域において外光の映り込みが発生していない場合、各画素の輝度値は鏡面反射成分を含まない。この場合、画素ユニット内における画素ごとの輝度値は、S偏光成分を含まないため、偏光角に対して正弦関数的な変化を示さない。   Note that when no external light is reflected in the region of the eyeball E in the image, the luminance value of each pixel does not include a specular reflection component. In this case, since the luminance value for each pixel in the pixel unit does not include the S-polarized light component, it does not show a sinusoidal change with respect to the polarization angle.

そこで、本発明の一態様に係る画像処理装置は、S偏光算出部12による処理の前に、画素ユニット内における画素ごとの輝度値が偏光角に対して正弦関数的な変化を示すか否かを判定する映り込み判定部をさらに備えてもよい。映り込み判定部による判定の対象となる画素ユニットは、画像処理装置の製造者が任意に設定すればよい。   Therefore, the image processing apparatus according to one aspect of the present invention determines whether the luminance value for each pixel in the pixel unit shows a sinusoidal change with respect to the polarization angle before the processing by the S-polarization calculation unit 12. It may further include a reflection determination unit that determines the above. The manufacturer of the image processing apparatus may arbitrarily set the pixel unit to be determined by the reflection determination unit.

画素ユニット内における画素ごとの輝度値が偏光角に対して正弦関数的な変化を示さない場合には、眼球Eへの外光の映り込みが発生していないと考えられる。この場合、画像処理装置10は、S偏光およびP偏光の算出を行わず、各画素ユニットに含まれる画素の内で最小の輝度値を拡散反射成分の輝度値として、認証部15における認証を行ってよい。   When the luminance value for each pixel in the pixel unit does not show a sinusoidal change with respect to the polarization angle, it is considered that external light is not reflected on the eyeball E. In this case, the image processing apparatus 10 does not calculate S-polarized light and P-polarized light, and performs authentication in the authentication unit 15 using the minimum luminance value of the pixels included in each pixel unit as the luminance value of the diffuse reflection component. It's okay.

(S偏光算出部12における第2の処理)
上述したブリュースター点に対応する画素は、画像における黒目の領域の外周に位置することが多い。このため、ユーザの目の開き具合、または撮影の角度などによっては、ブリュースター点に対応する画素が上記黒目の領域に含まれないことがある。
(Second process in the S-polarized light calculation unit 12)
The pixels corresponding to the above Brewster points are often located on the outer periphery of the black eye region in the image. For this reason, the pixel corresponding to the Brewster point may not be included in the black eye region depending on the degree of eye opening of the user or the angle of shooting.

このような場合には、上記第1の処理を正常に行うことができないため、虹彩による認証は失敗する。そこで、S偏光算出部12は、上述した第1の処理により生成された虹彩画像による認証が失敗した場合には、ブリュースター角に対応する画素が受光素子22上の眼球Eの領域に含まれていなかったものとして、以下に説明する第2の処理を行う。   In such a case, since the first process cannot be performed normally, authentication using the iris fails. Therefore, when the authentication using the iris image generated by the first process described above fails, the S polarization calculation unit 12 includes the pixel corresponding to the Brewster angle in the region of the eyeball E on the light receiving element 22. As a result, the second process described below is performed.

第2の処理では、画素ユニットに含まれる画素の輝度値の最大値から最小値を減算することでS偏光の輝度値を算出することを、受光素子22に含まれる複数の画素ユニットについて繰り返す。そして、特定した各々の画素ユニットに含まれる画素の輝度値の最大値から最小値を減算することで、当該画素ユニットにおけるS偏光の輝度値を算出する。その後、式(2−1)を用いて各画素ユニットに対応する入射角θとS偏光の輝度値との関係についてフィッティングを行い、nの値を算出する。   In the second process, the calculation of the S-polarized luminance value by subtracting the minimum value from the maximum luminance value of the pixels included in the pixel unit is repeated for a plurality of pixel units included in the light receiving element 22. Then, the luminance value of S-polarized light in the pixel unit is calculated by subtracting the minimum value from the maximum luminance value of the pixels included in each identified pixel unit. Thereafter, fitting is performed with respect to the relationship between the incident angle θ corresponding to each pixel unit and the luminance value of the S-polarized light using Equation (2-1), and the value of n is calculated.

なお、本実施形態の画像処理装置においては、S偏光算出部12は、上述した第1の処理と第2の処理とのうち、どちらを先に行ってもよい。また、どちらか一方の処理だけを行ってもよい。   In the image processing apparatus according to the present embodiment, the S-polarized light calculation unit 12 may perform either the first process or the second process described above first. Further, only one of the processes may be performed.

(P偏光算出部13における処理)
図8、式(2−1)および(2−2)に示すとおり、フレネルの法則により、S偏光とP偏光との強度比は、入射角θに応じて決まっている。このため、S偏光算出部12が上述した第1の処理を行った場合には、P偏光算出部13は上述した通り、S偏光の輝度分布、およびフレネルの法則に基づいて、P偏光の輝度分布を算出することができる。
(Processing in the P polarization calculation unit 13)
As shown in FIG. 8 and equations (2-1) and (2-2), the intensity ratio between S-polarized light and P-polarized light is determined according to the incident angle θ according to Fresnel's law. For this reason, when the S-polarized light calculating unit 12 performs the first processing described above, the P-polarized light calculating unit 13 determines the luminance of the P-polarized light based on the luminance distribution of S-polarized light and Fresnel's law as described above. Distribution can be calculated.

また、S偏光算出部12が上述した第2の処理を行った場合には、nの値が算出されている。したがってP偏光算出部13は、上述した式(2−2)によりP偏光の強度を算出することができる。   In addition, when the S-polarized light calculation unit 12 performs the second process described above, the value of n is calculated. Therefore, the P-polarized light calculation unit 13 can calculate the intensity of the P-polarized light by the above-described equation (2-2).

(画像処理装置10による第1の処理)
図1は、本実施形態の画像処理方法における処理の流れの一例を示すフローチャートである。
(First processing by the image processing apparatus 10)
FIG. 1 is a flowchart illustrating an example of a processing flow in the image processing method of the present embodiment.

まず、カメラ20が、ユーザの眼球Eを含む画像を撮影するとともに、測距装置30が、カメラ20から眼球Eまでの距離を測定する(S1)。画像処理装置10は、当該画像および距離を示すデータを取得する。そしてまず、撮影された画像に対し、黒目検出部11が黒目領域を検出する処理を実行する(S2)。   First, the camera 20 captures an image including the user's eyeball E, and the distance measuring device 30 measures the distance from the camera 20 to the eyeball E (S1). The image processing apparatus 10 acquires data indicating the image and the distance. First, the black eye detection unit 11 performs a process of detecting a black eye region on the photographed image (S2).

次に、S偏光算出部12は、検出された黒目領域において、カメラ20へ向けて反射される光の入射角θがブリュースター角である点における、S偏光の輝度値を算出する(SA1)。さらにS偏光算出部12は、ステップSA1で算出したS偏光の輝度値およびフレネルの法則に基づき、カメラ20へ向けて反射される光の入射角θがブリュースター角以外の角度である点における、S偏光の輝度値(輝度分布)を算出する(SA2)。   Next, the S-polarized light calculation unit 12 calculates the luminance value of the S-polarized light at the point where the incident angle θ of the light reflected toward the camera 20 is the Brewster angle in the detected black eye region (SA1). . Further, the S-polarized light calculating unit 12 is based on the brightness value of S-polarized light calculated in step SA1 and Fresnel's law, in that the incident angle θ of the light reflected toward the camera 20 is an angle other than the Brewster angle. The luminance value (luminance distribution) of S-polarized light is calculated (SA2).

その後、P偏光算出部13は、ステップSA1およびSA2で算出したS偏光の輝度分布、およびフレネルの法則に基づいて、P偏光の輝度値(輝度分布)を算出する(SA3)。さらに、拡散光算出部14は、S偏光の輝度分布およびP偏光の輝度分布に基づいて、拡散光の輝度分布を算出する(SA4)。   Thereafter, the P-polarized light calculation unit 13 calculates a P-polarized light luminance value (luminance distribution) based on the S-polarized light luminance distribution calculated in steps SA1 and SA2 and Fresnel's law (SA3). Further, the diffused light calculation unit 14 calculates the luminance distribution of the diffused light based on the luminance distribution of S-polarized light and the luminance distribution of P-polarized light (SA4).

ステップSA4により得られた拡散光の輝度分布を示す画像(拡散光の画像と称することもある)を用いて、認証部15が認証を行う(SA5)。その後、認証部15は、拡散光の画像によりユーザを認証できたか否か判定する(S3)。認証できた場合(S3、Y)、画像処理装置10は画像処理を終了する。   The authentication unit 15 performs authentication using the image showing the luminance distribution of the diffused light obtained in step SA4 (sometimes referred to as an image of diffused light) (SA5). Thereafter, the authentication unit 15 determines whether or not the user can be authenticated by the image of the diffused light (S3). If the authentication is successful (S3, Y), the image processing apparatus 10 ends the image processing.

一方、認証できなかった場合(S3、N)、画像処理装置10は、認証の精度を向上させるため、ステップSA1〜SA5とは異なる処理により、再度ユーザの認証を試みる。具体的には、まずS偏光算出部12は、検出された黒目領域内の各画素ユニットについてS偏光輝度値を算出する(SB1)。次に、P偏光算出部13は、ステップSB1において算出したS偏光輝度値に基づいて、P偏光輝度値を算出する(SB2)。そして、拡散光算出部14は、S偏光輝度値およびP偏光輝度値に基づいて、拡散光輝度値を算出する(SB3)。ステップSB3により得られた拡散光の画像を用いて、認証部15が認証を行う(SB4)。なお、ステップSB4において認証が失敗した場合には、認証部15は、認証が失敗したことを、例えば携帯情報端末1が備える表示部(不図示)等を介してユーザに報知する。   On the other hand, if the authentication cannot be performed (S3, N), the image processing apparatus 10 tries to authenticate the user again by a process different from steps SA1 to SA5 in order to improve the accuracy of the authentication. Specifically, the S-polarized light calculation unit 12 first calculates an S-polarized luminance value for each pixel unit in the detected black eye area (SB1). Next, the P polarization calculation unit 13 calculates a P polarization luminance value based on the S polarization luminance value calculated in step SB1 (SB2). Then, the diffused light calculation unit 14 calculates a diffused light luminance value based on the S-polarized luminance value and the P-polarized luminance value (SB3). Using the diffused light image obtained in step SB3, the authentication unit 15 performs authentication (SB4). If the authentication fails in step SB4, the authentication unit 15 notifies the user that the authentication has failed via, for example, a display unit (not shown) included in the portable information terminal 1.

なお、図1に示したフローチャートにおける処理のうち、ステップSA1〜SA4の処理が、上述したS偏光算出部12における第1の処理に当たる。また、ステップSB1〜SB3の処理が、上述したS偏光算出部12における第2の処理に当たる。   Of the processes in the flowchart shown in FIG. 1, the processes in steps SA <b> 1 to SA <b> 4 correspond to the first process in the S-polarized light calculation unit 12 described above. In addition, the processing in steps SB1 to SB3 corresponds to the second processing in the S-polarized light calculation unit 12 described above.

(画像処理装置10による第2の処理)
図9は、本実施形態の画像処理方法における処理の流れの、別の例を示すフローチャートである。図9に示す処理によれば、図1に示す処理と比較して高速にユーザの認証を行うことを期待できる。
(Second processing by the image processing apparatus 10)
FIG. 9 is a flowchart showing another example of the processing flow in the image processing method of the present embodiment. According to the process shown in FIG. 9, it can be expected that user authentication is performed at a higher speed than the process shown in FIG.

図9に示す処理ではまず、図1に示した例と同様に、ステップS1およびS2が実行される。次に、画像処理装置10は、ステップSA1より先にステップSB1〜SB4による認証を実行する。その後、認証部15がユーザを認証できたか否か判定する(S3)。認証できなかった場合(S3、N)には、画像処理装置10は、ステップSA1〜SA5による認証を実行する。   In the process shown in FIG. 9, first, steps S1 and S2 are executed as in the example shown in FIG. Next, the image processing apparatus 10 performs authentication in steps SB1 to SB4 prior to step SA1. Then, it is determined whether the authentication part 15 has authenticated the user (S3). If the authentication cannot be performed (S3, N), the image processing apparatus 10 performs authentication in steps SA1 to SA5.

ステップSB1〜SB4による認証は、ステップSA1〜SA5による認証と比較して短時間で処理を行うことができる。したがって、図9に示す処理によれば、ステップSB1〜SB4によりユーザの認証ができる場合には、図1に示す処理と比較して高速にユーザの認証を行うことができる。   The authentication in steps SB1 to SB4 can be performed in a shorter time than the authentication in steps SA1 to SA5. Therefore, according to the process shown in FIG. 9, when the user can be authenticated by steps SB1 to SB4, the user can be authenticated at a higher speed than the process shown in FIG.

(画像処理装置10による第3の処理)
図10の(a)は、本実施形態の画像処理方法における処理の流れの、さらに別の例を示すフローチャートである。図10の(a)に示す処理によれば、図1および図9に示す処理と比較して信頼度が低下する代わりに、図10に示す処理よりさらに高速にユーザの認証を行うことができる。
(Third processing by the image processing apparatus 10)
FIG. 10A is a flowchart showing still another example of the processing flow in the image processing method of the present embodiment. According to the process shown in FIG. 10A, the user authentication can be performed at a higher speed than the process shown in FIG. 10 instead of the decrease in reliability compared to the process shown in FIGS. .

図10の(a)に示す処理では、図9に示した処理と同様、画像処理装置10は、ステップS1およびS2の後に、ステップSB1〜SB4による認証を実行する。その後、認証部15は、ステップS3の判定を行わない。   In the process shown in FIG. 10A, as in the process shown in FIG. 9, the image processing apparatus 10 performs authentication in steps SB1 to SB4 after steps S1 and S2. Thereafter, the authentication unit 15 does not perform the determination in step S3.

図10の(a)に示す処理によれば、仮にステップSA1〜SA5による認証を行えば認証に成功する場合であっても、ステップSB1〜SB4による認証に失敗すれば認証自体が失敗となるため、認証の信頼度が低下する。一方で、ユーザは、撮影した画像による認証の成否を迅速に知ることができる。   According to the process shown in FIG. 10 (a), even if authentication is successful if authentication is performed in steps SA1 to SA5, authentication itself fails if authentication in steps SB1 to SB4 fails. , The reliability of authentication decreases. On the other hand, the user can quickly know the success or failure of authentication using the captured image.

(画像処理装置10による第4の処理)
図10の(b)は、本実施形態の画像処理方法における処理の流れの、さらに別の例を示すフローチャートである。図10の(b)に示す処理は、図10の(a)に示す処理と比較して、ステップSB2が省略されている点で異なる。すなわち、図10の(b)に示す処理によれば、画像処理装置10はS偏光のみを除去し、P偏光を除去しない。したがって、
図10の(b)に示す処理によれば、ステップSB4において、認証部15は、映り込み像IrのP偏光成分が除去されていない画像を用いて認証を行う。このため、図10の(a)に示す処理と比較して、認証の信頼度がさらに低下する代わりに、処理速度をさらに高速化することができる。
(Fourth processing by the image processing apparatus 10)
FIG. 10B is a flowchart showing still another example of the processing flow in the image processing method of the present embodiment. The process illustrated in FIG. 10B is different from the process illustrated in FIG. 10A in that step SB2 is omitted. That is, according to the process shown in FIG. 10B, the image processing apparatus 10 removes only S-polarized light and does not remove P-polarized light. Therefore,
According to the process shown in FIG. 10B, in step SB4, the authentication unit 15 performs authentication using an image from which the P-polarized component of the reflected image Ir has not been removed. For this reason, compared with the process shown in FIG. 10A, the processing speed can be further increased instead of further reducing the reliability of authentication.

(実験例1)
上述したS偏光算出部12による第2の処理によって、画像処理装置10により画像内に映り込んだノイズとなる像(映り込み像)の除去を行うことができる理由について、ゴムボールを用いた実験例により以下に説明する。実験に用いたカメラ20はCCDセンサーを用いたカメラであり、画素数は1900×900(約130万画素)である。カメラ20が備える集積偏光子は、偏光角が互いに異なる4種類の偏光素子を有する。以下の説明では、4種類の偏光素子の偏光角について、それぞれ0°、45°、90°、および135°とする。
(Experimental example 1)
An experiment using a rubber ball as to why the image processing apparatus 10 can remove an image (reflection image) that is reflected in the image by the second processing by the S-polarization calculation unit 12 described above. An example will be described below. The camera 20 used in the experiment is a camera using a CCD sensor, and the number of pixels is 1900 × 900 (about 1.3 million pixels). The integrated polarizer included in the camera 20 has four types of polarizing elements having different polarization angles. In the following description, the polarization angles of the four types of polarizing elements are 0 °, 45 °, 90 °, and 135 °, respectively.

偏光素子の製造方法は以下のとおりである。まず、CCDセンサーを構成するフォトダイオードの上にSiO層間膜を介して膜厚40nmのAlCuを成膜し、300nmピッチで150nmのスリット(AlCuが存在しない帯状の領域)をドライエッチングにより形成する。その後、膜厚50nmのSiOおよび膜厚40nmのAlCuを順に成膜し、新たなAlCuに、先に成膜したAlCuと互い違いになるようにスリットを形成する。 The manufacturing method of a polarizing element is as follows. First, an AlCu film having a thickness of 40 nm is formed on a photodiode constituting a CCD sensor via an SiO 2 interlayer film, and a slit (a band-like region having no AlCu) is formed by dry etching at a pitch of 300 nm. . Thereafter, SiO 2 with a film thickness of 50 nm and AlCu with a film thickness of 40 nm are sequentially formed, and slits are formed in new AlCu so as to alternate with previously formed AlCu.

ゴムボールの直径は10cmであり、パターン像として表面に「G」の文字が書かれている。それぞれの図の基となった写真においては、パターン像と重なる位置に映り込みが発生していた。ゴムボールとカメラ20のレンズとの間の距離は30cm〜50cmである。   The diameter of the rubber ball is 10 cm, and a letter “G” is written on the surface as a pattern image. In the photograph that is the basis of each figure, the reflection occurred at the position overlapping the pattern image. The distance between the rubber ball and the lens of the camera 20 is 30 cm to 50 cm.

偏光角45°の偏光により形成された画像においては、パターン像は比較的明瞭であった。一方、偏光角0°および90°の偏光により形成された画像においては、パターン像が不明瞭であった。偏光角135°の偏光により形成された画像においては、パターン像がさらに不明瞭であった。すなわち、この集積偏光子では、4つの偏光素子を透過した光において、偏光角45°の偏光素子を透過した光の輝度が最も高く、偏光角135°の偏光素子を透過した光の輝度が最も低い。そのため、下記の実測値には、これらの2つの光の輝度の差を算出した結果を用いている。   In an image formed by polarized light having a polarization angle of 45 °, the pattern image was relatively clear. On the other hand, the pattern image was unclear in the image formed by the polarized light having the polarization angles of 0 ° and 90 °. In an image formed by polarized light having a polarization angle of 135 °, the pattern image was further unclear. That is, in this integrated polarizer, in the light transmitted through the four polarizing elements, the luminance of the light transmitted through the polarizing element having the polarization angle of 45 ° is the highest, and the luminance of the light transmitted through the polarizing element having the polarization angle of 135 ° is the highest. Low. Therefore, the result of calculating the difference in luminance between these two lights is used for the following actual measurement values.

図11は、ゴムボールへの光の入射角に対する、S偏光の反射係数を示すグラフである。図11において、横軸はゴムボールからの光が入射する各画素における、ゴムボールの半径に対する、ゴムボールの中心からの光が入射する画素から当該画素までの距離の比であり、ゴムボールへの光の入射角に対応する値である。また、縦軸は、S偏光の反射係数である。   FIG. 11 is a graph showing the reflection coefficient of S-polarized light with respect to the incident angle of light on the rubber ball. In FIG. 11, the horizontal axis represents the ratio of the distance from the pixel where light from the center of the rubber ball is incident to the pixel to the radius of the rubber ball in each pixel where light from the rubber ball is incident. It is a value corresponding to the incident angle of light. The vertical axis represents the reflection coefficient of S-polarized light.

図11において、各データ点は実測値である。一方、実線は式(2−1)を用いた、ゴムボールの屈折率(n=2.2)における、反射係数の理論値を示すグラフである。S偏光算出部12による実測値は、理論値と合致している。さらに、上述した式(2−2)と、フィッティングにより算出したnの値から、入射角θに対するP偏光の輝度分布を求めることができる。   In FIG. 11, each data point is an actual measurement value. On the other hand, the solid line is a graph showing the theoretical value of the reflection coefficient at the refractive index (n = 2.2) of the rubber ball using the equation (2-1). The actual measurement value by the S-polarized light calculation unit 12 matches the theoretical value. Furthermore, the luminance distribution of P-polarized light with respect to the incident angle θ can be obtained from the above-described equation (2-2) and the value of n calculated by fitting.

以上の通り、本実験では、主軸方向が互いに異なる4つの偏光素子を通して撮影した画像に基づいて、画像に含まれるS偏光成分およびP偏光成分を算出することができる。元の画像からS偏光成分を減算することで、元の画像よりパターン像が明確になった画像を得ることができる。また、元の画像からS偏光成分およびP偏光成分の両方を減算することで、パターン像がさらに明確になった画像を得ることができる。   As described above, in this experiment, the S-polarized component and the P-polarized component included in the image can be calculated based on the images taken through the four polarizing elements having different principal axis directions. By subtracting the S-polarized component from the original image, an image in which the pattern image is clearer than the original image can be obtained. Further, by subtracting both the S-polarized light component and the P-polarized light component from the original image, an image with a clearer pattern image can be obtained.

なお、実際にユーザが携帯情報端末1により目の画像を撮影する場合には、眼球Eが画像の中心からずれることが考えられる。眼球Eが画像の中心からずれている場合には、式(1−1)および(1−2)に示したような簡単な関係は成り立たない。   Note that when the user actually takes an image of the eye with the portable information terminal 1, the eyeball E may be deviated from the center of the image. When the eyeball E is deviated from the center of the image, a simple relationship as shown in equations (1-1) and (1-2) is not established.

このような場合には、入射角がブリュースター角である画素の位置を特定することで、上記のずれを判定することができる。   In such a case, the above-described deviation can be determined by specifying the position of the pixel whose incident angle is the Brewster angle.

具体的には、各画素ユニットにおける画素の輝度の、偏光角への依存性を算出する。上述した通り、ブリュースター角に対応する画素ユニットにおいてはP偏光成分が0となるため、当該画素ユニットの輝度に占めるS偏光成分の比率が大きくなる。その結果、当該画素ユニットに含まれる画素の輝度は、偏光角に依存しての変動が大きくなる。   Specifically, the dependence of the luminance of the pixel in each pixel unit on the polarization angle is calculated. As described above, in the pixel unit corresponding to the Brewster angle, the P-polarized component is 0, so that the ratio of the S-polarized component in the luminance of the pixel unit is increased. As a result, the luminance of the pixels included in the pixel unit varies greatly depending on the polarization angle.

したがって、偏光角に対する依存性が特に大きい画素ユニットを、ブリュースター角に対応する画素であるとみなすことができる。そして、ブリュースター角に対応する画素の位置から、カメラ20の位置のズレを判定することができる。   Therefore, a pixel unit having a particularly large dependency on the polarization angle can be regarded as a pixel corresponding to the Brewster angle. Then, the displacement of the position of the camera 20 can be determined from the position of the pixel corresponding to the Brewster angle.

(実験例2)
図12は、本実施形態の画像処理装置による画像処理の実験結果を示す画像の概略を示す図である。本実験では、互いに異なる7種類の偏光角を有する偏光素子を備える集積偏光子を用いた。また、本実験では、上述したフローチャートにおける、ステップSB1〜SB3によって画像処理を行った。
(Experimental example 2)
FIG. 12 is a diagram showing an outline of an image showing an experimental result of image processing by the image processing apparatus of this embodiment. In this experiment, an integrated polarizer including polarizing elements having seven different polarization angles was used. In this experiment, image processing was performed in steps SB1 to SB3 in the flowchart described above.

本実験に用いた画像は、画像処理前には、図12において矢印の前に示すように、黒目領域への外光の映り込み像Irを含んでいた。これに対し、画像処理後には、図12において矢印の後に示すように、黒目領域への外光の映り込み像Irが除去されていた。   Prior to image processing, the image used in this experiment included a reflected image Ir of external light on the black eye region, as indicated by the arrow in FIG. On the other hand, after the image processing, as shown after the arrow in FIG. 12, the reflected image Ir of the external light on the black eye region has been removed.

(画像処理装置10の効果)
発明者は、本願発明に先駆けて、様々な条件下での従来の虹彩認証システムによる認証の実験を行った。実験においては、スマートフォンのカメラにより撮影を行った。スマートフォンの位置は眼球に対して「正面」および「下」の2種類とした。また、目の開き具合を、スマートフォンの位置が「正面」の場合には「大」、「中」および「小」の3種類とし、スマートフォンの位置が「下」の場合には「中」の1種類とした。
(Effect of the image processing apparatus 10)
Prior to the present invention, the inventor conducted an authentication experiment using a conventional iris authentication system under various conditions. In the experiment, shooting was performed with a smartphone camera. There were two types of smartphone positions: “front” and “bottom” relative to the eyeball. In addition, when the smartphone position is “front”, the opening degree of the eyes is three types: “large”, “medium”, and “small”, and when the smartphone position is “down”, “medium” One type was used.

撮影環境は「屋内」および「屋外」の2種類とした。「屋内」についてはさらに「窓なし」、「窓あり(日陰)」、「窓あり(直射日光)」および「暗室」の4種類に分けた。また、「屋外」についてはさらに「晴天(逆光線)」、「晴天(順光線)」および「晴天(側光線)」の4種類に分類した。なお、「逆光線」とは、太陽光がカメラと逆の側から被写体に入射することを意味する。また、「順光線」とは、太陽光がカメラと同じ側に入射することを意味する。また、「側光線」とは、太陽光がカメラの側方から被写体に入射することを意味する。   There were two types of shooting environments: “indoor” and “outdoor”. “Indoor” was further divided into “no window”, “with window (shade)”, “with window (direct sunlight)” and “dark room”. Further, “outdoor” was further classified into four types, “sunny sky (reverse light)”, “sunny sky (forward light)” and “sunny sky (side light)”. Note that “reverse light” means that sunlight enters the subject from the side opposite to the camera. Further, “forward light” means that sunlight is incident on the same side as the camera. Further, “side light” means that sunlight enters the subject from the side of the camera.

それぞれの条件で10回ずつ認証実験を行った結果を以下に説明する。スマートフォンの位置が「正面」である場合、目の開き具合が「中」以上であれば、「屋内」では「窓あり(直射日光)」以外では認証の失敗はなかった。一方で、「窓あり(直射日光)」では、認証はほとんど成功しなかった。また、目の開き具合が「小」である場合には、いずれの環境においても認証はほとんど成功しなかった。   The results of performing the authentication experiment 10 times under each condition will be described below. When the position of the smartphone is “front”, if the degree of eye opening is “medium” or more, there was no authentication failure except “with window (direct sunlight)” in “indoor”. On the other hand, with “with window (direct sunlight)”, authentication was hardly successful. In addition, when the degree of opening of the eyes was “small”, the authentication was hardly successful in any environment.

一方、スマートフォンの位置が「下」である場合には、「屋内」では「窓あり(直射日光)」以外では認証の失敗はなかった。さらに、「窓あり(直射日光)」における失敗もわずかであった。   On the other hand, when the position of the smartphone is “down”, there was no authentication failure in “indoor” except for “with window (direct sunlight)”. In addition, there were few failures in “with windows (direct sunlight)”.

このように、屋内では、窓からの直射日光が当たる場所でなければ、目の開き具合が小さくなければ認証の失敗はほとんどなかった。   In this way, there was almost no authentication failure indoors unless the eye opening degree was small unless the place was exposed to direct sunlight from a window.

しかし、「屋外」においては、スマートフォンの位置が「正面」であった場合、認証は全く成功しなかった。スマートフォンの位置が「下」であった場合には、「晴天(側光線)」では問題なく認証が行えたものの、「晴天(逆光線)」および「晴天(順光線)」においては認証の成功回数は半分以下であった。   However, in “outdoors”, if the smartphone was in the “front” position, the authentication was not successful at all. When the smartphone is in the “down” position, authentication was successful with “clear sky (side beam)”, but the number of successful authentications with “sunny sky (reverse beam)” and “clear sky (forward beam)” Was less than half.

以上説明したように、従来の虹彩認証システムによる認証は、屋外では成功しにくいという問題があった。これは、上述した通り、眼球への外光などの映り込みが原因である。   As described above, there has been a problem that authentication by the conventional iris authentication system is difficult to succeed outdoors. As described above, this is caused by reflection of external light or the like on the eyeball.

特許文献1には、鏡面反射成分の輝度分布を求めることにより、上記反射成分を分離すること、ひいては被写体である眼球に映り込んだ他の物体の像を除去して虹彩認証を行うことについての開示は無い。また、上記物体の像を除去する処理以外の虹彩認証のための処理を行うことについての開示は無い。   Japanese Patent Application Laid-Open No. 2004-228688 discusses separating the reflection component by obtaining the luminance distribution of the specular reflection component, and thus performing iris authentication by removing an image of another object reflected in the eyeball as the subject. There is no disclosure. There is no disclosure about performing processing for iris authentication other than processing for removing the image of the object.

本実施形態の画像処理装置によれば、S偏光算出部12によって入射角θに依存したS偏光成分の輝度分布を求めることにより、眼球の画像に含まれる映り込み像Irに起因したS偏光成分を算出し、除去することができる。また、本実施形態の画像処理装置によれば、S偏光成分に基づいて映り込み像Irに起因したP偏光成分を算出し、除去することができる。   According to the image processing apparatus of this embodiment, the S-polarized light component resulting from the reflected image Ir included in the image of the eyeball is obtained by obtaining the luminance distribution of the S-polarized light component depending on the incident angle θ by the S-polarized light calculating unit 12. Can be calculated and removed. Further, according to the image processing apparatus of the present embodiment, it is possible to calculate and remove the P-polarized light component resulting from the reflected image Ir based on the S-polarized light component.

すなわち、本実施形態の画像処理装置によれば、眼球への外光の映り込みを除去することができる。外光の映り込みを除去した画像により虹彩認証を行うことで、環境を問わず、かつ精度の高い認証を行うことができる。   That is, according to the image processing apparatus of the present embodiment, it is possible to remove the reflection of external light on the eyeball. By performing iris authentication using an image from which the reflection of external light is removed, high-accuracy authentication can be performed regardless of the environment.

また、特許文献1の画像処理方法では、上述の(5)の処理において拡散反射成分および鏡面反射成分を分離するために、上述の(1)〜(4)の処理を行う必要がある。そのため、特許文献1の画像処理方法では、上記2つの反射成分を分離するためのアルゴリズムが複雑化し、その結果、画像処理の演算速度が低下する可能性がある。本実施形態の画像処理装置10においては、上述のとおり、上記(1)〜(4)の処理を行うことなく、上記2つの反射成分を分離することが可能である。したがって、特許文献1の画像処理方法に比べ、画像処理の演算速度を向上させることができる。   Further, in the image processing method of Patent Document 1, it is necessary to perform the above-described processes (1) to (4) in order to separate the diffuse reflection component and the specular reflection component in the above-described process (5). Therefore, in the image processing method of Patent Document 1, an algorithm for separating the two reflection components is complicated, and as a result, the calculation speed of the image processing may be reduced. In the image processing apparatus 10 of the present embodiment, as described above, the two reflection components can be separated without performing the processes (1) to (4). Therefore, the calculation speed of image processing can be improved as compared with the image processing method of Patent Document 1.

〔実施形態2〕
本発明の実施形態2について、図4および図5に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
Embodiment 2 of the present invention will be described below with reference to FIGS. 4 and 5. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

実施形態1のカメラ20は、集積偏光子21として9つの偏光素子21a〜21iを有している。一方、図5の(a)に示すように、本実施形態のカメラ20は、隣接する4つの画素にそれぞれ対応する4つの偏光素子21j〜21mを有する集積偏光子21Aを備えている。4つの偏光素子21j、21k、21lおよび21mは、各画素において、135°、90°、45°、0°の偏光角を有する。このように、本実施形態では、集積偏光子21の代わりに集積偏光子21Aを用いる。この場合も、実施形態1と同様、図1、図9および図10に示すステップSA1およびSB1においてS偏光輝度値の算出を行うことができる。すなわち、実施形態1と同様、反射光Lrから鏡面反射成分を除去することができる。   The camera 20 of the first embodiment has nine polarizing elements 21 a to 21 i as the integrated polarizer 21. On the other hand, as shown to (a) of FIG. 5, the camera 20 of this embodiment is provided with the integrated polarizer 21A which has the four polarizing elements 21j-21m respectively corresponding to four adjacent pixels. The four polarizing elements 21j, 21k, 21l and 21m have polarization angles of 135 °, 90 °, 45 ° and 0 ° in each pixel. As described above, in this embodiment, the integrated polarizer 21 </ b> A is used instead of the integrated polarizer 21. Also in this case, as in the first embodiment, the S-polarized luminance value can be calculated in steps SA1 and SB1 shown in FIGS. That is, as in the first embodiment, the specular reflection component can be removed from the reflected light Lr.

ただし、本実施形態の集積偏光子21Aは、4つの偏光素子21j〜21mとその数が実施形態1よりも少ない。   However, the integrated polarizer 21A of the present embodiment has four polarizing elements 21j to 21m and the number thereof is smaller than that of the first embodiment.

一般に、集積偏光子の偏光角と画素が受ける反射光Lrの受光強度との特性において、当該受光強度は略正弦関数または略余弦関数を形成する。実施形態1では、1つの画素ユニットにおいて、9つの偏光素子21a〜21iにおける反射光Lrの受光強度を取得している。そのため、図7に示すように、上記特性における受光強度が示す波形を、上記略正弦関数または略余弦関数にフィッティングさせることができる。したがって、例えば図1に示すステップSA1で用いられる、1つの画素ユニットにおける受光強度の最大値(最大輝度値)および最小値(最小輝度値)は、当該画素ユニットにおける最大輝度値および最小輝度値と略一致している可能性が高い。   Generally, in the characteristics of the polarization angle of the integrated polarizer and the received light intensity of the reflected light Lr received by the pixel, the received light intensity forms a substantially sine function or a substantially cosine function. In the first embodiment, the received light intensity of the reflected light Lr in the nine polarizing elements 21a to 21i is acquired in one pixel unit. Therefore, as shown in FIG. 7, the waveform indicated by the received light intensity in the above characteristics can be fitted to the above approximate sine function or approximate cosine function. Therefore, for example, the maximum value (maximum luminance value) and the minimum value (minimum luminance value) of the received light intensity in one pixel unit used in step SA1 shown in FIG. 1 are the maximum luminance value and the minimum luminance value in the pixel unit. It is highly possible that they are almost identical.

一方、本実施形態では、補間して上記略正弦関数または略余弦関数にフィッティングさせるが、実施形態1よりも、フィッティングの精度が低下し、上記最大輝度値および最小輝度値から離れてしまう可能性がある。   On the other hand, in the present embodiment, the interpolation is performed to fit the approximate sine function or the approximate cosine function. However, the accuracy of the fitting is lower than in the first embodiment, and there is a possibility that the accuracy is far from the maximum brightness value and the minimum brightness value. There is.

しかしながら、本実施形態では、集積偏光子21Aに対応する1つの画素ユニットが4つの画素で構成されている。すなわち、実施形態1よりも集積偏光子21Aの数が多くなる。そのため、例えばブリュースター角に対応する画素を、実施形態1よりも細分化して取得することが可能となる。すなわち、当該画素をより精度良く特定することが可能となる。   However, in the present embodiment, one pixel unit corresponding to the integrated polarizer 21A is composed of four pixels. That is, the number of integrated polarizers 21A is larger than that in the first embodiment. Therefore, for example, the pixel corresponding to the Brewster angle can be obtained by being subdivided as compared with the first embodiment. That is, the pixel can be specified with higher accuracy.

このように、本実施形態では、実施形態1と比較し、フィッティングの精度が低下する可能性があるものの、ブリュースター角に対応する画素を精度良く特定することができる。したがって、虹彩認証を行ったときの精度を検証することにより、実施形態1の集積偏光子21、および本実施形態の集積偏光子21Aのいずれを用いるかを決定すればよい。   As described above, in the present embodiment, compared with the first embodiment, although the fitting accuracy may be reduced, the pixel corresponding to the Brewster angle can be specified with high accuracy. Therefore, it is only necessary to determine which of the integrated polarizer 21 of the first embodiment and the integrated polarizer 21A of the present embodiment is used by verifying the accuracy when performing iris authentication.

なお、上記検証を行うことで、集積偏光子21Aの代わりに、図5の(b)に示す集積偏光子21B(偏光角が90°である偏光素子21nと偏光角が0°である偏光素子21oとを2つずつ備える)を使用してもよい。また、偏光角、および1つの画素ユニットに対応する偏光素子の数は、上記検証に応じて適宜変更可能である。   By performing the above verification, instead of the integrated polarizer 21A, the integrated polarizer 21B shown in FIG. 5B (a polarizing element 21n having a polarization angle of 90 ° and a polarizing element having a polarization angle of 0 °) 21o and 2) may be used. Further, the polarization angle and the number of polarizing elements corresponding to one pixel unit can be appropriately changed according to the verification.

〔実施形態3〕
本発明の実施形態3について図13および図14に基づいて説明すれば、以下のとおりである。虹彩画像を用いた認証においては、眼球Eの偽造物を用いることにより、ユーザ本人になりすまして認証を行うケースが考えられる。したがって、このなりすましを防止することを検討する必要がある。
[Embodiment 3]
The third embodiment of the present invention will be described below with reference to FIGS. 13 and 14. In authentication using an iris image, a case where authentication is performed by impersonating the user himself by using a counterfeit of the eyeball E can be considered. Therefore, it is necessary to consider preventing this impersonation.

図13は、本実施形態の画像処理装置10Aを備える携帯情報端末1Aの構成を示すブロック図である。図13に示すように、画像処理装置10Aは、画像処理装置10と比較して、認証部15がなりすまし判定部15aを備える点で相違する。   FIG. 13 is a block diagram illustrating a configuration of a portable information terminal 1A including the image processing apparatus 10A according to the present embodiment. As illustrated in FIG. 13, the image processing apparatus 10 </ b> A is different from the image processing apparatus 10 in that the authentication unit 15 includes an impersonation determination unit 15 a.

一般に、生体の眼の角膜の屈折率はn=1.376である。一方、眼の偽造物の場合には、生体の眼を構成する成分とその素材が異なるゆえ、屈折率が生体の眼とは異なる。なりすまし判定部15aは、この違いを利用して、眼が生体であるか偽造物であるかを判定する。   In general, the refractive index of the cornea of a living eye is n = 1.376. On the other hand, in the case of a counterfeit eye, the refractive index is different from that of the living eye because the components constituting the eye of the living body and the material thereof are different. The impersonation determination unit 15a uses this difference to determine whether the eye is a living body or a forgery.

具体的には、なりすまし判定部15aは、ステップSB1においてS偏光算出部12が算出したnの値を参照する。nの値が1.376と同一かそれに近い値(すなわち所定の範囲内、例えば±5%以内の値)であれば、なりすまし判定部15aは撮影された画像について、生体の眼球Eであると判定する。一方、算出されたnの値が1.376から離れた値(すなわち所定の範囲外、例えば±5%を超えて離れた値)であれば、なりすまし判定部15aは撮影された画像について、眼球Eの偽造物であると判定する。   Specifically, the impersonation determination unit 15a refers to the value of n calculated by the S polarization calculation unit 12 in step SB1. If the value of n is equal to or close to 1.376 (that is, a value within a predetermined range, for example, within ± 5%), the impersonation determination unit 15a determines that the captured image is a living eyeball E. judge. On the other hand, if the calculated value of n is a value that deviates from 1.376 (that is, a value that is outside a predetermined range, for example, a value that exceeds ± 5%), the impersonation determination unit 15a applies an eyeball to the captured image. It is determined that it is a forgery of E.

図14は、画像処理装置10Aにおける処理の流れを示すフローチャートである。図14に示すように、画像処理装置10Aにおける処理は、図1に示す処理と比較して、ステップSB3とステップSB4との間にステップSB5が実行される点においてのみ異なる。   FIG. 14 is a flowchart showing the flow of processing in the image processing apparatus 10A. As shown in FIG. 14, the processing in the image processing apparatus 10A differs from the processing shown in FIG. 1 only in that step SB5 is executed between step SB3 and step SB4.

ステップSB5において、なりすまし判定部15aは、ステップSB1においてS偏光算出部12が算出したnの値が所定の範囲内であるか判定する。所定の範囲内である場合(SB5、Y)、なりすまし判定部15aは、撮影された画像が生体の眼球Eであると判定し、SB4の処理を行う。一方、所定の範囲内でない場合(SB5、N)、なりすまし判定部15aは、撮影された画像が眼球Eの偽造物であると判定し、SB4の処理を行うことなく認証を終了する。   In step SB5, the impersonation determining unit 15a determines whether the value of n calculated by the S-polarized light calculating unit 12 in step SB1 is within a predetermined range. When it is within the predetermined range (SB5, Y), the impersonation determination unit 15a determines that the captured image is the eyeball E of the living body, and performs the process of SB4. On the other hand, when it is not within the predetermined range (SB5, N), the impersonation determination unit 15a determines that the captured image is a counterfeit of the eyeball E, and ends the authentication without performing the process of SB4.

以上の通り、本実施形態に係る画像処理方法によれば、S偏光算出部12によって入射角θに依存したS偏光成分の輝度分布を求めることにより、当該S偏光の輝度分布を、被写体が眼球なのか、偽造物であるかの判別に利用することができる。   As described above, according to the image processing method according to the present embodiment, the luminance distribution of the S-polarized light component depending on the incident angle θ is obtained by the S-polarized light calculation unit 12, and the luminance distribution of the S-polarized light is determined by the subject's eyeball. It can be used to determine whether it is a counterfeit or not.

なお、なりすまし判定部15aは、ステップSB2においてP偏光算出部13により算出されたP偏光成分の輝度分布について、輝度値が最小となる角度をブリュースター角とみなしてもよい。そして、当該角度が53.1°に近い値であるか否かによって、生体の眼球Eであるか、眼球Eの偽造物であるかを判定してもよい。すなわち、なりすまし判定部15aは、上記角度が、生体の眼球Eであると推定されるブリュースター角を含む所定の範囲内にあるか否かに基づいて、上記判定を行ってもよい。   The spoofing determination unit 15a may regard the angle at which the luminance value is minimum as the Brewster angle for the luminance distribution of the P-polarized light component calculated by the P-polarized light calculation unit 13 in step SB2. Then, whether the angle is a value close to 53.1 ° or not may be determined as the eyeball E of the living body or a forgery of the eyeball E. That is, the impersonation determination unit 15a may perform the determination based on whether or not the angle is within a predetermined range including the Brewster angle estimated to be the eyeball E of the living body.

また、図9および図10の処理においても、ステップSB3とステップSB4との間にステップSB5を実行することで、上記判別を行うことができる。   Also in the processes of FIGS. 9 and 10, the above determination can be made by executing step SB5 between steps SB3 and SB4.

(変形例)
偽造物によるなりすましを防止する別の方法について、以下に説明する。
(Modification)
Another method for preventing impersonation due to counterfeits is described below.

屈折率が生体の眼球Eとは異なる偽造物に対して、ブリュースター角を53.1°として映り込み除去を行った場合、当該偽造物への外光などの映り込みが適切には除去されない。したがって、外光などの映り込みが存在する場合には、屈折率の算出を行わなくても、当該映り込みによって虹彩パターンが変化し、認証に失敗する可能性が高い。   If a Brewster's angle is set to 53.1 ° for a counterfeit whose refractive index is different from that of the living eyeball E, the reflection of external light or the like on the counterfeit is not properly removed. . Therefore, when there is a reflection of external light or the like, there is a high possibility that the iris pattern changes due to the reflection and authentication fails without calculating the refractive index.

しかし、例えば暗室など、映り込みが発生しない環境で認証を行った場合、虹彩パターンが変化せず、認証に成功する虞がある。   However, when authentication is performed in an environment where no reflection occurs, such as in a dark room, the iris pattern does not change, and authentication may be successful.

そこで、偽造物によるなりすましを防止する方法として、眼球Eに映り込みを意図的に発生させるための光源を画像処理装置に備えてもよい。発生した映り込み(光源の像)は、生体の眼球Eであれば、画像処理装置により適切に除去されるため、認証に影響しない。一方、眼球Eの偽造物であれば、画像処理装置は当該映り込みを除去できないため、認証に失敗する。なお、このような光源が発する光の強度は、映り込みが発生しさえすればよい。したがって、例えば人体に悪影響を及ぼすような高い強度である必要はない。   Therefore, as a method for preventing impersonation by a forgery, the image processing apparatus may be provided with a light source for intentionally generating reflection in the eyeball E. The generated reflection (image of the light source) is appropriately removed by the image processing apparatus in the case of the eyeball E of the living body, and thus does not affect the authentication. On the other hand, if it is a counterfeit of the eyeball E, the image processing apparatus cannot remove the reflection, and authentication fails. Note that the intensity of light emitted from such a light source only needs to be reflected. Therefore, for example, it is not necessary to have a high strength that adversely affects the human body.

〔実施形態4〕
本発明の実施形態4について図15〜図17に基づいて説明すれば、以下のとおりである。
[Embodiment 4]
Embodiment 4 of the present invention will be described below with reference to FIGS. 15 to 17.

図15は、本実施形態に係る画像処理装置10Bを備える電子情報機器2の構成を示すブロック図である。図15に示すように、電子情報機器2は、画像処理装置10B、カメラ20、および記憶部90を備える。また、画像処理装置10Bは、輝度値情報取得部16、最小輝度値選択部17(画像生成部)、黒目検出部11、および認証部15を備える。   FIG. 15 is a block diagram illustrating a configuration of the electronic information device 2 including the image processing apparatus 10B according to the present embodiment. As illustrated in FIG. 15, the electronic information device 2 includes an image processing device 10 </ b> B, a camera 20, and a storage unit 90. In addition, the image processing apparatus 10B includes a luminance value information acquisition unit 16, a minimum luminance value selection unit 17 (image generation unit), a black eye detection unit 11, and an authentication unit 15.

輝度値情報取得部16は、カメラ20が備える撮像素子によって、当該撮像素子における、被写体の実効的な放射輝度値である実効放射輝度値を当該被写体から取得する。具体的には、輝度値情報取得部16は、カメラ20が備える撮像素子の画素のそれぞれにおいて被写体で反射された光を受光したときの当該光の強度を、各画素における実効放射輝度値として取得する。なお、本実施形態および以後の実施形態において、「被写体」は、片目の眼球Eまたは両目の眼球Eのいずれであってもよく、また眼球Eの周囲の物体を含んでいてもよい。   The brightness value information acquisition unit 16 acquires an effective radiance value, which is an effective radiance value of the subject in the image sensor, from the subject by the image sensor provided in the camera 20. Specifically, the luminance value information acquisition unit 16 acquires the intensity of the light when the light reflected by the subject is received in each of the pixels of the imaging element included in the camera 20 as an effective radiance value in each pixel. To do. In this embodiment and the following embodiments, the “subject” may be either the eyeball E of one eye or the eyeball E of both eyes, and may include an object around the eyeball E.

最小輝度値選択部17は、被写体の黒目から取得した実効放射輝度値を用いて、黒目の像を含む撮像画像を生成する。具体的には、最小輝度値選択部17は、被写体の黒目に対応する画素ユニットごとに、当該画素ユニットに含まれる複数の画素の実効放射輝度値から、被写体の黒目の表面での正反射光成分の少なくとも一部を除去し、得られた輝度値を有する単位領域の集合としての撮像画像を生成する。また、上述した拡散光算出部14、並びに後述する最小輝度値推定部17Aおよび拡散反射光成分算出部18も同様である。   The minimum luminance value selection unit 17 generates a captured image including an image of a black eye using an effective radiance value acquired from the black eye of the subject. Specifically, for each pixel unit corresponding to the subject's black eye, the minimum luminance value selection unit 17 performs regular reflection light on the surface of the subject's black eye from the effective radiance values of a plurality of pixels included in the pixel unit. At least a part of the components is removed, and a captured image is generated as a set of unit regions having the obtained luminance value. The same applies to the diffuse light calculation unit 14 described above, and the minimum luminance value estimation unit 17A and the diffuse reflection light component calculation unit 18 described later.

より具体的には、本実施形態の最小輝度値選択部17は、画素ユニットに含まれる複数の画素の実効放射輝度値のうちの最小値を、当該画素ユニットに対応する単位領域における輝度値として決定する。被写体の黒目に対応する画素ユニットは、予め黒目検出部11により特定される。単位領域とは、カメラ20が備える画素ユニットのそれぞれに対応する、被写体の画像における領域である。   More specifically, the minimum luminance value selection unit 17 of the present embodiment uses the minimum value among the effective radiance values of a plurality of pixels included in the pixel unit as the luminance value in the unit region corresponding to the pixel unit. decide. The pixel unit corresponding to the black eye of the subject is specified in advance by the black eye detection unit 11. The unit area is an area in the image of the subject corresponding to each pixel unit included in the camera 20.

本実施形態および後述の実施形態では、映り込み像を形成する反射光の成分を正反射光成分と称する。正反射光成分は、画素に対応して設けられた偏光素子の主軸方向に依存する成分を含む。画素ユニットにおける実効放射輝度値の最小値は、当該画素ユニットにおいて、偏光素子の主軸方向に依存する成分が最もよく除去された実効放射輝度値であるといえる。したがって、最小輝度値選択部17は、画素ユニットにおける実効放射輝度値の最小値を単位領域の輝度値として決定することで、被写体の角膜の表面での正反射光成分の少なくとも一部を除去し、得られた輝度値を有する単位領域の集合としての撮像画像を生成する。   In the present embodiment and later-described embodiments, a component of reflected light that forms a reflected image is referred to as a regular reflected light component. The specularly reflected light component includes a component that depends on the principal axis direction of the polarizing element provided corresponding to the pixel. It can be said that the minimum value of the effective radiance value in the pixel unit is an effective radiance value in which the component depending on the principal axis direction of the polarizing element is most removed in the pixel unit. Accordingly, the minimum luminance value selection unit 17 determines the minimum value of the effective radiance value in the pixel unit as the luminance value of the unit region, thereby removing at least a part of the specularly reflected light component on the surface of the cornea of the subject. Then, a captured image as a set of unit areas having the obtained luminance value is generated.

記憶部90は、画像処理装置10Bが実行する処理に必要な情報を格納する記憶装置である。なお、電子情報機器2は記憶部90を備えず、電子情報機器2の外部に設けられた記憶装置と通信可能に構成されていてもよい。   The storage unit 90 is a storage device that stores information necessary for processing executed by the image processing apparatus 10B. The electronic information device 2 may not be provided with the storage unit 90 and may be configured to be able to communicate with a storage device provided outside the electronic information device 2.

図16は、画像処理装置10Bにおける処理を示すフローチャートである。画像処理装置10Bにおいては、まず、輝度値情報取得部16は、カメラ20により、黒目を含む被写体の実効放射輝度値を取得する(SC1、輝度値情報取得ステップ)。次に、黒目検出部11は、実効放射輝度値から黒目領域を検出する(SC11)。最小輝度値選択部17は、黒目検出部11が検出した黒目領域を、画像処理を実行する範囲として決定する(S12)。最小輝度値選択部17は、黒目領域内の画素ユニットに含まれる複数の画素の実効放射輝度値のうちの最小値を、当該画素ユニットに対応する単位領域の輝度値として決定することで、角膜の表面での正反射光成分の少なくとも一部を除去する(SC2、画像生成ステップ)。さらに最小輝度値選択部17は、ステップSC2において決定した輝度値を有する単位領域の集合としての撮像画像を生成する(SC3、画像生成ステップ)。   FIG. 16 is a flowchart showing processing in the image processing apparatus 10B. In the image processing apparatus 10B, first, the luminance value information acquisition unit 16 acquires the effective radiance value of the subject including the black eye using the camera 20 (SC1, luminance value information acquisition step). Next, the black eye detection unit 11 detects a black eye region from the effective radiance value (SC11). The minimum luminance value selection unit 17 determines the black eye area detected by the black eye detection unit 11 as a range for executing image processing (S12). The minimum luminance value selection unit 17 determines the minimum value among the effective radiance values of a plurality of pixels included in the pixel unit in the black-eye region as the luminance value of the unit region corresponding to the pixel unit, whereby the cornea At least a part of the specularly reflected light component on the surface of the image is removed (SC2, image generation step). Further, the minimum luminance value selection unit 17 generates a captured image as a set of unit areas having the luminance value determined in step SC2 (SC3, image generation step).

黒目検出部11は、最小輝度値選択部17が生成した撮像画像に対して黒目領域を検出する処理を実行する(SC4)。黒目検出部11は、ステップSC11における黒目領域の検出結果を、そのままステップSC4における検出結果として用いてもよい。認証部15は、検出された黒目領域を用いて、本人認証を行う(SC5)。その後、認証部15は、ユーザを認証できたか否か判定する(SC6)。認証できた場合(SC6でY)、画像処理装置10Bは処理を終了する。認証できなかった場合(SC6でN)、黒目検出部11は、再度黒目領域の検出を行う。   The black eye detection unit 11 performs a process of detecting a black eye region on the captured image generated by the minimum luminance value selection unit 17 (SC4). The black eye detection unit 11 may use the detection result of the black eye region in step SC11 as it is as the detection result in step SC4. The authentication unit 15 authenticates the person using the detected black eye area (SC5). Thereafter, the authentication unit 15 determines whether or not the user has been authenticated (SC6). If the authentication is successful (Y in SC6), the image processing apparatus 10B ends the process. If the authentication fails (N in SC6), the black eye detection unit 11 detects the black eye region again.

ステップSC6でNとなった場合、黒目検出部11がユーザの黒目領域を正しく検出できていない可能性がある。そこで、ステップSC6でNとなった後のステップSC4では、黒目検出部11は、検出する黒目領域を前回のステップSC4において検出した黒目領域とは異ならせることが好ましい。黒目領域を異ならせる方法の具体例としては、黒目領域の径を拡大または縮小することが挙げられる。このように、登録されているユーザの眼球のコードと撮像した眼球Eのコードとのハミングディスタンスが最小となるように、黒目検出部11による黒目領域の検出処理にフィードバックをかけることが好ましい。   When N is determined in step SC6, there is a possibility that the black eye detection unit 11 cannot correctly detect the user's black eye region. Therefore, in step SC4 after having become N in step SC6, it is preferable that the black eye detection unit 11 makes the detected black eye region different from the black eye region detected in the previous step SC4. As a specific example of the method of making the black eye region different, enlarging or reducing the diameter of the black eye region may be mentioned. As described above, it is preferable to apply feedback to the detection process of the black eye region by the black eye detection unit 11 so that the hamming distance between the code of the registered user's eyeball and the code of the captured eyeball E is minimized.

図17は、画素ユニットにおける画素の実効放射輝度値の例を示すグラフである。図17に示すグラフにおいては、横軸がカメラ20の画素ユニットに含まれる各画素に対応する偏光素子の主軸の角度、縦軸が画素ユニットにおける画素の実効放射輝度値を示す。図17に示す例では、画素ユニットは9つの画素を含み、それぞれの画素は主軸方向が10°を起点として20°ずつ異なる9つの偏光素子に対応する。   FIG. 17 is a graph showing an example of the effective radiance value of the pixel in the pixel unit. In the graph shown in FIG. 17, the horizontal axis represents the angle of the main axis of the polarizing element corresponding to each pixel included in the pixel unit of the camera 20, and the vertical axis represents the effective radiance value of the pixel in the pixel unit. In the example shown in FIG. 17, the pixel unit includes nine pixels, and each pixel corresponds to nine polarizing elements whose principal axis directions are different from each other by 20 ° starting from 10 °.

図17に示す例では、画素ユニットにおける画素の実効放射輝度値は、対応する偏光素子の主軸方向が90°である画素において最小値を取り、対応する偏光素子の主軸方向が170°である画素において最大値を取る。この場合、最小輝度値選択部17は、主軸方向が90°である偏光素子に対応する画素の実効放射輝度値を、当該画素ユニットに対応する単位領域の輝度値として選択する。   In the example shown in FIG. 17, the effective radiance value of the pixel in the pixel unit has a minimum value in a pixel in which the main axis direction of the corresponding polarizing element is 90 °, and the pixel in which the main axis direction of the corresponding polarizing element is 170 °. Take the maximum value at. In this case, the minimum luminance value selection unit 17 selects the effective radiance value of the pixel corresponding to the polarizing element whose principal axis direction is 90 ° as the luminance value of the unit region corresponding to the pixel unit.

画像処理装置10Bにおいては、画素ユニットのそれぞれに含まれる画素の実効放射輝度値のうちの最小値を、当該画素ユニットに対応する単位領域の輝度値として決定する。これにより、複雑な計算処理を必要とせず、単位領域の輝度値を簡易に決定し、撮像画像を生成することができる。   In the image processing apparatus 10B, the minimum value of the effective radiance values of the pixels included in each pixel unit is determined as the luminance value of the unit area corresponding to the pixel unit. As a result, it is possible to easily determine the luminance value of the unit region and generate a captured image without requiring complicated calculation processing.

なお、画像処理装置10Bは、上述したフローチャートのステップのうち、ステップSC11・SC12を省略してもよい。この場合、最小輝度値選択部17は、全ての画素ユニットのそれぞれについて、対応する単位領域の輝度値を決定すればよい。また、後述する実施形態5の画像処理装置10Cも、ステップSC11・SC12を省略してもよい。ただし、後述する実施形態6〜8の画像処理装置10D・10Eは、ステップSC11・SC12を省略できない。また、処理速度の観点からは、黒目領域に対応する画素ユニットについてのみ、当該画素ユニットに対応する単位領域の輝度値を決定する方が好ましいため、画像処理装置10B・10CにおいてもステップSC11・SC12を実行することが好ましい。   Note that the image processing apparatus 10B may omit steps SC11 and SC12 among the steps of the flowchart described above. In this case, the minimum luminance value selection unit 17 may determine the luminance value of the corresponding unit area for each of all the pixel units. Further, steps SC11 and SC12 may also be omitted in the image processing apparatus 10C of the fifth embodiment described later. However, steps SC11 and SC12 cannot be omitted in image processing apparatuses 10D and 10E according to Embodiments 6 to 8 described later. Further, from the viewpoint of processing speed, it is preferable to determine the luminance value of the unit area corresponding to the pixel unit only for the pixel unit corresponding to the black eye area. Therefore, the image processing apparatuses 10B and 10C also perform steps SC11 and SC12. Is preferably performed.

また、実施形態4および5の画像処理装置10B・10Cは、ステップSC2の前に黒目ではなく別の領域、例えば黒目より所定の範囲だけ広い領域、または眼球E全体に対応する領域などを特定する処理を行ってもよい。この場合、最小輝度値選択部17または最小輝度値推定部17A(実施形態5参照)は、特定した上記領域について画像処理を実行すればよい。すなわち、画像処理装置10B・10Cは、被写体の少なくとも黒目(少なくとも一部)に対応する画素ユニットに含まれる複数の画素の実効放射輝度値に基づいて、当該画素ユニットに対応する単位領域における輝度値を決定すればよい。   Further, the image processing apparatuses 10B and 10C according to the fourth and fifth embodiments specify not a black eye but another region, for example, a region wider than the black eye by a predetermined range, or a region corresponding to the entire eyeball E before step SC2. Processing may be performed. In this case, the minimum luminance value selection unit 17 or the minimum luminance value estimation unit 17A (see Embodiment 5) may perform image processing for the specified area. In other words, the image processing apparatuses 10B and 10C can determine the luminance value in the unit region corresponding to the pixel unit based on the effective radiance value of the plurality of pixels included in the pixel unit corresponding to at least the black eye (at least part) of the subject. Can be determined.

〔実施形態5〕
本発明の実施形態5について図18〜図20に基づいて説明すれば、以下のとおりである。
[Embodiment 5]
The fifth embodiment of the present invention will be described below with reference to FIGS.

図18は、本実施形態に係る画像処理装置10Cを備える電子情報機器2の構成を示すブロック図である。図18に示すように、画像処理装置10Cは、最小輝度値選択部17の代わりに最小輝度値推定部17A(画像生成部)を備える点で画像処理装置10Bと相違し、その他の点で画像処理装置10Bと一致する。   FIG. 18 is a block diagram illustrating a configuration of the electronic information device 2 including the image processing apparatus 10C according to the present embodiment. As shown in FIG. 18, the image processing apparatus 10 </ b> C is different from the image processing apparatus 10 </ b> B in that a minimum luminance value estimation unit 17 </ b> A (image generation unit) is provided instead of the minimum luminance value selection unit 17. It matches the processing device 10B.

最小輝度値推定部17Aは、画素ユニットのそれぞれに含まれる複数の画素の実効放射輝度値に基づいて、当該画素ユニットにおいて取り得る実効放射輝度値の最小値を推定する。最小値の具体的な推定方法の例については後述する。   Based on the effective radiance values of a plurality of pixels included in each pixel unit, the minimum luminance value estimator 17A estimates the minimum effective radiance value that can be taken in the pixel unit. An example of a specific method for estimating the minimum value will be described later.

さらに最小輝度値推定部17Aは、推定した実効放射輝度値の最小値から、単位領域の輝度値を決定する。ここで、最小輝度値推定部17Aは、推定した最小値を単位領域の輝度値としてもよく、推定した輝度値について所定の計算を行って算出される値を単位領域の輝度値としてもよい。例えば最小輝度値推定部17Aは、推定した実効放射輝度値の最小値に所定の値を加算、減算、乗算または除算した値を単位領域の輝度値としてもよい。   Further, the minimum luminance value estimation unit 17A determines the luminance value of the unit region from the estimated minimum value of the effective radiance value. Here, the minimum luminance value estimation unit 17A may use the estimated minimum value as the luminance value of the unit region, or may use a value calculated by performing a predetermined calculation on the estimated luminance value as the luminance value of the unit region. For example, the minimum luminance value estimation unit 17A may use a value obtained by adding, subtracting, multiplying, or dividing a predetermined value to the minimum value of the estimated effective radiance value as the luminance value of the unit region.

図19は、画像処理装置10Cにおける処理を示すフローチャートである。画像処理装置10Cにおける処理は、ステップSC2の代わりにステップSC7(画像生成ステップ)が実行される点を除いて、画像処理装置10Bにおける処理と同じである。ステップSC7において、最小輝度値推定部17Aは、眼球Eに対応する画素ユニットのそれぞれについて、取り得る実効放射輝度値の最小値を推定する。   FIG. 19 is a flowchart showing processing in the image processing apparatus 10C. The processing in the image processing apparatus 10C is the same as the processing in the image processing apparatus 10B, except that step SC7 (image generation step) is executed instead of step SC2. In step SC7, the minimum luminance value estimation unit 17A estimates the minimum effective radiance value that can be taken for each of the pixel units corresponding to the eyeball E.

図20は、画素ユニットにおける画素の実効放射輝度値の例を示すグラフである。図20に示すグラフにおいては、横軸が画素ユニットに含まれる画素に対応する偏光素子の主軸の角度、縦軸が実効放射輝度値を示す。図20に示す例では、画素ユニットは、主軸方向が10°を起点として45°ずつ異なる4つの偏光素子に対応する4つの画素を含む。   FIG. 20 is a graph showing an example of the effective radiance value of the pixel in the pixel unit. In the graph shown in FIG. 20, the horizontal axis indicates the angle of the main axis of the polarizing element corresponding to the pixels included in the pixel unit, and the vertical axis indicates the effective radiance value. In the example illustrated in FIG. 20, the pixel unit includes four pixels corresponding to four polarizing elements whose main axis directions are different from each other by 45 ° starting from 10 °.

図20に示す例では、画素ユニットに含まれる画素が取得する実効放射輝度値は、対応する偏光素子の主軸方向が100°である画素において最も小さくなる。しかし、主軸方向と実効放射輝度値との関係が、例えば図20に破線で示される関数である場合、画素ユニットに含まれる画素は、当該画素に対応する偏光素子の主軸方向次第で、より小さい実効放射輝度値を取り得るといえる。この場合において、画素ユニットにおける画素の実際の実効放射輝度値の最小値を単位領域の輝度値として決定した場合、当該輝度値には偏光素子の主軸方向に依存する正反射光成分が残った状態となる。画像処理装置10Cは、画素ユニットが取り得る実効放射輝度値の最小値を最小輝度値推定部17Aにより推定することで、画像処理装置10Bが生成する撮像画像と比較して、正反射光成分の少ない撮像画像を生成することができる。   In the example illustrated in FIG. 20, the effective radiance value acquired by the pixels included in the pixel unit is the smallest in the pixel in which the main axis direction of the corresponding polarizing element is 100 °. However, when the relationship between the principal axis direction and the effective radiance value is a function indicated by a broken line in FIG. 20, for example, the pixel included in the pixel unit is smaller depending on the principal axis direction of the polarizing element corresponding to the pixel. It can be said that an effective radiance value can be taken. In this case, when the minimum value of the actual effective radiance value of the pixel in the pixel unit is determined as the luminance value of the unit area, a specularly reflected light component depending on the main axis direction of the polarizing element remains in the luminance value. It becomes. 10C of image processing apparatuses estimate the minimum value of the effective radiance value which a pixel unit can take by the minimum luminance value estimation part 17A, Compared with the captured image which image processing apparatus 10B produces | generates, a regular reflection light component A small number of captured images can be generated.

以下に示す例では、最小輝度値推定部17Aは、画素ユニットのそれぞれに含まれる複数の画素の実効放射輝度値に対して、当該画素に対応する偏光素子の主軸方向の角度を変数とする三角関数を適用することにより、前記最小値を推定する。したがって、最小輝度値推定部17Aは、三角関数の最小値により単位領域が取り得る輝度値の最小値を推定することができる。   In the example shown below, the minimum luminance value estimation unit 17A is a triangle that uses the angle in the principal axis direction of the polarizing element corresponding to the pixel as a variable with respect to the effective radiance value of the plurality of pixels included in each pixel unit. The minimum value is estimated by applying a function. Therefore, the minimum luminance value estimation unit 17A can estimate the minimum luminance value that the unit area can take from the minimum value of the trigonometric function.

(第1の推定方法)
最小輝度値推定部17Aによる、単位領域における輝度値の最小値の推定方法の一例を以下に説明する。ある画素ユニットに含まれる各画素の実効放射輝度値をYとした場合、Yは以下の式(5−1)により表せるものと仮定する。
Y=Asin(2x+B)+C (5−1)
ここで、AおよびBはそれぞれ画素ユニットに固有の定数である。xは画素に対応する偏光素子の主軸の角度である。また、画素ユニットに含まれる画素に対応する偏光素子の主軸方向が等角度間隔である場合、Cは画素ユニットに含まれる各画素の実効放射輝度値の平均E(Y)と一致する。
(First estimation method)
An example of a method of estimating the minimum value of the luminance value in the unit area by the minimum luminance value estimating unit 17A will be described below. When the effective radiance value of each pixel included in a certain pixel unit is Y, it is assumed that Y can be expressed by the following equation (5-1).
Y = Asin (2x + B) + C (5-1)
Here, A and B are constants specific to the pixel unit. x is the angle of the principal axis of the polarizing element corresponding to the pixel. Further, when the principal axis directions of the polarizing elements corresponding to the pixels included in the pixel unit are equiangular intervals, C matches the average E (Y) of the effective radiance values of the pixels included in the pixel unit.

Yの2乗平均をE(Y)とすると、E(Y)は以下の式(5−2)により表される。
E(Y)=A×E(sin(2x+B))+2A×E(C)×E(sin(2x+B))+(E(C)) (5−2)
ここで、ウォリスの公式から、以下の式(5−3)および(5−4)が成り立つ。
E(sin(2x+B))=1/2 (5−3)
E(sin(2x+B))=1/π (5−4)
したがって、式(5−2)を以下の式(5−5)のように変形できる。
E(Y)=A/2+2A×E(C)/π+(E(C)) (5−5)
E(Y)は画素ユニットに含まれる各画素の実効放射輝度値の2乗平均と等しいため、E(C)を各画素の実効放射輝度値の最小値、E(C)を各画素の実効放射輝度値の最小値の二乗値に近似し、式(5−5)をAについて解くことで、Aの値を算出することができる。
If the root mean square of Y is E (Y 2 ), E (Y 2 ) is represented by the following formula (5-2).
E (Y 2 ) = A 2 × E (sin 2 (2x + B)) + 2A × E (C) × E (sin (2x + B)) + (E (C 2 )) (5-2)
Here, from the Wallis formula, the following equations (5-3) and (5-4) hold.
E (sin 2 (2x + B)) = 1/2 (5-3)
E (sin (2x + B)) = 1 / π (5-4)
Therefore, the equation (5-2) can be transformed into the following equation (5-5).
E (Y 2) = A 2 /2 + 2A × E (C) / π + (E (C 2)) (5-5)
Since E (Y 2 ) is equal to the mean square of the effective radiance values of each pixel included in the pixel unit, E (C) is the minimum effective radiance value of each pixel, and E (C 2 ) is each pixel. The value of A can be calculated by approximating the square value of the minimum value of the effective radiance value and solving Equation (5-5) for A.

式(5−5)を解いて算出したAの値、および式(5−1)から、Yが取り得る値の最小値Yminを、以下の式(5−6)により求めることができる。
Ymin=E(Y)−A (5−6)
したがって、最小輝度値推定部17Aは、上記の式(5−5)および(5−6)の計算だけで、画素ユニットに含まれる画素の実効放射輝度値が取り有る最小値を推定することができる。
From the value of A calculated by solving Expression (5-5) and Expression (5-1), the minimum value Ymin that Y can take can be obtained by the following Expression (5-6).
Ymin = E (Y) -A (5-6)
Therefore, the minimum luminance value estimation unit 17A can estimate the minimum value possessed by the effective radiance values of the pixels included in the pixel unit only by the calculations of the above equations (5-5) and (5-6). it can.

図21は、式(5−1)に含まれるパラメータを示すグラフである。図21に示すグラフにおいて、横軸はカメラ20の画素ユニットにおける偏光素子の主軸の角度、縦軸は画素ユニットにおける画素の実効放射輝度値を示す。図21に示す例では、画素ユニットは、主軸方向が10°を起点として45°ずつ異なる4つの偏光素子に対応する4つの画素を含む。   FIG. 21 is a graph showing parameters included in the equation (5-1). In the graph shown in FIG. 21, the horizontal axis represents the angle of the main axis of the polarizing element in the pixel unit of the camera 20, and the vertical axis represents the effective radiance value of the pixel in the pixel unit. In the example shown in FIG. 21, the pixel unit includes four pixels corresponding to four polarizing elements whose main axis directions are different from each other by 45 ° starting at 10 °.

図21に示すように、式(5−1)におけるCの値は、画素ユニットの画素の実効放射輝度値の中央値であり、画素ユニット内の画素の実効放射輝度値の平均値と略等しい。また、式(5−1)におけるAの値は、上記平均値と、単位領域内の画素が取り得る輝度の最小値との差である。また、式(5−1)におけるBの値は、横軸方向におけるグラフの位置を決定する値である。すなわち、Bの値が変動すると、グラフ全体が横軸に平行にシフトする。Bの値はYminに影響しないため、第1の推定方法ではBの値を算出しない。   As shown in FIG. 21, the value C in Expression (5-1) is the median value of the effective radiance values of the pixels of the pixel unit, and is substantially equal to the average value of the effective radiance values of the pixels in the pixel unit. . Further, the value A in the equation (5-1) is the difference between the above average value and the minimum value of luminance that can be taken by the pixels in the unit area. Further, the value B in the equation (5-1) is a value that determines the position of the graph in the horizontal axis direction. That is, when the value of B varies, the entire graph shifts parallel to the horizontal axis. Since the value of B does not affect Ymin, the value of B is not calculated in the first estimation method.

(第2の推定方法)
最小輝度値推定部17Aによる、単位領域における輝度値の最小値の推定方法の第2の推定方法を以下に説明する。第2の推定方法においても、ある画素ユニットに含まれる各画素の実効放射輝度値Yは上記の式(5−1)により表せるものと仮定する。
(Second estimation method)
A second estimation method of the minimum luminance value estimation method in the unit area by the minimum luminance value estimation unit 17A will be described below. Also in the second estimation method, it is assumed that the effective radiance value Y of each pixel included in a certain pixel unit can be expressed by the above equation (5-1).

第2の推定方法では、xの値とsin2xの値との対応関係を示すルックアップテーブルが、予め記憶部90に格納されている。最小輝度値推定部17Aは、上記の式(5−1)におけるAの初期値を以下の(i)および(ii)の平均に設定し、上記ルックアップテーブルを参照して、xの値に対応するYのテーブルを作成する。
(i)画素ユニットに含まれる各画素の実効放射輝度値の最大値と平均値との差
(ii)画素ユニットに含まれる各画素の実効放射輝度値の平均値と最小値との差
作成したテーブルにおけるxとYとの対応関係は、式(5−1)におけるBの値を変化させることでシフトさせることができる。
In the second estimation method, a look-up table indicating a correspondence relationship between the value of x and the value of sin2x is stored in the storage unit 90 in advance. The minimum luminance value estimation unit 17A sets the initial value of A in the above equation (5-1) to the average of the following (i) and (ii), and refers to the lookup table to set the value of x. A corresponding Y table is created.
(I) The difference between the maximum and average effective radiance values of each pixel included in the pixel unit (ii) The difference between the average and minimum effective radiance values of each pixel included in the pixel unit was created. The correspondence relationship between x and Y in the table can be shifted by changing the value of B in equation (5-1).

次に最小輝度値推定部17Aは、作成したテーブルと画素ユニットに含まれる各画素の実効放射輝度値とを比較する。最小輝度値推定部17Aは、Bの値を変化させ、画素ユニットに含まれる各画素の実効放射輝度値と、当該各画素に対応する偏光素子の角度におけるテーブルの値との差の合計が最小になるようにする。最小輝度値推定部17Aは、テーブルの値と実効放射輝度値との差が最小である場合における、各画素の実効放射輝度値に対するテーブルの値と各画素の実効放射輝度値との差の比率の平均が所定の比率以下であれば、Aの値が適切であると推定する。この場合、最小輝度値推定部17Aは、上記式(5−6)により最小値を推定する。上記所定の比率は、好ましくは10%であり、より好ましくは5%であり、さらに好ましくは1%である。   Next, the minimum luminance value estimation unit 17A compares the created table with the effective radiance value of each pixel included in the pixel unit. The minimum luminance value estimation unit 17A changes the value of B so that the sum of the differences between the effective radiance value of each pixel included in the pixel unit and the table value at the angle of the polarizing element corresponding to each pixel is the minimum. To be. When the difference between the table value and the effective radiance value is the minimum, the minimum luminance value estimation unit 17A is the ratio of the difference between the table value and the effective radiance value of each pixel with respect to the effective radiance value of each pixel. If the average of is less than or equal to a predetermined ratio, it is estimated that the value of A is appropriate. In this case, the minimum luminance value estimation unit 17A estimates the minimum value by the above equation (5-6). The predetermined ratio is preferably 10%, more preferably 5%, and further preferably 1%.

テーブルの値と実効放射輝度値との差が所定の比率以下でない場合には、最小輝度値推定部17Aは、式(5−1)におけるAの値を上述した初期値から変化させて同様の比較を行う。   If the difference between the table value and the effective radiance value is not less than or equal to the predetermined ratio, the minimum luminance value estimation unit 17A changes the value of A in the equation (5-1) from the above-described initial value and performs the same operation. Make a comparison.

図22の(a)は、ルックアップテーブルの例を示す図である。図22の(b)は、最小輝度値推定部17Aが作成するテーブルの例を示す図である。図22の(c)は、実効放射輝度値を示す信号強度の例を示す図である。図22の(d)は、図22の(c)に示した信号強度の例、および最小輝度値推定部17Aが推定した実効放射輝度値を示す信号強度の例を示すグラフである。   FIG. 22A is a diagram illustrating an example of a lookup table. FIG. 22B is a diagram illustrating an example of a table created by the minimum luminance value estimation unit 17A. (C) of FIG. 22 is a figure which shows the example of the signal strength which shows an effective radiance value. 22D is a graph showing an example of the signal intensity shown in FIG. 22C and an example of the signal intensity indicating the effective radiance value estimated by the minimum luminance value estimation unit 17A.

図22の(d)に示すグラフにおいて、横軸はカメラ20の画素ユニットにおける偏光素子の主軸の角度、縦軸は画素ユニットにおける画素の実効放射輝度値を示す信号強度を示す。図22の(d)に示す例では、画素ユニットは、主軸方向が0°を起点として45°ずつ異なる4つの偏光素子に対応する4つの画素を備える。また、図22の(d)に示す例は、光が空気(屈折率n1=1.0)と角膜(屈折率n2=1.376)との界面に、入射角15°で入射した場合のものである。   In the graph shown in FIG. 22D, the horizontal axis indicates the angle of the main axis of the polarizing element in the pixel unit of the camera 20, and the vertical axis indicates the signal intensity indicating the effective radiance value of the pixel in the pixel unit. In the example shown in (d) of FIG. 22, the pixel unit includes four pixels corresponding to four polarizing elements whose main axis directions are different by 45 ° starting from 0 °. In the example shown in FIG. 22D, light is incident on the interface between air (refractive index n1 = 1.0) and cornea (refractive index n2 = 1.376) at an incident angle of 15 °. Is.

記憶部90には、図22の(a)に示すようなルックアップテーブルが予め格納されている。最小輝度値推定部17Aは、式(5−1)におけるAの値を上述したとおりに設定し、図22の(b)に示すようなYのテーブルを作成する。さらに最小輝度値推定部17Aは、図22の(c)に示すような、画素ユニットに含まれる画素の実効放射輝度値のそれぞれに最も近い値をYのテーブルから抽出する。抽出した値、および、当該値に対応する偏光子の主軸方向は、図22の(d)において「*」で示されている。一方、画素ユニットに含まれる各画素の実際の実効放射輝度値、および各画素に対応する偏光子の主軸方向は、図22の(d)において「○」で示されている。   The storage unit 90 stores in advance a lookup table as shown in FIG. The minimum luminance value estimation unit 17A sets the value of A in Equation (5-1) as described above, and creates a Y table as shown in FIG. Further, the minimum luminance value estimation unit 17A extracts a value closest to each of the effective radiance values of the pixels included in the pixel unit, as shown in FIG. The extracted value and the principal axis direction of the polarizer corresponding to the value are indicated by “*” in FIG. On the other hand, the actual effective radiance value of each pixel included in the pixel unit and the principal axis direction of the polarizer corresponding to each pixel are indicated by “◯” in FIG.

図22の(d)において、0°近傍および90°近傍の「*」の位置は、「○」の位置とよく合致している一方、65°近傍および155°近傍の「*」の位置は、45°および135°における「○」の位置から大きく外れている。このため、上記の比率は、10%より大きくなる。この場合、最小輝度値推定部17Aは、式(5−1)におけるAの値を変化させて再度Yのテーブルを作成し、実際の実効放射輝度値のそれぞれに最も近い値をYのテーブルから抽出し、同様の比較を行う。   In FIG. 22 (d), the positions of “*” in the vicinity of 0 ° and 90 ° are in good agreement with the positions of “◯”, while the positions of “*” in the vicinity of 65 ° and 155 ° are , Greatly deviated from the positions of “◯” at 45 ° and 135 °. For this reason, said ratio becomes larger than 10%. In this case, the minimum luminance value estimation unit 17A changes the value of A in Equation (5-1) to create a table of Y again, and determines the values closest to each of the actual effective radiance values from the table of Y. Extract and make similar comparisons.

(他の推定方法)
最小輝度値推定部17Aは、上述した第1及び第2の推定方法以外の推定方法によって、画素ユニット内の画素が取り得る実効放射輝度値の最小値を推定してもよい。例えば最小輝度値推定部17Aは、画素ユニットのそれぞれに含まれる複数の画素の実効放射輝度値に対して、当該画素に対応する偏光素子の主軸方向の角度を変数とする多項式を適用することで上記最小値を推定してもよい。この場合、多項式の例としては、三角関数をテイラー展開した多項式が挙げられる。テイラー展開によれば、sinxおよびcosxは、それぞれ以下の式(5−7)および(5−8)のように表すことができる。
(Other estimation methods)
The minimum luminance value estimation unit 17A may estimate the minimum effective radiance value that can be taken by the pixels in the pixel unit by an estimation method other than the first and second estimation methods described above. For example, the minimum luminance value estimation unit 17A applies a polynomial in which the angle in the principal axis direction of the polarizing element corresponding to the pixel is a variable with respect to the effective radiance value of the plurality of pixels included in each pixel unit. The minimum value may be estimated. In this case, an example of a polynomial is a polynomial obtained by Taylor expansion of a trigonometric function. According to Taylor expansion, sinx and cosx can be expressed as in the following equations (5-7) and (5-8), respectively.

Figure 2017201303
Figure 2017201303

Figure 2017201303
Figure 2017201303

式(5−7)および(5−8)において、xは偏光素子の主軸方向であり、nは任意の整数である。nは3以上であることが好ましい。 In formulas (5-7) and (5-8), x is the principal axis direction of the polarizing element, and n is an arbitrary integer. n is preferably 3 or more.

また、例えば最小輝度値推定部17Aは、任意の補間法によって画素ユニットに含まれる各画素の実効放射輝度値を示す関数を推定し、当該関数を用いて上記最小値を推定してもよい。補間法の例としては、スプライン補間、多項式補間、三角関数補間、またはキュービック補間などが挙げられる。   Further, for example, the minimum luminance value estimation unit 17A may estimate a function indicating an effective radiance value of each pixel included in the pixel unit by an arbitrary interpolation method, and estimate the minimum value using the function. Examples of interpolation methods include spline interpolation, polynomial interpolation, trigonometric function interpolation, cubic interpolation, and the like.

〔実施形態6〕
本発明の実施形態6について図23〜図25に基づいて説明すれば、以下のとおりである。
[Embodiment 6]
Embodiment 6 of the present invention will be described below with reference to FIGS.

図23は、本実施形態に係る画像処理装置10Dを備える電子情報機器2の構成を示すブロック図である。図23に示すように、画像処理装置10Dは、最小輝度値選択部17の代わりに拡散反射光成分算出部18(画像生成部)を備える点で、画像処理装置10Bと相違する。   FIG. 23 is a block diagram illustrating a configuration of the electronic information device 2 including the image processing apparatus 10D according to the present embodiment. As shown in FIG. 23, the image processing apparatus 10 </ b> D is different from the image processing apparatus 10 </ b> B in that it includes a diffuse reflection light component calculation unit 18 (image generation unit) instead of the minimum luminance value selection unit 17.

拡散反射光成分算出部18は、画素ユニットのそれぞれにおける実効放射輝度値の最大値Ioutmaxおよび最小値Ioutminを特定する。さらに拡散反射光成分算出部18は、以下の式(6−1)により、画素ユニットのそれぞれにおける拡散反射光成分Ikを算出する。
Ik=(Ioutmin−a×Ioutmax)/(1−a) (6−1)
ここで、IoutminおよびIoutmaxはそれぞれ、画素ユニットに含まれる画素の実効放射輝度値の最小値および最大値である。IoutminおよびIoutmaxは、実施形態5と同様にして推定した値であってもよく、実際の画素の実効放射輝度値であってもよい。
The diffuse reflection light component calculation unit 18 specifies the maximum value Ioutmax and the minimum value Ioutmin of the effective radiance values in each pixel unit. Further, the diffuse reflection light component calculation unit 18 calculates the diffuse reflection light component Ik in each of the pixel units by the following equation (6-1).
Ik = (Ioutmin−a × Ioutmax) / (1-a) (6-1)
Here, Ioutmin and Ioutmax are the minimum value and the maximum value of the effective radiance values of the pixels included in the pixel unit, respectively. Ioutmin and Ioutmax may be values estimated in the same manner as in the fifth embodiment, or may be actual effective radiance values of pixels.

また、式(6−1)におけるaは、S偏光成分の反射率に対するP偏光成分の反射率の比率である。上述した通り、aは、眼球Eへの光の入射角に依存する。カメラ20のレンズから眼球Eの中心までの距離Rと、眼球Eの半径rとにより、眼球Eの画像上の各点における上記入射角を算出することができる。本実施形態では、眼球Eにピントが合った場合における距離Rが予め記憶部90に記憶され、拡散反射光成分算出部18は当該距離Rを用いて上記入射角、およびaを算出する。   Further, a in Expression (6-1) is the ratio of the reflectance of the P-polarized component to the reflectance of the S-polarized component. As described above, a depends on the angle of incidence of light on the eyeball E. From the distance R from the lens of the camera 20 to the center of the eyeball E and the radius r of the eyeball E, the incident angle at each point on the image of the eyeball E can be calculated. In the present embodiment, the distance R when the eyeball E is in focus is stored in the storage unit 90 in advance, and the diffuse reflection light component calculation unit 18 calculates the incident angle and a using the distance R.

距離Rの求め方は、具体的には以下の通りである。カメラ20が固定焦点レンズのカメラである場合、ユーザが電子情報機器2を手に持って画面を見る場合にユーザの顔に焦点が合うように設計されている。この場合において、カメラ20が撮像する画像の所定の範囲に眼球Eの画像が含まれるように、ユーザが自身の目を含む領域を撮像した場合に、カメラ20のレンズと眼球Eとの距離Rがカメラ20のレンズの焦点距離と略等しくなる。また、カメラ20がオートフォーカス機能を有する場合、眼球Eが結像する2種類のレンズ間距離を求め、ベッセル法を用いて距離Rを算出することができる。また、カメラ20が2つの撮像素子を備え、異なる位置から複数の画像を同時に撮像可能なカメラである場合、それぞれの撮像素子が撮像した画像から、三角測量により距離Rを算出することができる。   The method for obtaining the distance R is specifically as follows. When the camera 20 is a fixed focus lens camera, the user's face is designed to be in focus when the user looks at the screen with the electronic information device 2 in hand. In this case, the distance R between the lens of the camera 20 and the eyeball E when the user images an area including his / her eyes so that the image of the eyeball E is included in a predetermined range of the image captured by the camera 20. Is substantially equal to the focal length of the lens of the camera 20. In addition, when the camera 20 has an autofocus function, two types of distances between lenses at which the eyeball E forms an image can be obtained, and the distance R can be calculated using the Bessel method. Further, when the camera 20 includes two image sensors and can capture a plurality of images simultaneously from different positions, the distance R can be calculated by triangulation from the images captured by the respective image sensors.

ここで、入射角が小さい場合、S偏光成分とP偏光成分との反射率の差は数10%程度と小さい。このため、画素間またはショット間でのバラツキの影響で、aの値を正しく算出できず、式(6−1)における計算結果がIk≦0となる(拡散反射光成分が消失する)場合がある。   Here, when the incident angle is small, the difference in reflectance between the S-polarized component and the P-polarized component is as small as several tens of percent. For this reason, the value of a cannot be calculated correctly due to the influence of variation between pixels or shots, and the calculation result in equation (6-1) becomes Ik ≦ 0 (diffuse reflected light component disappears). is there.

この場合、aの値を、実際の入射角より大きい角度に対応するaの値に変えて、式(6−1)による計算を実行すればよい。例えば、実際の入射角より所定の角度(例えば10°)ずつ大きい角度に対応するaの値について順に式(6−1)による計算を再度実行すればよい。ただし、この場合には、映り込み像の除去の精度は低下する。このような、aの値を変化させての再計算は、例えば認証部15による認証が失敗した場合に実行されてよい。また、このような再計算において、aの値を、実際の入射角より大きい角度に対応する値に変える代わりに、実際の半径rまたは距離Rより小さい半径または距離に対応する値に変えてもよい。   In this case, the value of a may be changed to the value of a corresponding to an angle larger than the actual incident angle, and the calculation according to equation (6-1) may be executed. For example, what is necessary is just to perform calculation by Formula (6-1) again in order about the value of a corresponding to an angle larger by a predetermined angle (for example, 10 degrees) than an actual incident angle. In this case, however, the accuracy of removing the reflected image is lowered. Such recalculation by changing the value of a may be executed, for example, when authentication by the authentication unit 15 fails. In such recalculation, the value of a may be changed to a value corresponding to a radius or distance smaller than the actual radius r or distance R instead of changing to a value corresponding to an angle larger than the actual incident angle. Good.

また、距離Rについて、予め想定した値を用いて上記入射角およびaを算出してもよい。例えば電子情報機器2がスマートフォンであれば、ユーザは電子情報機器2を手に持った状態で認証を行うことが想定される。その場合、距離Rは20cm〜30cm程度と予想される。したがって、測距装置などにより実際に距離Rを測定しなくても、予想される距離Rを用いて上記入射角を算出できる。   Further, for the distance R, the incident angle and a may be calculated using values assumed in advance. For example, if the electronic information device 2 is a smartphone, it is assumed that the user performs authentication while holding the electronic information device 2 in his / her hand. In that case, the distance R is expected to be about 20 cm to 30 cm. Therefore, the incident angle can be calculated using the expected distance R without actually measuring the distance R with a distance measuring device or the like.

この場合、距離Rは複数種類用意されていてもよい。つまり、複数種類のRごとに入射角およびaを算出し、さらに拡散反射光成分Ikを算出して認証を実行してもよい。上記の例であれば、画像処理装置10Dは、距離Rを20cmとした場合および30cmとした場合のそれぞれについて認証を実行してもよく、さらに距離Rを25cmとした場合について認証を実行してもよい。   In this case, a plurality of types of distances R may be prepared. That is, the incident angle and a may be calculated for each of a plurality of types of R, and the diffuse reflected light component Ik may be calculated to perform authentication. In the above example, the image processing apparatus 10D may execute authentication for each of the case where the distance R is 20 cm and 30 cm, and further execute authentication for the case where the distance R is 25 cm. Also good.

式(6−1)について、以下に説明する。画素ユニットに含まれる画素の実効放射輝度値には、拡散反射光成分および正反射光成分が含まれる。本実施形態では、正反射光成分は、第1正反射光成分と、第2正反射光成分とを含むものとする。また、本実施形態では、第1正反射光成分および第2正反射光成分がともに、偏光素子の主軸方向に依存する成分を有するものとする。この場合、第1正反射光成分Isおよび第2正反射光成分Ipはそれぞれ以下の式(6−2)および(6−3)により表される。
Is=Is0+Is0×cos2x (6−2)
Ip=Ip0+Ip0×cos2(x−π/2) (6−3)
ここで、Is0およびIp0はそれぞれ、第1正反射光成分および第2正反射光成分の、偏光素子の主軸方向に依存しない成分である。また、第2正反射光成分の位相は第1正反射光成分の位相より90°遅れているため、式(6−3)においてはxからπ/2が減算される。なお、式(6−2)および(6−3)において、cos関数をsin関数に置き換えてもよい。
Formula (6-1) will be described below. The effective radiance value of the pixel included in the pixel unit includes a diffuse reflected light component and a regular reflected light component. In the present embodiment, the regular reflection light component includes a first regular reflection light component and a second regular reflection light component. In the present embodiment, both the first regular reflection light component and the second regular reflection light component have components that depend on the principal axis direction of the polarizing element. In this case, the first regular reflection light component Is and the second regular reflection light component Ip are expressed by the following equations (6-2) and (6-3), respectively.
Is = Is0 + Is0 × cos2x (6-2)
Ip = Ip0 + Ip0 × cos2 (x−π / 2) (6-3)
Here, Is0 and Ip0 are components of the first specular reflection light component and the second specular reflection light component that do not depend on the main axis direction of the polarizing element, respectively. Further, since the phase of the second regular reflection light component is delayed by 90 ° from the phase of the first regular reflection light component, π / 2 is subtracted from x in Expression (6-3). In equations (6-2) and (6-3), the cos function may be replaced with a sin function.

画素ユニットに含まれる画素の実効放射輝度値Ioutは、以下の式(6−4)により表される。
Iout=Ik+Is+Ip=Ik+Is0+Ip0+(Is0−Ip0)cos2x (6−4)
Ioutは、cos2x=1で最大となり、cos2x=−1で最小となる。したがって、式(6−1)におけるIoutmaxおよびIoutminは、それぞれ以下の式(6−5)および(6−6)で表される。
Ioutmax=Ik+2×Is0 (6−5)
Ioutmin=Ik+2×Ip0 (6−6)
また、フレネルの法則から、Is0とIp0との関係は以下の式(6−7)で表される。
Ip0=a×Is0 (6−7)
したがって、式(6−6)に式(6−7)を代入することで、以下の式(6−8)が得られる。
Ioutmin=Ik+2×a×Is0 (6−8)
式(6−5)および(6−8)からなる連立方程式を、Ikについて解くことで、式(6−1)が得られる。
The effective radiance value Iout of the pixel included in the pixel unit is expressed by the following equation (6-4).
Iout = Ik + Is + Ip = Ik + Is0 + Ip0 + (Is0−Ip0) cos2x (6-4)
Iout becomes maximum when cos2x = 1 and becomes minimum when cos2x = −1. Therefore, Ioutmax and Ioutmin in formula (6-1) are represented by the following formulas (6-5) and (6-6), respectively.
Ioutmax = Ik + 2 × Is0 (6-5)
Ioutmin = Ik + 2 × Ip0 (6-6)
Further, from Fresnel's law, the relationship between Is0 and Ip0 is expressed by the following equation (6-7).
Ip0 = a × Is0 (6-7)
Therefore, the following formula (6-8) is obtained by substituting the formula (6-7) into the formula (6-6).
Ioutmin = Ik + 2 × a × Is0 (6-8)
Equation (6-1) is obtained by solving simultaneous equations consisting of Equations (6-5) and (6-8) for Ik.

図24は、画像処理装置10Dにおける処理を示すフローチャートである。画像処理装置10Dにおける処理は、ステップSC2の代わりにステップSC8(画像生成ステップ)が実行される点を除いて、画像処理装置10Bにおける処理と同じである。ステップSC8において、拡散反射光成分算出部18は、式(6−1)により画素ユニットのそれぞれについて拡散反射光成分Ikを算出し、算出した値を画素ユニットに対応する単位領域の輝度値として決定する。   FIG. 24 is a flowchart showing processing in the image processing apparatus 10D. The processing in the image processing device 10D is the same as the processing in the image processing device 10B, except that step SC8 (image generation step) is executed instead of step SC2. In step SC8, the diffuse reflection light component calculation unit 18 calculates the diffuse reflection light component Ik for each of the pixel units using Equation (6-1), and determines the calculated value as the luminance value of the unit region corresponding to the pixel unit. To do.

また、上述した、aの値を変更しての再計算について、例えば以下のように実行されてよい。すなわち、映り込み像が除去された眼球の画像のコードと、登録されているコードとのハミングディスタンスに、認証に用いられる閾値(以下、認証閾値と記す)より大きい閾値(以下、分岐閾値と記す)が設けられる。図24のステップSC6において、上記ハミングディスタンスが分岐閾値以上であれば、拡散反射光成分算出部18がステップSC8の処理を再度実行する。このときに、上述した、aの値を変更しての再計算が実行される。一方、ステップSC6において、上記ハミングディスタンスが認証閾値以上かつ分岐閾値未満であれば、黒目検出部11がステップSC4の処理を再度実行する。なお、上記ハミングディスタンスが認証閾値未満であれば認証に成功する。   Further, the above-described recalculation by changing the value of a may be executed as follows, for example. That is, the hamming distance between the code of the eyeball image from which the reflection image is removed and the registered code is greater than a threshold used for authentication (hereinafter referred to as an authentication threshold) (hereinafter referred to as a branch threshold). ) Is provided. In step SC6 of FIG. 24, if the hamming distance is equal to or greater than the branch threshold, the diffuse reflection light component calculation unit 18 executes the process of step SC8 again. At this time, the above-described recalculation is performed by changing the value of a. On the other hand, if the hamming distance is greater than or equal to the authentication threshold and less than the branch threshold in step SC6, the black eye detection unit 11 executes the process of step SC4 again. If the hamming distance is less than the authentication threshold, the authentication is successful.

以上の通り、本実施形態の拡散反射光成分算出部18は、画素ユニットのそれぞれに含まれる複数の画素の実効放射輝度値に基づいて、当該画素ユニットにおける実効放射輝度値の最大値および最小値を特定する。拡散反射光成分算出部18は、特定した最大値および最小値と、当該画素ユニットに対応する眼球Eの表面における、S偏光成分の反射率に対するP偏光成分の反射率の比率aとを用いて、当該画素ユニットにおける拡散反射光成分Ikを算出する。さらに拡散反射光成分算出部18は、算出した拡散反射光成分を、画素ユニットに対応する単位領域の輝度値として決定する。これにより、画像処理装置10Dは、反射光成分の少なくとも一部が除去された拡散反射光成分を、単位領域のそれぞれの輝度値として決定することができる。   As described above, the diffuse reflection light component calculation unit 18 of the present embodiment, based on the effective radiance values of a plurality of pixels included in each pixel unit, the maximum value and the minimum value of the effective radiance value in the pixel unit. Is identified. The diffuse reflection light component calculation unit 18 uses the specified maximum value and minimum value and the ratio a of the reflectance of the P-polarized component to the reflectance of the S-polarized component on the surface of the eyeball E corresponding to the pixel unit. Then, the diffuse reflection light component Ik in the pixel unit is calculated. Further, the diffuse reflection light component calculation unit 18 determines the calculated diffuse reflection light component as the luminance value of the unit area corresponding to the pixel unit. Thereby, the image processing apparatus 10D can determine the diffuse reflection light component from which at least a part of the reflection light component is removed as the luminance value of each unit region.

図25は、画素ユニットに含まれる画素の実効放射輝度値、当該画素ユニット含まれる画素が取り得る実効放射輝度値の推定値、および拡散光成分の推定値の例を示すグラフである。図25の(a)は、眼球Eへの入射角が30°である光が眼球Eで反射された反射光が入射する画素ユニットのグラフである。図25の(b)は、眼球Eへの入射角が20°である光が眼球Eで反射された反射光が入射する画素ユニットのグラフである。図25の(c)は、眼球Eへの入射角が10°である光が眼球Eで反射された反射光が入射する画素ユニットのグラフである。図25の(a)〜(c)に示すグラフにおいて、横軸は画素ユニットに含まれる画素のそれぞれに対応する偏光素子の主軸方向であり、縦軸は画素の実効放射輝度値である。また、図25に示す例においては、空気の屈折率を1.0、眼球Eの角膜の屈折率を1.376としている。   FIG. 25 is a graph illustrating an example of an effective radiance value of a pixel included in a pixel unit, an estimated value of an effective radiance value that can be taken by a pixel included in the pixel unit, and an estimated value of a diffused light component. FIG. 25A is a graph of a pixel unit in which reflected light obtained by reflecting light having an incident angle of 30 ° to the eyeball E with the eyeball E is incident. FIG. 25B is a graph of a pixel unit in which reflected light obtained by reflecting light having an incident angle of 20 ° to the eyeball E with the eyeball E is incident. (C) of FIG. 25 is a graph of a pixel unit in which reflected light obtained by reflecting light having an incident angle to the eyeball E of 10 ° reflected by the eyeball E enters. In the graphs shown in FIGS. 25A to 25C, the horizontal axis represents the principal axis direction of the polarizing element corresponding to each pixel included in the pixel unit, and the vertical axis represents the effective radiance value of the pixel. In the example shown in FIG. 25, the refractive index of air is 1.0, and the refractive index of the cornea of the eyeball E is 1.376.

まず、図25の(a)に示す、眼球Eへの入射角が30°である光の反射光に対応する画素ユニットについて考える。このとき、Ioutmax=1として実効放射輝度値を規格化すると、Ioutmin=0.60となった。また、入射角が30°である光の反射光においては、a=0.40である。   First, consider a pixel unit corresponding to reflected light of light having an incident angle of 30 ° to the eyeball E shown in FIG. At this time, when the effective radiance value was normalized with Ioutmax = 1, Ioutmin = 0.60. In addition, in the reflected light of light having an incident angle of 30 °, a = 0.40.

この場合、拡散反射光成分Ikは式(6−1)を用いて以下のとおり算出される。
Ik=(Ioutmin−a×Ioutmax)/(1−a)
=(0.60−0.40×1.0)/(1.0−0.40)
≒0.33
次に、図25の(b)に示す、眼球Eへの入射角が20°である光の反射光に対応する画素ユニットについて考える。このとき、Ioutmax=1として実効放射輝度値を規格化すると、Ioutmin=0.79となった。また、入射角が20°である光の反射光においては、a=0.688である。
In this case, the diffuse reflected light component Ik is calculated as follows using Expression (6-1).
Ik = (Ioutmin−a × Ioutmax) / (1−a)
= (0.60-0.40 × 1.0) / (1.0-0.40)
≒ 0.33
Next, consider the pixel unit corresponding to the reflected light of light having an incident angle of 20 ° to the eyeball E shown in FIG. At this time, when the effective radiance value was normalized with Ioutmax = 1, Ioutmin = 0.79 was obtained. In addition, in the reflected light of the light having an incident angle of 20 °, a = 0.688.

この場合、拡散反射光成分Ikは式(6−1)を用いて以下のとおり算出される。
Ik=(Ioutmin−a×Ioutmax)/(1−a)
=(0.79−0.688×1.0)/(1.0−0.688)
≒0.33
次に、図25の(c)に示す、眼球Eへの入射角が10°である光の反射光に対応する画素ユニットについて考える。このとき、Ioutmax=1として実効放射輝度値を規格化すると、Ioutmin=0.94となった。また、入射角が20°である光の反射光においては、a=0.91である。
In this case, the diffuse reflected light component Ik is calculated as follows using Expression (6-1).
Ik = (Ioutmin−a × Ioutmax) / (1−a)
= (0.79-0.688 * 1.0) / (1.0-0.688)
≒ 0.33
Next, consider a pixel unit corresponding to reflected light of light having an incident angle to the eyeball E of 10 ° shown in FIG. At this time, when the effective radiance value was normalized with Ioutmax = 1, Ioutmin = 0.94. Further, in the reflected light of light having an incident angle of 20 °, a = 0.91.

この場合、拡散反射光成分Ikは式(6−1)を用いて以下のとおり算出される。
Ik=(Ioutmin−a×Ioutmax)/(1−a)
=(0.94−0.91×1.0)/(1.0−0.91)
≒0.33
したがって、図25に示す例では、眼球Eへの光の入射角が10°、20°、および30°のいずれの場合においても、拡散反射光成分Ikは、Ioutmax=1として規格化した場合において0.33となる。いずれの角度でもIkの値が略一致していることから、上記のIkの値は正しいと考えられる。
In this case, the diffuse reflected light component Ik is calculated as follows using Expression (6-1).
Ik = (Ioutmin−a × Ioutmax) / (1−a)
= (0.94-0.91 × 1.0) / (1.0-0.91)
≒ 0.33
Therefore, in the example shown in FIG. 25, the diffuse reflected light component Ik is normalized when Ioutmax = 1, regardless of whether the incident angle of light on the eyeball E is 10 °, 20 °, or 30 °. 0.33. Since the value of Ik is substantially the same at any angle, the value of Ik is considered to be correct.

〔実施形態7〕
本発明の実施形態7について以下に説明する。本実施形態の画像処理装置は、拡散反射光成分算出部18による処理の内容を除いて画像処理装置10Dの構成と同様であるため、ブロック図およびフローチャートの図示を省略する。
[Embodiment 7]
Embodiment 7 of the present invention will be described below. The image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatus 10D except for the content of the processing performed by the diffuse reflection light component calculation unit 18, and thus the block diagram and the flowchart are not shown.

本実施形態の拡散反射光成分算出部18は、以下の式(7−1)により、画素ユニットのそれぞれにおける拡散反射光成分Ikを算出する。
Ik=Ioutmin−Ip (7−1)
式(7−1)について、以下に説明する。
The diffuse reflection light component calculation unit 18 of the present embodiment calculates the diffuse reflection light component Ik in each of the pixel units by the following equation (7-1).
Ik = Ioutmin−Ip (7-1)
Equation (7-1) will be described below.

本実施形態では、第1正反射光成分Isは偏光素子の主軸方向に依存する成分を有する一方で、第2正反射光成分Ipは偏光素子の主軸方向に依存しないものとする。具体的には、本実施形態では、拡散反射光成分算出部18はIsを以下の式(7−2)により算出する。
Is=Ioutmax−Ioutmin (7−2)
また、Ikは以下の式(7−3)で表される。
Ik=Ioutmax−(Is+Ip) (7−3)
式(7−2)を用いて式(7−3)を変形することで、以下の式(7−4)が得られる。
Ik=Ioutmin−Ip (7−4)
Ipは、式(6−7)を用いて算出することができる値である。したがって、拡散反射光成分算出部18は、式(7−4)および(6−7)により拡散反射光成分Ikを算出できる。
In the present embodiment, the first regular reflection light component Is has a component that depends on the principal axis direction of the polarizing element, while the second regular reflection light component Ip does not depend on the principal axis direction of the polarization element. Specifically, in the present embodiment, the diffuse reflection light component calculation unit 18 calculates Is by the following equation (7-2).
Is = Ioutmax−Ioutmin (7-2)
Ik is represented by the following formula (7-3).
Ik = Ioutmax− (Is + Ip) (7-3)
The following formula (7-4) is obtained by modifying the formula (7-3) using the formula (7-2).
Ik = Ioutmin−Ip (7-4)
Ip is a value that can be calculated using Equation (6-7). Therefore, the diffuse reflection light component calculation unit 18 can calculate the diffuse reflection light component Ik using the equations (7-4) and (6-7).

以上の通り、本実施形態の拡散反射光成分算出部18は、2種類の正反射光成分を算出し、算出した正反射光成分を、画素ユニットに含まれる画素の実効放射輝度値の最大値から減じた値を、当該画素ユニットに対応する単位領域の輝度値に決定する。拡散反射光成分算出部18がこのような処理を実行する場合にも、画像処理装置10Dは、正反射光成分の少なくとも一部が除去された拡散反射光成分を、単位領域のそれぞれの輝度値として決定することができる。   As described above, the diffuse reflection light component calculation unit 18 of the present embodiment calculates two types of specular reflection light components, and uses the calculated specular reflection light components as the maximum value of the effective radiance value of the pixels included in the pixel unit. The value subtracted from is determined as the luminance value of the unit area corresponding to the pixel unit. Even when the diffuse reflection light component calculation unit 18 executes such processing, the image processing apparatus 10D uses the diffuse reflection light component from which at least a part of the regular reflection light component is removed as the luminance value of each unit region. Can be determined as

〔実施形態8〕
本発明の実施形態8について図26および図27に基づいて説明すれば、以下のとおりである。
[Embodiment 8]
The following describes Embodiment 8 of the present invention with reference to FIGS. 26 and 27. FIG.

図26は、本実施形態の画像処理装置10Eを備える電子情報機器3の構成を示すブロック図である。図26に示すように、電子情報機器3は、画像処理装置10Dの代わりに画像処理装置10Eを備える点、および偏光照射部40を備える点で、実施形態7の電子情報機器2と相違する。   FIG. 26 is a block diagram illustrating a configuration of the electronic information device 3 including the image processing apparatus 10E according to the present embodiment. As shown in FIG. 26, the electronic information device 3 is different from the electronic information device 2 of the seventh embodiment in that the electronic information device 3 includes an image processing device 10E instead of the image processing device 10D, and a polarization irradiation unit 40.

偏光照射部40は、被写体に対して偏光を照射する。例えば偏光照射部40は、LEDなどの光源と、特定の方向の偏光だけを透過させる偏光フィルタとを備えていてよい。   The polarized light irradiation unit 40 irradiates the subject with polarized light. For example, the polarized light irradiation unit 40 may include a light source such as an LED and a polarization filter that transmits only polarized light in a specific direction.

画像処理装置10Eは、映り込み有無判定部19を備える点で画像処理装置10Dと相違する。映り込み有無判定部19は、被写体の表面での正反射光成分が所定の強度以下であるか否かを判定する。換言すれば、映り込み有無判定部19は、被写体に映り込みが発生しているか否かを判定する。   The image processing apparatus 10E is different from the image processing apparatus 10D in that a reflection presence / absence determination unit 19 is provided. The reflection presence / absence determination unit 19 determines whether or not the regular reflection light component on the surface of the subject is equal to or less than a predetermined intensity. In other words, the reflection presence / absence determination unit 19 determines whether reflection has occurred in the subject.

映り込み有無判定部19は、被写体に映り込みが発生していないと判定した場合には、偏光照射部40により被写体に対して偏光を照射する。またこのとき、輝度値情報取得部16(輝度値情報再取得部)は、偏光照射部40が被写体に偏光を照射した状態で、被写体の実効放射輝度値を再度取得する。   When the reflection presence / absence determination unit 19 determines that no reflection has occurred in the subject, the polarization irradiation unit 40 irradiates the subject with polarized light. At this time, the luminance value information acquisition unit 16 (luminance value information reacquisition unit) acquires the effective radiance value of the subject again in a state where the polarized light irradiation unit 40 irradiates the subject with polarized light.

本実施形態では、映り込み有無判定部19は、眼球Eに対応する画素ユニットのそれぞれについて、実効放射輝度値の最大値に対する最小値の比を算出する。さらに、映り込み有無判定部19は、眼球Eに対応する画素ユニット全体での上記比の平均を算出し、当該平均が所定の値以上であれば映り込みが発生していないと判定し、所定の値未満であれば映り込みが発生していると判定する。   In the present embodiment, the reflection presence / absence determination unit 19 calculates the ratio of the minimum value to the maximum effective radiance value for each pixel unit corresponding to the eyeball E. Furthermore, the reflection presence / absence determination unit 19 calculates the average of the above ratios for the entire pixel unit corresponding to the eyeball E, and determines that no reflection has occurred if the average is equal to or greater than a predetermined value. If it is less than the value of, it is determined that reflection has occurred.

被写体への光の入射角が小さいと、当該入射角に対応する画素ユニットに含まれる画素の実効放射輝度値の、最大値に対する最小値の比率が大きくなる。上記所定の値は、被写体への入射角として想定される最小の角度における、実効放射輝度値の最大値に対する最小値の比率であってよい。具体的には、上記所定の値は、例えば0.94であってよい。この値は、眼球Eへの入射角が10°である光の反射光について、フレネルの法則を用いて算出した実効放射輝度値の最大値に対する最小値の比率である。   When the incident angle of light on the subject is small, the ratio of the minimum value to the maximum value of the effective radiance value of the pixel included in the pixel unit corresponding to the incident angle increases. The predetermined value may be a ratio of a minimum value to a maximum value of an effective radiance value at a minimum angle assumed as an incident angle to the subject. Specifically, the predetermined value may be 0.94, for example. This value is the ratio of the minimum value to the maximum value of the effective radiance value calculated using Fresnel's law for the reflected light having an incident angle to the eyeball E of 10 °.

図27は、画像処理装置10Eにおける処理を示すフローチャートである。図27に示すように、画像処理装置10Eにおいては、輝度値情報取得部16が被写体の実効放射輝度値を取得した(SC1)後、映り込み有無判定部19が、映り込みが発生しているか否かを判定する(SD1、映り込み判定ステップ)。映り込みが発生している場合(SD1でY)、画像処理装置10Eは、画像処理装置10Bと同様に、ステップSC2以降の処理を行う。   FIG. 27 is a flowchart showing processing in the image processing apparatus 10E. As shown in FIG. 27, in the image processing apparatus 10E, after the luminance value information acquisition unit 16 acquires the effective radiance value of the subject (SC1), the reflection presence / absence determination unit 19 determines whether reflection has occurred. (SD1, reflection determination step). When the reflection has occurred (Y in SD1), the image processing apparatus 10E performs the processes after step SC2 in the same manner as the image processing apparatus 10B.

一方、映り込みが発生していない場合(SD1でN)、輝度値情報取得部16は、偏光照射部40から被写体に対して偏光を照射した状態で、被写体の実効放射輝度値を再度取得する(SD2、輝度値情報再取得ステップ)。この場合、画像処理装置10Eは、ステップSD2において取得した被写体の実効放射輝度値を用いてステップSC2以降の処理を行う。   On the other hand, when no reflection occurs (N in SD1), the luminance value information acquisition unit 16 acquires the effective radiance value of the subject again with the polarized light irradiation unit 40 irradiating the subject with polarized light. (SD2, luminance value information reacquisition step). In this case, the image processing apparatus 10E performs the processes in and after step SC2 using the effective radiance value of the subject acquired in step SD2.

画像処理装置10Eにおいては、眼球Eに映り込みが発生していない場合に、偏光照射部40により映り込みを発生させた状態で、輝度値情報取得部16が眼球Eを含む被写体の実効放射輝度値を取得する。拡散反射光成分算出部18は、輝度値情報取得部16が取得した実効放射輝度値から、フレネルの法則により算出される比率aを用いて正反射光成分を除去して撮像画像を生成し、認証を行う。したがって、眼球Eが本物の眼球とは異なる物質、具体的には角膜の屈折率(n=1.376)とは異なる屈折率を有する物質により形成された偽造物である場合に、個人認証が失敗しやすくなる。   In the image processing apparatus 10E, when there is no reflection on the eyeball E, the luminance value information acquisition unit 16 has the effective radiance of the subject including the eyeball E in a state in which the reflection is generated by the polarized light irradiation unit 40. Get the value. The diffuse reflection light component calculation unit 18 generates a captured image by removing the regular reflection light component from the effective radiance value acquired by the luminance value information acquisition unit 16 using the ratio a calculated by Fresnel's law, Authenticate. Therefore, when the eyeball E is a counterfeit made of a material different from the real eyeball, specifically a material having a refractive index different from that of the cornea (n = 1.376), Prone to failure.

なお、電子情報機器3は、必ずしも偏光照射部40を備える必要はない。例えば、電子情報機器3と無線または有線により通信可能に接続された別の装置が偏光照射部40を備えていてもよい。また、上述した処理ではステップSC1およびSD2のいずれにおいても、輝度値情報取得部16が被写体の実効放射輝度値を取得した。しかし、ステップSD2において被写体の実効放射輝度値を取得する機能ブロック(輝度値情報再取得部)は、輝度値情報取得部16とは異なっていてもよい。   The electronic information device 3 does not necessarily need to include the polarized light irradiation unit 40. For example, another device that is communicably connected to the electronic information device 3 by wireless or wired communication may include the polarized light irradiation unit 40. In the above-described processing, the luminance value information acquisition unit 16 acquires the effective radiance value of the subject in both steps SC1 and SD2. However, the functional block (luminance value information reacquisition unit) that acquires the effective radiance value of the subject in step SD2 may be different from the luminance value information acquisition unit 16.

また、上述したとおり、画像処理装置10Eは、映り込み有無判定部19を備える点で画像処理装置10Dと相違する。換言すれば、画像処理装置10Eは、画像処理装置10Dに映り込み有無判定部19が追加された構成を有する。しかし、本実施形態の画像処理装置は、フレネルの法則を用いる他の画像処理装置、例えば画像処理装置10・10Aに映り込み有無判定部19が追加された構成を有していてもよい。   Further, as described above, the image processing apparatus 10E is different from the image processing apparatus 10D in that it includes a reflection presence / absence determination unit 19. In other words, the image processing apparatus 10E has a configuration in which a reflection presence / absence determination unit 19 is added to the image processing apparatus 10D. However, the image processing apparatus according to the present embodiment may have a configuration in which the reflection presence / absence determination unit 19 is added to another image processing apparatus that uses Fresnel's law, for example, the image processing apparatuses 10 and 10A.

〔実施形態9〕
本発明の一態様に係る画像処理装置は、上述した処理のうち、2つ以上の処理を実行してもよい。
[Embodiment 9]
The image processing apparatus according to an aspect of the present invention may execute two or more processes among the processes described above.

例えば、本発明の一態様に係る画像処理装置は、実施形態1、2、4〜7で説明した画像処理のうち1つを実行し、認証に失敗した場合には、実行した画像処理、または実行した画像処理以外の他の画像処理を実行して再度認証を行ってもよい。再度の認証によっても認証に失敗した場合、画像処理装置は被写体の実効放射輝度分布を再度取得、または被写体の画像を再度撮影し、さらに必要があれば被写体までの距離を再度測定してもよい。また、画像処理装置は、さらに他の画像処理を並行または順行で実行し、被写体の実効放射輝度分布を複数回取得、または被写体の画像を撮影しても認証に成功しない場合には、当該他の画像処理により生成した撮像画像により認証を行ってもよい。   For example, the image processing apparatus according to an aspect of the present invention executes one of the image processes described in the first, second, and fourth to seventh embodiments, and if the authentication fails, Authentication may be performed again by executing image processing other than the executed image processing. If the authentication fails even after re-authentication, the image processing apparatus may acquire the effective radiance distribution of the subject again, or take a picture of the subject again, and measure the distance to the subject again if necessary. . In addition, the image processing apparatus executes another image processing in parallel or in a forward manner, acquires the effective radiance distribution of the subject a plurality of times, or captures an image of the subject, and if the authentication is not successful, You may authenticate with the captured image produced | generated by the other image processing.

また、上述した各実施形態においては、認証が失敗した場合に、黒目検出部11により検出する黒目の範囲を変更して再度認証を行った。しかし、本発明の一態様に係る画像処理装置は、認証に1回以上失敗した場合に、輝度値情報取得部16が再度被写体の実効放射輝度値を取得(撮影)するように構成されていてもよい。また、画像処理装置は、他の画像処理を並行または順行で実行し、被写体の実効放射輝度分布を複数回取得しても認証に成功しない場合には、当該他の画像処理により生成した撮像画像により認証を行ってもよい。   Further, in each of the above-described embodiments, when authentication fails, the black eye range detected by the black eye detection unit 11 is changed and authentication is performed again. However, the image processing apparatus according to one aspect of the present invention is configured such that the luminance value information acquisition unit 16 acquires (captures) the effective radiance value of the subject again when authentication fails once or more. Also good. In addition, the image processing apparatus executes other image processing in parallel or in a forward manner, and if the authentication is not successful even if the effective radiance distribution of the subject is acquired a plurality of times, the imaging generated by the other image processing is performed. Authentication may be performed using an image.

また、本発明の一態様に係る画像処理装置は、実施形態6の画像処理と他の実施形態(すなわち実施形態1、2、4、5、または7のいずれか1つ以上)の画像処理とを並行して実行してもよい。   An image processing apparatus according to an aspect of the present invention includes image processing according to Embodiment 6 and image processing according to another embodiment (that is, any one or more of Embodiments 1, 2, 4, 5, and 7). May be executed in parallel.

図29は、実施形態6の画像処理と他の画像処理とを並行して実行する画像処理装置における処理の流れを示すフローチャートである。図29に示す処理において、ステップSC1、SC5およびSC6の処理は、上述した実施形態で説明したものと同じであるため、ここでは詳細には説明しない。   FIG. 29 is a flowchart illustrating a flow of processing in an image processing apparatus that executes image processing according to the sixth embodiment and other image processing in parallel. In the process shown in FIG. 29, the processes in steps SC1, SC5, and SC6 are the same as those described in the above-described embodiment, and thus will not be described in detail here.

図29に示す処理においては、画像処理装置は、被写体の輝度値情報を取得(SC1)した後、実施形態6の画像処理により各単位領域の輝度値が決定された第1の除去後画像の生成(SD1)と、他の実施形態の画像処理により各単位領域の輝度値が決定された第2の除去後画像の生成(SD2)とを並行して行う。その後、画像処理装置は、第1の除去後画像の各単位領域について、輝度値が所定の閾値以上であるか判定する(SD3)。輝度値が閾値以上である場合(SD3でY)、当該単位領域の輝度値は変更されない。一方、輝度値が閾値以上でない場合(SD3でN)、当該単位領域の輝度値は、第2の除去画像における対応する位置の単位領域の輝度値に変更される。画像処理装置は、全ての単位領域に対してステップSD3の判定を実行し、判定結果に応じてステップSD4の処理を実行した後、得られた画像を用いて認証を行う(SC5)。さらに画像処理装置は、認証できたか否かの判定を行い(SC6)、認証できた場合(SC6でY)には処理を終了し、できなかった場合(SC6でN)には再度ステップSD1に戻り、第1の除去後画像を再度生成する。具体的には、ステップSC6でNの場合、画像処理装置は、図24に示すステップSC11以降の処理を再度実行する。なお、ステップSC6でNの場合、ステップSD1だけに戻り、第1の除去後画像を再度生成するのではなく、ステップSD1およびSD2の両方に戻り、第1の除去後画像および第2の除去後画像の両方を再度生成してもよい。   In the process shown in FIG. 29, the image processing apparatus acquires the luminance value information of the subject (SC1), and then the first post-removal image whose luminance value of each unit region has been determined by the image processing of the sixth embodiment. The generation (SD1) and the generation (SD2) of the second post-removal image in which the luminance value of each unit region has been determined by the image processing of another embodiment are performed in parallel. Thereafter, the image processing apparatus determines whether the luminance value is greater than or equal to a predetermined threshold for each unit region of the first post-removal image (SD3). When the luminance value is equal to or greater than the threshold value (Y in SD3), the luminance value of the unit area is not changed. On the other hand, when the luminance value is not equal to or greater than the threshold value (N in SD3), the luminance value of the unit area is changed to the luminance value of the unit area at the corresponding position in the second removed image. The image processing apparatus executes the determination in step SD3 for all the unit areas, executes the process in step SD4 according to the determination result, and then performs authentication using the obtained image (SC5). Further, the image processing apparatus determines whether or not the authentication is successful (SC6). If the authentication is successful (Y in SC6), the process ends. If not (N in SC6), the process returns to step SD1. Returning, the first post-removal image is generated again. Specifically, in the case of N in Step SC6, the image processing apparatus executes again the processing after Step SC11 shown in FIG. In the case of N in step SC6, the process returns to only step SD1 and does not generate the first post-removal image again, but returns to both steps SD1 and SD2, and returns to the first post-removal image and the second post-removal image. Both images may be generated again.

上述したとおり、実施形態6の画像処理においては、眼球への光の入射角が小さい単位領域において、拡散反射光成分が消失する虞がある。そこで、この画像処理装置は、実施形態6の画像処理によって各単位領域の輝度値を決定した後、各単位領域の輝度値が所定の閾値以上であるか否かを判定する。輝度値が上記閾値以上の単位領域については、当該輝度値をそのまま採用する。一方、輝度値が上記閾値以上でない単位領域については、上記他の実施形態の画像処理による輝度値を当該単位領域の輝度値として採用する。これにより、この画像処理装置は、拡散反射光成分の消失を防止できる。   As described above, in the image processing of the sixth embodiment, there is a possibility that the diffuse reflected light component disappears in the unit region where the incident angle of light to the eyeball is small. Therefore, after determining the luminance value of each unit region by the image processing of the sixth embodiment, the image processing apparatus determines whether the luminance value of each unit region is equal to or greater than a predetermined threshold value. For a unit region whose luminance value is equal to or greater than the threshold value, the luminance value is employed as it is. On the other hand, for a unit region whose luminance value is not equal to or greater than the threshold value, the luminance value obtained by the image processing of the other embodiment is adopted as the luminance value of the unit region. Thereby, this image processing apparatus can prevent the disappearance of the diffuse reflected light component.

〔付記事項〕
通常、「鏡面反射光」との語は、視点(例えばユーザの目、または撮像素子など)の方向に出射される可視光についてのみ用いられる。しかし本明細書では、「鏡面反射光」との語について、視点の方向に出射される可視光の他に、赤外光も含む概念を表わす用語として使用している。
[Additional Notes]
Usually, the term “specular reflection light” is used only for visible light emitted in the direction of a viewpoint (for example, a user's eyes or an image sensor). However, in this specification, the term “specular reflection light” is used as a term representing a concept including infrared light in addition to visible light emitted in the direction of the viewpoint.

また、上述した実施形態1〜3においては、画像処理装置10などが携帯情報端末1などに搭載されているものとして説明を行っている。しかし、これらの実施形態に係る画像処理装置10などについても、他の実施形態に係る画像処理装置10Bなどと同様、携帯情報端末1などとは異なる電子情報機器2などに搭載されてもよい。電子情報機器2・3は、上述したスマートフォンの他、個人認証機能を有するインターフォンまたは自動車のドアなどであってもよい。   In the first to third embodiments, the image processing apparatus 10 and the like are described as being mounted on the portable information terminal 1 and the like. However, the image processing apparatus 10 and the like according to these embodiments may be mounted on an electronic information device 2 or the like that is different from the portable information terminal 1 or the like, similarly to the image processing apparatus 10B or the like according to another embodiment. The electronic information devices 2 and 3 may be an interphone having a personal authentication function or an automobile door, in addition to the above-described smartphone.

また、上述した実施形態1〜3においては、S偏光算出部12は、測距装置30が測定した、カメラ20のレンズから眼球Eの表面までの距離を用いて画素に対応する眼球Eへの光の入射角を特定した。しかし、S偏光算出部12は、例えば眼球Eにピントが合った状態における眼球Eの画像の大きさに基づいて上記距離を算出し、当該距離を用いて画素に対応する眼球Eへの光の入射角を特定してもよい。また、例えばS偏光算出部12は、カメラ20のレンズから眼球Eの表面までの距離(例えば携帯情報端末1がスマートフォンである場合、20cm〜30cm)を予め想定し、想定した距離を用いて画素に対応する眼球Eへの光の入射角を特定してもよい。この場合には、上記距離を複数想定し、それぞれの距離を用いて画素に対応する眼球Eへの光の入射角を特定して映り込み除去を行ってもよい。また、この場合には、携帯情報端末1は、必ずしも測距装置30を備える必要はない。   In Embodiments 1 to 3 described above, the S-polarization calculation unit 12 applies the distance from the lens of the camera 20 to the surface of the eyeball E measured by the distance measuring device 30 to the eyeball E corresponding to the pixel. The incident angle of light was specified. However, the S-polarized light calculation unit 12 calculates the distance based on, for example, the size of the image of the eyeball E when the eyeball E is in focus, and uses the distance to transmit light to the eyeball E corresponding to the pixel. The incident angle may be specified. In addition, for example, the S-polarized light calculation unit 12 assumes a distance from the lens of the camera 20 to the surface of the eyeball E (for example, 20 cm to 30 cm when the mobile information terminal 1 is a smartphone), and uses the assumed distance as a pixel. The incident angle of the light to the eyeball E corresponding to may be specified. In this case, a plurality of the above-mentioned distances may be assumed, and the reflection removal may be performed by specifying the incident angle of light to the eyeball E corresponding to the pixel using each distance. In this case, the portable information terminal 1 does not necessarily need to include the distance measuring device 30.

また、図3を参照しての説明においては、映り込み像について、「除去する」との記載がある。さらに図3自体にも、「S波P波除去」との記載がある。しかし、本発明の一態様においては、画像処理装置は必ずしも映り込み像を完全に除去する必要はなく、映り込み像を形成する正反射光成分の少なくとも一部を除去、すなわち映り込みを低減できればよい。   Further, in the description with reference to FIG. 3, there is a description of “removing” the reflected image. Further, FIG. 3 itself also has a description “S wave P wave removal”. However, in one aspect of the present invention, the image processing apparatus does not necessarily need to completely remove the reflected image. If the reflected light component that forms the reflected image is removed, that is, the reflection can be reduced. Good.

また、図28は、カメラ20における画素ユニットの配置を示す図である。図28の(a)は、9つの画素からなる画素ユニットが互いに重ならないように配置された状態を示す図である。図28の(b)は、4つの画素からなる画素ユニットが互いに重ならないように配置された状態を示す図である。図28の(c)は、9つの画素からなる画素ユニットが部分的に重なるように配置された状態を示す図である。図28の(d)は、4つの画素からなる画素ユニットが部分的に重なるように配置された状態を示す図である。図28の(a)〜(d)においては、点線で囲まれた領域、破線で囲まれた領域、および一点鎖線で囲まれた領域が、それぞれ別個の画素ユニットを示す。   FIG. 28 is a diagram illustrating an arrangement of pixel units in the camera 20. FIG. 28A is a diagram illustrating a state where pixel units including nine pixels are arranged so as not to overlap each other. FIG. 28B is a diagram illustrating a state in which pixel units including four pixels are arranged so as not to overlap each other. FIG. 28C is a diagram illustrating a state where pixel units including nine pixels are arranged so as to partially overlap. FIG. 28D is a diagram illustrating a state in which pixel units including four pixels are arranged so as to partially overlap. In FIGS. 28A to 28D, a region surrounded by a dotted line, a region surrounded by a broken line, and a region surrounded by an alternate long and short dash line indicate separate pixel units.

上述した各実施形態では、カメラ20において、1つの画素は1つの画素ユニットにのみ含まれていた。換言すれば、図28の(a)および(b)に示すように、画素ユニット同士は互いに重ならないように配置されていた。しかし、本発明の一態様においては、1つの画素が2つ以上の画素ユニットに含まれていてもよい。すなわち、図28の(c)および(d)に示すように、画素ユニットが部分的に重なるように配置されていてもよい。   In each embodiment described above, in the camera 20, one pixel is included in only one pixel unit. In other words, as shown in FIGS. 28A and 28B, the pixel units are arranged so as not to overlap each other. However, in one embodiment of the present invention, one pixel may be included in two or more pixel units. That is, as shown in FIGS. 28C and 28D, the pixel units may be arranged so as to partially overlap.

画素ユニットが部分的に重なり合っている場合、画素ユニットが重なり合っていない場合と比較して、画素ユニットの数が多くなる。したがって、画素ユニットが部分的に重なり合っている場合、正反射光成分を、より多く除去することが期待できる。   When the pixel units partially overlap, the number of pixel units increases as compared with the case where the pixel units do not overlap. Therefore, when the pixel units partially overlap, it can be expected that more specularly reflected light components are removed.

また、1つの画素ユニットに含まれる画素に対応する偏光素子の、主軸方向の種類は、多ければ多いだけ、正反射光成分を適切に除去することができる。しかし、1種類の主軸方向に対応して少なくとも1つの画素が必要になるため、主軸方向の種類が多いと、画素ユニットに含まれる画素の数が増大する。   Further, the more the number of types of polarizing elements corresponding to the pixels included in one pixel unit in the principal axis direction, the more the specular reflection light component can be appropriately removed. However, since at least one pixel is required corresponding to one kind of main axis direction, if there are many kinds in the main axis direction, the number of pixels included in the pixel unit increases.

画素ユニットに含まれる画素の数が増大すると、図28の(a)および(b)に示すように、画素ユニットが互いに重ならないように配置される場合に、撮像画像の解像度が低下するという問題が生じる。実用的には、1つの画素ユニットに含まれる画素に対応する偏光素子の、主軸方向の種類は、2種類以上かつ9種類以下であることが好ましい。   When the number of pixels included in the pixel unit increases, as shown in FIGS. 28A and 28B, when the pixel units are arranged so as not to overlap each other, the resolution of the captured image decreases. Occurs. Practically, it is preferable that the types of the polarizing elements corresponding to the pixels included in one pixel unit are 2 types or more and 9 types or less in the principal axis direction.

また、上述した各実施形態において、画像処理装置10、10A〜10Eは、黒目領域を特定する黒目検出部11を備えていた。しかし、画像処理装置10、10A〜10Eは、黒目検出部11の代わりに、ユーザの角膜、虹彩または瞳孔領域を特定する、角膜・虹彩・瞳孔検出部を備えていてもよい。虹彩・瞳孔検出部が角膜、虹彩または瞳孔領域を特定する処理は、黒目検出部11が黒目領域を検出する処理と同様であり、虹彩認証などの分野において既知である。角膜・虹彩・瞳孔検出部は、特定した角膜、虹彩または瞳孔領域に対応する画素の位置情報を、実施形態に応じて、最小輝度値選択部17・17Aまたは拡散反射光成分算出部18、および認証部15などに送信する。画像処理装置10、10A〜10Eが備える他のブロックにおける処理は、上述した各実施形態において説明した処理と同様である。   Moreover, in each embodiment mentioned above, the image processing apparatuses 10, 10A-10E were provided with the black eye detection part 11 which specifies a black eye area | region. However, the image processing apparatuses 10, 10 </ b> A to 10 </ b> E may include a cornea / iris / pupil detection unit that specifies the user's cornea, iris, or pupil region instead of the black eye detection unit 11. The process in which the iris / pupil detection unit identifies the cornea, iris, or pupil region is the same as the process in which the black eye detection unit 11 detects the black eye region, and is known in the field of iris authentication and the like. The cornea / iris / pupil detection unit obtains the position information of the pixel corresponding to the specified cornea, iris or pupil region, depending on the embodiment, the minimum luminance value selection unit 17 / 17A or the diffuse reflection component calculation unit 18, and It transmits to the authentication part 15 etc. Processing in other blocks included in the image processing apparatuses 10, 10A to 10E is the same as the processing described in each of the above-described embodiments.

黒目検出部11(または角膜・虹彩・瞳孔検出部)が黒目領域(または角膜、虹彩または瞳孔領域)を検出する処理の例について、以下に簡潔に説明する。まず、黒目検出部11(または角膜・虹彩・瞳孔検出部)は、撮像素子の各画素が取得した実効放射輝度値に対して、先鋭化、エッジ検出、および2値化を行う。エッジ検出には、例えばsobelフィルタを用いることができる。また、2値化には、例えば移動平均法または部分画像分割法を用いることができる。黒目検出部11(または角膜・虹彩・瞳孔検出部)は、2値化された実効放射輝度値に対してHough変換を行い、円形の領域を黒目(または角膜・虹彩・瞳孔領域)として検出する。   An example of processing in which the black eye detection unit 11 (or cornea / iris / pupil detection unit) detects a black eye region (or cornea, iris, or pupil region) will be briefly described below. First, the black eye detection unit 11 (or the cornea / iris / pupil detection unit) performs sharpening, edge detection, and binarization on the effective radiance value acquired by each pixel of the image sensor. For edge detection, for example, a sobel filter can be used. For binarization, for example, a moving average method or a partial image division method can be used. The black eye detection unit 11 (or the cornea / iris / pupil detection unit) performs a Hough transform on the binarized effective radiance value and detects a circular region as a black eye (or cornea / iris / pupil region). .

また、上述した各実施形態においては、半径rを眼球Eの半径として説明した。しかし、半径rは、角膜の曲率半径であってもよい。   In the above-described embodiments, the radius r is described as the radius of the eyeball E. However, the radius r may be the radius of curvature of the cornea.

また、実施形態1において被写体が両目の眼球Eを含む場合について、以下に説明する。この場合において、各数値を以下のように規定する。
・Rd:2つの眼球Eの中心同士を結ぶ線分の中間点とカメラ20のレンズとの間の距離
・R1:一方の眼球Eの中心とカメラ20のレンズとの間の距離
・L:一方の眼球Eの中心と上記中間点との間の距離
ここでは、Rdについては測距装置30により測定される既知の値であり、R1については測距装置30により直接測定できないものとする。また、Lの算出方法については後述する。なお、Rdについては、必ずしも測距装置30によって測定する必要はなく、実施形態6で説明したRと同様、カメラ20のみを用いた算出方法により算出してもよい。
A case where the subject includes the eyeballs E of both eyes in the first embodiment will be described below. In this case, each numerical value is defined as follows.
Rd: distance between the midpoint of the line connecting the centers of the two eyeballs E and the lens of the camera 20 R1: distance between the center of one eyeball E and the lens of the camera 20 L: one Here, the distance between the center of the eyeball E and the intermediate point is a known value measured by the distance measuring device 30 for Rd and cannot be directly measured by the distance measuring device 30 for R1. A method for calculating L will be described later. Note that Rd is not necessarily measured by the distance measuring device 30 and may be calculated by a calculation method using only the camera 20 as in R described in the sixth embodiment.

図30は、被写体が両目の眼球Eを含む場合について説明するための図である。この場合、R1の値は次の式(10−1)により算出できる。
R1=sqrt(Rd+(L/2)) (10−1)
ここで、sqrt(Rd+(L/2))はRd+(L/2)の平方根を示す。上述した式(1−1)および(1−2)におけるRにR1を代入し、R1を式(10−1)により算出することで、実施形態1の画像処理装置10において、被写体が両目の眼球Eである場合の処理が可能となる。
FIG. 30 is a diagram for explaining a case where the subject includes the eyeballs E of both eyes. In this case, the value of R1 can be calculated by the following equation (10-1).
R1 = sqrt (Rd 2 + ( L / 2) 2) (10-1)
Here, sqrt (Rd 2 + (L / 2) 2 ) represents the square root of Rd 2 + (L / 2) 2 . By substituting R1 for R in the equations (1-1) and (1-2) described above, and calculating R1 by equation (10-1), the subject is placed in both eyes in the image processing apparatus 10 of the first embodiment. Processing for the eyeball E is possible.

Lの算出方法について以下に説明する。Lの算出に当たって、各数値を以下のように規定する。
・α:眼球Eの中心に対して、角膜の中心と端部とがなす角
・H1:画像における、一方の眼球Eの角膜の半径の画素数
・H2:画像における、両方の眼球Eの角膜の中心間の距離の画素数
これらの値のうち、αは、半径rの円において一般に角膜が占める割合から、例えば35°とすることができる。なお、αの値は別の値、例えば20°以上50°以下の範囲内の任意の値であってもよい。また、H1およびH2は画像から求めることができる。
A method for calculating L will be described below. In calculating L, each numerical value is defined as follows.
Α: angle formed by the center and end of the cornea with respect to the center of the eyeball E H1: number of pixels of the radius of the cornea of one eyeball E in the image H2: cornea of both eyeballs E in the image Of these values, α can be set to 35 °, for example, based on the proportion of the cornea generally occupied by a circle with a radius r. Note that the value of α may be another value, for example, an arbitrary value within a range of 20 ° to 50 °. H1 and H2 can be obtained from the image.

この場合、Lの値は次の式(10−2)により算出できる。
L=H2×(r×sinα)/H1 (10−2)
式(10−2)により算出したLの値を式(10−1)に代入することでR1の値を算出できる。
In this case, the value of L can be calculated by the following equation (10-2).
L = H2 × (r × sin α) / H1 (10-2)
The value of R1 can be calculated by substituting the value of L calculated by Expression (10-2) into Expression (10-1).

また、上述した各実施形態においては、角膜の屈折率をn=1.376として説明した。しかし、角膜の屈折率の値は上記の例に限らず、例えば1.335、1.337、1.3375、1.37、または1.38としてもよく、さらに別の値としてもよい。   Further, in each of the above-described embodiments, the refractive index of the cornea has been described as n = 1.376. However, the value of the refractive index of the cornea is not limited to the above example, and may be 1.335, 1.337, 1.3375, 1.37, or 1.38, for example, or may be another value.

〔ソフトウェアによる実現例〕
画像処理装置10、10A〜10Eは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The image processing apparatuses 10, 10A to 10E may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software using a CPU (Central Processing Unit). Good.

後者の場合、画像処理装置10、10A〜10Eは、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の一態様の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the image processing apparatuses 10, 10 </ b> A to 10 </ b> E include a CPU that executes instructions of a program that is software that realizes each function, and a ROM (the CPU (or CPU) in which the program and various data are recorded so as to be readable) A Read Only Memory) or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like are provided. The computer (or CPU) reads the program from the recording medium and executes the program, thereby achieving the object of one embodiment of the present invention. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. Note that one embodiment of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る画像処理方法は、主軸方向が互いに異なる複数の偏光素子(21a〜21o)と対応付けられた複数の画素を1つの画素ユニットとし、該画素ユニットが二次元的に配列された撮像素子(受光素子22)によって撮影された被写体(眼球E)の画像を取得するステップ(S1)と、前記撮像素子における前記画素ユニットの二次元的位置と対応する前記被写体上の位置により決まる前記被写体への入射角(θ)に依存したS偏光の輝度分布を、前記撮像素子の出力を用いて算出するステップ(SA1、SA2、SB1)と、を有する。
[Summary]
In the image processing method according to the first aspect of the present invention, a plurality of pixels associated with a plurality of polarizing elements (21a to 21o) having different principal axis directions are used as one pixel unit, and the pixel units are two-dimensionally arranged. A step (S1) of acquiring an image of a subject (eyeball E) photographed by the image sensor (light receiving element 22), and a position on the subject corresponding to a two-dimensional position of the pixel unit in the image sensor. A step (SA1, SA2, SB1) of calculating a luminance distribution of S-polarized light depending on the determined incident angle (θ) to the subject using the output of the imaging device.

上記の方法によれば、例えば被写体を眼球とした場合、その眼球を撮影するときの眼球への入射角は、眼球上の位置によって決まる。すなわち、眼球上の位置と眼球の中心とを結ぶ第1の仮想線(図6に示す直線L1)と、眼球上の上記位置と上記撮像素子を備えるカメラのレンズの中心とを結ぶ第2の仮想線(図6に示す直線L2)とを考えた場合、第1の仮想線と第2の仮想線とがなす角度が、眼球への入射角となる。   According to the above method, for example, when the subject is an eyeball, the incident angle to the eyeball when photographing the eyeball is determined by the position on the eyeball. That is, a second imaginary line (straight line L1 shown in FIG. 6) that connects the position on the eyeball and the center of the eyeball, and the second position that connects the position on the eyeball and the center of the lens of the camera equipped with the imaging device. When a virtual line (straight line L2 shown in FIG. 6) is considered, an angle formed by the first virtual line and the second virtual line is an incident angle to the eyeball.

一方、撮像素子には、主軸方向が互いに異なる複数の偏光素子と対応付けられた複数の画素を単位とする画素ユニットが二次元的に配列されている。眼球上の位置と、その位置における眼球への入射角と、撮像素子における画素ユニットの二次元的位置とは対応している。また、画素ユニットは、主軸方向が互いに異なる複数の偏光素子と対応付けられているから、画素ユニットを構成する複数の画素の出力は、眼球からの反射光に含まれる偏光の眼球上の分布状態によって変化する。特に、主軸方向が互いに異なる複数の偏光素子と対応付けられた複数の画素の出力には、S偏光の輝度が反映されている。すなわち、撮像素子の出力には、眼球からの反射光に含まれるS偏光の眼球上の分布状態が反映されている。したがって、眼球への入射角に依存したS偏光の輝度分布を、前記撮像素子の出力を用いて算出することができる。   On the other hand, in the imaging device, pixel units each having a plurality of pixels associated with a plurality of polarizing elements having different principal axis directions are two-dimensionally arranged. The position on the eyeball, the angle of incidence on the eyeball at that position, and the two-dimensional position of the pixel unit in the image sensor correspond to each other. In addition, since the pixel unit is associated with a plurality of polarizing elements having different principal axis directions, the output of the plurality of pixels constituting the pixel unit is a distribution state of polarized light included in the reflected light from the eyeball on the eyeball. It depends on. In particular, the luminance of S-polarized light is reflected in the output of a plurality of pixels associated with a plurality of polarizing elements having different principal axis directions. That is, the output state of the image sensor reflects the distribution state of the S-polarized light included in the reflected light from the eyeball on the eyeball. Therefore, the luminance distribution of S-polarized light depending on the incident angle to the eyeball can be calculated using the output of the image sensor.

こうして求めたS偏光の輝度分布は、生体の眼球と眼球の模造品とで異なる分布を示す。これにより、例えば眼球の模造品を被写体として撮影した場合、そのS偏光の輝度分布は眼球の分布と異なるため、被写体は眼球ではないと判定することができる。したがって、態様1の画像処理方法は、例えば、被写体が眼球なのか、眼球ではないのかの判別に利用することができる。   The luminance distribution of the S-polarized light thus obtained shows different distributions between the eyeball of the living body and the imitation product of the eyeball. As a result, for example, when an imitation of an eyeball is photographed as a subject, the luminance distribution of the S-polarized light is different from the distribution of the eyeball, so that the subject can be determined not to be an eyeball. Therefore, the image processing method of aspect 1 can be used to determine whether the subject is an eyeball or not, for example.

また、上記のように算出したS偏光の輝度分布は、例えば、外光の影響により眼球に映り込んだ物体の像を除去することにも利用することができる。   The luminance distribution of S-polarized light calculated as described above can also be used to remove an image of an object reflected on the eyeball due to the influence of external light, for example.

したがって、態様1の画像処理方法によれば、虹彩認証の精度を向上させることができる。   Therefore, according to the image processing method of aspect 1, it is possible to improve the accuracy of iris authentication.

本発明の態様2に係る画像処理方法は、上記態様1において、前記画像の輝度分布から、前記S偏光の輝度分布を減算するステップをさらに含むことが好ましい。   The image processing method according to aspect 2 of the present invention preferably further includes the step of subtracting the luminance distribution of the S-polarized light from the luminance distribution of the image in the aspect 1.

上記の方法において、眼球に景色または人物のような他の物体が映り込んだ場合、眼球からの反射光のうち、他の物体に対応した反射光は、主に鏡面反射光であり、この鏡面反射光に上記S偏光が含まれている。したがって、上記の方法によれば、眼球の画像の輝度分布からS偏光の輝度分布を減算することによって、眼球に映り込んだ不要なノイズ画像を減らすことができる。   In the above method, when another object such as a scene or a person is reflected in the eyeball, the reflected light corresponding to the other object out of the reflected light from the eyeball is mainly specular reflection light. The S-polarized light is included in the reflected light. Therefore, according to the above method, unnecessary noise images reflected in the eyeball can be reduced by subtracting the S-polarized light luminance distribution from the luminance distribution of the eyeball image.

本発明の態様3に係る画像処理方法は、上記態様1または2において、前記S偏光の輝度分布から、フレネルの法則により、前記被写体への入射角に依存したP偏光の輝度分布を算出するステップをさらに含むことが好ましい。   The image processing method according to Aspect 3 of the present invention is the step of calculating the P-polarized luminance distribution depending on the incident angle to the subject from the S-polarized luminance distribution according to Fresnel's law from the S-polarized luminance distribution. It is preferable that it is further included.

上記の方法において、眼球に他の物体が映り込んだ場合における眼球からの上記鏡面反射光には、S偏光だけではなくP偏光も含まれていることが多い。P偏光の輝度分布もまた、生体の眼球と眼球の模造品とで異なる分布を示す。したがって、上記の方法によれば、例えば、被写体が眼球なのか、眼球ではないのかの判別の精度を高めることができる。   In the above method, the specular reflection light from the eyeball when another object is reflected on the eyeball often includes not only S-polarized light but also P-polarized light. The luminance distribution of P-polarized light also shows different distributions between the eyeball of the living body and the counterfeit eyeball. Therefore, according to the above method, for example, it is possible to improve the accuracy of determining whether the subject is an eyeball or not.

本発明の態様4に係る画像処理方法は、上記態様3において、前記画像の輝度分布から、前記S偏光の輝度分布および前記P偏光の輝度分布を減算するステップをさらに含むことが好ましい。   The image processing method according to aspect 4 of the present invention preferably further includes the step of subtracting the luminance distribution of the S polarization and the luminance distribution of the P polarization from the luminance distribution of the image in the aspect 3.

上記の方法によれば、眼球の画像の輝度分布からS偏光の輝度分布およびP偏光の輝度分布を減算することによって、眼球に映り込んだ不要なノイズ画像をさらに減らすことができる。   According to the above method, the unnecessary noise image reflected in the eyeball can be further reduced by subtracting the luminance distribution of S-polarized light and the luminance distribution of P-polarized light from the luminance distribution of the image of the eyeball.

本発明の態様5に係る画像処理方法は、上記態様1から4のいずれかにおいて、前記S偏光の輝度分布を算出するステップにおいて、前記入射角をブリュースター角とした場合に、ブリュースター角に対応する前記画素ユニットを特定し、特定した画素ユニットに含まれる画素の輝度値の最大値から最小値を減算することでブリュースター角におけるS偏光の輝度値を算出し、フレネルの法則により、前記ブリュースター角におけるS偏光の輝度値を起点とし、ブリュースター角以外の入射角におけるS偏光の輝度値を算出することが好ましい。   An image processing method according to an aspect 5 of the present invention provides the image processing method according to any one of the above aspects 1 to 4, wherein, in the step of calculating the luminance distribution of the S-polarized light, the Brewster angle is set when the incident angle is the Brewster angle. The corresponding pixel unit is specified, and the luminance value of S-polarized light at the Brewster angle is calculated by subtracting the minimum value from the maximum value of the luminance values of the pixels included in the specified pixel unit, and according to Fresnel's law, It is preferable to calculate the luminance value of S-polarized light at an incident angle other than the Brewster angle, starting from the luminance value of S-polarized light at the Brewster angle.

上記の方法において、ブリュースター角では、鏡面反射光にP偏光がほとんど含まれず、主にS偏光が含まれることがわかっている。したがって、ブリュースター角に対応する画素ユニットを構成する複数の画素の出力、すなわち輝度値には、主軸方向が互いに異なる複数の偏光素子に対するS偏光の透過率の変化が反映されている。このため、その輝度値の最大値から最小値を減算することでブリュースター角におけるS偏光の輝度値を算出することができる。   In the above method, it is known that the specular reflected light hardly includes P-polarized light and mainly includes S-polarized light at the Brewster angle. Accordingly, the output of the plurality of pixels constituting the pixel unit corresponding to the Brewster angle, that is, the luminance value reflects the change in the transmittance of S-polarized light with respect to the plurality of polarizing elements having different principal axis directions. Therefore, the luminance value of S-polarized light at the Brewster angle can be calculated by subtracting the minimum value from the maximum luminance value.

眼球において、入射角に対するS偏光の輝度分布を表す関数は、フレネルの法則に従っており既知なので、ブリュースター角におけるS偏光の輝度値を算出できれば、ブリュースター角以外の入射角におけるS偏光の輝度値を理論に基づいて算出することができる。   Since the function representing the luminance distribution of S-polarized light with respect to the incident angle in the eyeball is known according to Fresnel's law, if the luminance value of S-polarized light at the Brewster angle can be calculated, the luminance value of S-polarized light at an incident angle other than the Brewster angle. Can be calculated based on theory.

本発明の態様6に係る画像処理方法は、上記態様1から5のいずれかにおいて、前記画素ユニットに含まれる画素の輝度値の最大値から最小値を減算することでS偏光の輝度値を算出するステップを、前記撮像素子に含まれる複数の画素ユニットについて繰り返し、算出したS偏光の輝度値の各々を、複数の画素ユニットに対応する前記入射角と対応づけることによって、前記S偏光の輝度分布を算出することが好ましい。   The image processing method according to aspect 6 of the present invention is the image processing method according to any one of aspects 1 to 5, wherein the luminance value of S-polarized light is calculated by subtracting the minimum value from the maximum value of the luminance values of the pixels included in the pixel unit. Repeating the step for a plurality of pixel units included in the image sensor, and by associating each calculated luminance value of S-polarized light with the incident angle corresponding to the plurality of pixel units, Is preferably calculated.

上記の方法によれば、既に説明したとおり、画素ユニットに含まれる画素の輝度値の最大値から最小値を減算することでS偏光の輝度値を算出することができる。このステップを撮像素子に含まれる複数の画素ユニットについて繰り返し、算出したS偏光の輝度値の各々を、複数の画素ユニットに対応する入射角と対応づけることによって、前記S偏光の輝度分布を実測値に基づいて算出することができる。   According to the above method, as already described, the luminance value of S-polarized light can be calculated by subtracting the minimum value from the maximum value of the luminance values of the pixels included in the pixel unit. This step is repeated for a plurality of pixel units included in the image sensor, and each of the calculated S-polarized luminance values is associated with an incident angle corresponding to the plurality of pixel units, whereby the S-polarized luminance distribution is measured. Can be calculated based on

なお、S偏光の輝度分布を実測値に基づいて算出する本態様の方法は、S偏光の輝度分布を理論に基づいて算出する前記態様の方法がうまく行かない場合に実行してもよい。   It should be noted that the method of this aspect for calculating the luminance distribution of S-polarized light based on the actual measurement value may be executed when the method of the aspect for calculating the luminance distribution of S-polarized light based on the theory does not work.

本発明の態様7に係る画像処理装置(10)は、主軸方向が互いに異なる複数の偏光素子と対応付けられた複数の画素を1つの画素ユニットとし、該画素ユニットが二次元的に配列された撮像素子(受光素子22)により撮影された被写体(眼球E)の画像について、前記画素ユニットの二次元的位置と対応する前記被写体上の位置により決まる前記被写体への入射角に依存したS偏光の輝度分布を、前記撮像素子の出力を用いて算出するS偏光算出部(12)を備える。   In the image processing device (10) according to the aspect 7 of the present invention, a plurality of pixels associated with a plurality of polarization elements having different principal axis directions are used as one pixel unit, and the pixel units are two-dimensionally arranged. With respect to the image of the subject (eyeball E) photographed by the image sensor (light receiving element 22), the S-polarized light depending on the incident angle on the subject determined by the position on the subject corresponding to the two-dimensional position of the pixel unit. An S-polarized light calculation unit (12) that calculates the luminance distribution using the output of the image sensor.

上記の構成によれば、態様1と同様の効果を奏する。   According to said structure, there exists an effect similar to aspect 1.

本発明の態様8に係る画像処理プログラムは、上記態様7の画像処理装置としてコンピュータを機能させるための画像処理プログラムであって、上記S偏光算出部としてコンピュータを機能させるための画像処理プログラムである。   An image processing program according to aspect 8 of the present invention is an image processing program for causing a computer to function as the image processing apparatus according to aspect 7, and is an image processing program for causing a computer to function as the S-polarized light calculation unit. .

本発明の各態様に係る画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記画像処理装置が備える各部(ソフトウェア要素)として動作させることにより上記画像処理装置をコンピュータにて実現させる画像処理プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の一態様の範疇に入る。   The image processing apparatus according to each aspect of the present invention may be realized by a computer. In this case, the image processing apparatus is operated on each computer by causing the computer to operate as each unit (software element) included in the image processing apparatus. An image processing program to be realized in this manner and a computer-readable recording medium on which the image processing program is recorded also fall within the category of one embodiment of the present invention.

本発明の一態様は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の一態様の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   One aspect of the present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the technical means disclosed in different embodiments can be appropriately combined. Such embodiments are also included in the technical scope of one aspect of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

10、10A、10B、10C、10D、10E 画像処理装置
15 認証部
16 輝度値情報取得部
17 最小輝度値選択部(画像生成部)
17A 最小輝度値推定部(画像生成部)
18 拡散反射光成分算出部(画像生成部)
19 映り込み有無判定部
40 偏光照射部
10, 10A, 10B, 10C, 10D, 10E Image processing device 15 Authentication unit 16 Luminance value information acquisition unit 17 Minimum luminance value selection unit (image generation unit)
17A Minimum luminance value estimation unit (image generation unit)
18 Diffuse / reflected light component calculation unit (image generation unit)
19 Reflection presence / absence determination unit 40 Polarized light irradiation unit

Claims (19)

主軸方向が互いに異なる複数の偏光素子と対応付けられた複数の画素を1つの画素ユニットとし、前記画素ユニットが二次元的に配列された撮像素子によって、当該撮像素子における、被写体の実効的な放射輝度値である実効放射輝度値を当該被写体から取得する輝度値情報取得ステップと、
前記被写体から取得した実効放射輝度値を用いて前記被写体の像を含む撮像画像を生成する画像生成ステップとを含み、
前記画像生成ステップにおいて、前記被写体の少なくとも一部に対応する前記画素ユニットごとに、当該画素ユニットに含まれる複数の画素の実効放射輝度値から、前記被写体の表面での正反射光成分の少なくとも一部を除去し、得られた輝度値を有する単位領域の集合としての前記撮像画像を生成することを特徴とする画像処理方法。
A plurality of pixels associated with a plurality of polarizing elements having different principal axis directions are used as one pixel unit, and the effective radiation of the subject in the imaging element is obtained by the imaging element in which the pixel units are two-dimensionally arranged. A luminance value information acquisition step of acquiring an effective radiance value that is a luminance value from the subject;
Generating a captured image including an image of the subject using an effective radiance value acquired from the subject, and
In the image generation step, for each pixel unit corresponding to at least a part of the subject, at least one of the specularly reflected light components on the surface of the subject is obtained from the effective radiance values of a plurality of pixels included in the pixel unit. An image processing method, wherein the captured image is generated as a set of unit regions having the obtained luminance value by removing a portion.
前記画像生成ステップにおいて、前記画素ユニットのそれぞれに含まれる前記複数の画素の実効放射輝度値のうちの最小値を、前記単位領域のそれぞれの輝度値として決定することを特徴とする請求項1に記載の画像処理方法。   2. The image generation step according to claim 1, wherein a minimum value among effective radiance values of the plurality of pixels included in each of the pixel units is determined as a luminance value of each of the unit regions. The image processing method as described. 前記画像生成ステップにおいて、
前記画素ユニットのそれぞれに含まれる前記複数の画素の実効放射輝度値に基づいて、当該画素ユニットにおいて取り得る実効放射輝度値の最小値を推定し、
推定した前記最小値から、前記単位領域のそれぞれの輝度値を決定することを特徴とする請求項1に記載の画像処理方法。
In the image generation step,
Based on the effective radiance values of the plurality of pixels included in each of the pixel units, estimate the minimum effective radiance value that can be taken in the pixel unit,
The image processing method according to claim 1, wherein a luminance value of each of the unit areas is determined from the estimated minimum value.
前記画像生成ステップにおいて、前記画素ユニットのそれぞれに含まれる前記複数の画素の前記実効放射輝度値に対して、前記偏光素子の主軸方向の角度を変数とする三角関数または多項式を適用することにより、前記最小値を推定することを特徴とする請求項3に記載の画像処理方法。   In the image generation step, by applying a trigonometric function or a polynomial having an angle in the principal axis direction of the polarizing element as a variable, to the effective radiance value of the plurality of pixels included in each of the pixel units, The image processing method according to claim 3, wherein the minimum value is estimated. 前記画像生成ステップにおいて、
前記画素ユニットのそれぞれに含まれる前記複数の画素の実効放射輝度値に基づいて、当該画素ユニットにおける実効放射輝度値の最大値および最小値を特定し、
特定した前記最大値および前記最小値と、当該画素ユニットに対応する前記被写体の表面における、フレネルの法則に基づいて算出されるS偏光成分の反射率に対するP偏光成分の反射率の比率とを用いて、前記画素ユニットのそれぞれにおける拡散反射光成分を算出し、上記拡散反射光成分を前記単位領域のそれぞれの輝度値として決定することを特徴とする請求項1に記載の画像処理方法。
In the image generation step,
Based on the effective radiance values of the plurality of pixels included in each of the pixel units, the maximum value and the minimum value of the effective radiance values in the pixel unit are specified,
Using the specified maximum and minimum values and the ratio of the reflectance of the P-polarized component to the reflectance of the S-polarized component calculated based on Fresnel's law on the surface of the subject corresponding to the pixel unit. The image processing method according to claim 1, wherein a diffuse reflected light component in each of the pixel units is calculated, and the diffuse reflected light component is determined as a luminance value of each of the unit regions.
前記画像生成ステップにおいて、
前記画素ユニットのそれぞれに含まれる前記複数の画素の実効放射輝度値に基づいて、当該画素ユニットにおける実効放射輝度値の最大値および最小値を特定し、
特定した前記最大値から前記最小値を減じることにより第1正反射光成分を算出し、
算出した前記第1正反射光成分と、当該画素ユニットに対応する前記被写体の表面における、フレネルの法則に基づいて算出されるS偏光成分の反射率に対するP偏光成分の反射率の比率と、を用いて第2正反射光成分を算出し、
特定した前記最大値から前記第1および第2正反射光成分を減じた値を、前記単位領域のそれぞれの輝度値として決定することを特徴とする請求項1に記載の画像処理方法。
In the image generation step,
Based on the effective radiance values of the plurality of pixels included in each of the pixel units, the maximum value and the minimum value of the effective radiance values in the pixel unit are specified,
Calculating a first regular reflection light component by subtracting the minimum value from the specified maximum value;
The calculated first regular reflection light component and the ratio of the reflectance of the P polarization component to the reflectance of the S polarization component calculated based on Fresnel's law on the surface of the subject corresponding to the pixel unit, To calculate the second regular reflection light component,
The image processing method according to claim 1, wherein a value obtained by subtracting the first and second specular light components from the identified maximum value is determined as a luminance value of each of the unit regions.
前記輝度値情報取得ステップにおいて取得した前記実効放射輝度値に含まれる、前記被写体の表面での正反射光成分が所定の強度以下であるか否かを判定する映り込み判定ステップと、
前記映り込み判定ステップにおいて、前記被写体の表面での正反射光成分が所定の強度以下であると判定された場合に、前記被写体に対して偏光を照射した状態で前記実効放射輝度値を取得する輝度値情報再取得ステップとをさらに含み、
前記輝度値情報再取得ステップが実行された場合には、前記画像生成ステップにおいて、前記輝度値情報再取得ステップにて取得した前記実効放射輝度値に含まれる、前記被写体の表面での正反射光成分の少なくとも一部を除去することを特徴とする請求項1〜6のいずれか1項に記載の画像処理方法。
A reflection determination step for determining whether or not a specularly reflected light component on the surface of the subject included in the effective radiance value acquired in the luminance value information acquisition step is less than or equal to a predetermined intensity;
In the reflection determination step, when it is determined that the specularly reflected light component on the surface of the subject is equal to or less than a predetermined intensity, the effective radiance value is acquired in a state where the subject is irradiated with polarized light. A luminance value information reacquisition step,
When the luminance value information reacquisition step is executed, in the image generation step, specularly reflected light on the surface of the subject included in the effective radiance value acquired in the luminance value information reacquisition step The image processing method according to claim 1, wherein at least a part of the components is removed.
主軸方向が互いに異なる複数の偏光素子と対応付けられた複数の画素を1つの画素ユニットとし、該画素ユニットが二次元的に配列された撮像素子によって撮影された被写体の画像を取得するステップと、
前記撮像素子における前記画素ユニットの二次元的位置と対応する前記被写体上の位置により決まる前記被写体への入射角に依存したS偏光の輝度分布を、前記撮像素子の出力を用いて算出するステップと、
を有することを特徴とする画像処理方法。
A plurality of pixels associated with a plurality of polarizing elements having different principal axis directions as one pixel unit, and obtaining an image of a subject imaged by an imaging element in which the pixel units are two-dimensionally arranged;
Calculating a luminance distribution of S-polarized light depending on an incident angle to the subject determined by a position on the subject corresponding to a two-dimensional position of the pixel unit in the imaging device, using an output of the imaging device; ,
An image processing method comprising:
前記撮像素子の出力から求めた前記画像の輝度分布から、前記S偏光の輝度分布を減算するステップをさらに含むことを特徴とする請求項8に記載の画像処理方法。   The image processing method according to claim 8, further comprising a step of subtracting the luminance distribution of the S-polarized light from the luminance distribution of the image obtained from the output of the imaging device. 前記S偏光の輝度分布から、フレネルの法則により、前記被写体への入射角に依存したP偏光の輝度分布を算出するステップをさらに含むことを特徴とする請求項8または9に記載の画像処理方法。   10. The image processing method according to claim 8, further comprising a step of calculating a P-polarized light luminance distribution depending on an incident angle to the subject from the S-polarized light luminance distribution according to Fresnel's law. . 前記画像の輝度分布から、前記S偏光の輝度分布および前記P偏光の輝度分布を減算するステップをさらに含むことを特徴とする請求項10に記載の画像処理方法。   The image processing method according to claim 10, further comprising a step of subtracting the luminance distribution of the S polarization and the luminance distribution of the P polarization from the luminance distribution of the image. 主軸方向が互いに異なる複数の偏光素子と対応付けられた複数の画素を1つの画素ユニットとし、前記画素ユニットが二次元的に配列された撮像素子を備える画像処理装置であって、
前記撮像素子によって当該撮像素子における被写体の実効的な放射輝度値である実効放射輝度値を当該被写体から取得する輝度値情報取得部と、
前記被写体から取得した実効放射輝度値を用いて前記被写体の像を含む撮像画像を生成する画像生成部とを含み、
前記画像生成部は、前記被写体の少なくとも一部に対応する前記画素ユニットごとに、当該画素ユニットに含まれる複数の画素の実効放射輝度値から、前記被写体の表面での正反射光成分の少なくとも一部を除去し、得られた輝度値を有する単位領域の集合としての前記撮像画像を生成することを特徴とする画像処理装置。
An image processing apparatus comprising a plurality of pixels associated with a plurality of polarizing elements having different principal axis directions as one pixel unit, and an imaging device in which the pixel units are two-dimensionally arranged,
A luminance value information acquisition unit that acquires, from the subject, an effective radiance value that is an effective radiance value of the subject in the image sensor by the image sensor;
An image generation unit that generates a captured image including an image of the subject using an effective radiance value acquired from the subject,
For each pixel unit corresponding to at least a part of the subject, the image generation unit is configured to obtain at least one of specularly reflected light components on the surface of the subject from effective radiance values of a plurality of pixels included in the pixel unit. The image processing apparatus is characterized in that the captured image is generated as a set of unit areas having the obtained luminance value by removing a portion.
前記画像生成部は、前記画素ユニットのそれぞれに含まれる前記複数の画素の実効放射輝度値のうちの最小値を、前記単位領域のそれぞれの輝度値として決定することを特徴とする請求項12に記載の画像処理装置。   The image generating unit determines a minimum value among effective radiance values of the plurality of pixels included in each of the pixel units as a luminance value of each of the unit regions. The image processing apparatus described. 前記画像生成部は、
前記画素ユニットのそれぞれに含まれる前記複数の画素の実効放射輝度値に基づいて、当該画素ユニットにおいて取り得る実効放射輝度値の最小値を推定し、
推定した前記最小値から前記単位領域のそれぞれの輝度値を決定することを特徴とする請求項12に記載の画像処理装置。
The image generation unit
Based on the effective radiance values of the plurality of pixels included in each of the pixel units, estimate the minimum effective radiance value that can be taken in the pixel unit,
The image processing apparatus according to claim 12, wherein a luminance value of each of the unit areas is determined from the estimated minimum value.
前記画像生成部は、前記画素ユニットのそれぞれに含まれる前記複数の画素の実効放射輝度値に対して、前記偏光素子の主軸方向の角度を変数とする三角関数または多項式を適用することにより、前記最小値を推定することを特徴とする請求項14に記載の画像処理装置。   The image generation unit applies a trigonometric function or a polynomial having an angle in a principal axis direction of the polarizing element as a variable to an effective radiance value of the plurality of pixels included in each of the pixel units. The image processing apparatus according to claim 14, wherein a minimum value is estimated. 前記画像生成部は、
前記画素ユニットのそれぞれに含まれる前記複数の画素の実効放射輝度値に基づいて、当該画素ユニットにおける実効放射輝度値の最大値および最小値を特定し、
特定した前記最大値および前記最小値と、当該画素ユニットに対応する前記被写体の表面における、フレネルの法則に基づいて算出されるS偏光成分の反射率に対するP偏光成分の反射率の比率とを用いて、前記画素ユニットのそれぞれにおける拡散反射光成分を算出し、上記拡散反射光成分を前記単位領域のそれぞれの輝度値として決定することを特徴とする請求項12に記載の画像処理装置。
The image generation unit
Based on the effective radiance values of the plurality of pixels included in each of the pixel units, the maximum value and the minimum value of the effective radiance values in the pixel unit are specified,
Using the specified maximum and minimum values and the ratio of the reflectance of the P-polarized component to the reflectance of the S-polarized component calculated based on Fresnel's law on the surface of the subject corresponding to the pixel unit. The image processing apparatus according to claim 12, wherein a diffuse reflected light component in each of the pixel units is calculated, and the diffuse reflected light component is determined as a luminance value of each of the unit regions.
前記画像生成部は、
前記画素ユニットのそれぞれに含まれる前記複数の画素の実効放射輝度値に基づいて、当該画素ユニットにおける実効放射輝度値の最大値および最小値を特定し、
特定した前記最大値から前記最小値を減じることにより第1正反射光成分を算出し、
算出した前記第1正反射光成分と、当該画素ユニットに対応する前記被写体の表面における、フレネルの法則の式に基づいて算出されるS偏光成分の反射率に対するP偏光成分の反射率の比率を用いて第2正反射光成分を算出し、
特定した前記最大値から前記第1および第2正反射光成分を減じた値を、前記単位領域のそれぞれの輝度値として決定することを特徴とする請求項12に記載の画像処理装置。
The image generation unit
Based on the effective radiance values of the plurality of pixels included in each of the pixel units, the maximum value and the minimum value of the effective radiance values in the pixel unit are specified,
Calculating a first regular reflection light component by subtracting the minimum value from the specified maximum value;
The ratio of the reflectance of the P-polarized component to the reflectance of the S-polarized component calculated based on Fresnel's law formula on the surface of the subject corresponding to the pixel unit and the calculated first regular reflected light component. To calculate the second regular reflection light component,
The image processing apparatus according to claim 12, wherein a value obtained by subtracting the first and second specularly reflected light components from the specified maximum value is determined as each luminance value of the unit region.
前記輝度値情報取得部が取得した前記実効放射輝度値に含まれる、前記被写体の表面での正反射光成分が所定の強度以下であるか否かを判定する映り込み判定部と、
前記被写体の表面での正反射光成分が所定の強度以下であると前記映り込み判定部が判定した場合に、前記被写体に対して偏光が照射された状態で前記実効放射輝度値を取得する輝度値情報再取得部とをさらに含み、
前記輝度値情報再取得部が被写体の実効放射輝度値を取得した場合には、前記画像生成部は、前記輝度値情報再取得部が取得した前記実効放射輝度値に含まれる、前記被写体の表面での正反射光成分の少なくとも一部を除去することを特徴とする請求項12〜17のいずれか1項に記載の画像処理装置。
A reflection determination unit that determines whether or not a specularly reflected light component on the surface of the subject included in the effective radiance value acquired by the luminance value information acquisition unit is a predetermined intensity or less;
Luminance for acquiring the effective radiance value in a state where polarized light is irradiated to the subject when the reflection determination unit determines that the specularly reflected light component on the surface of the subject is equal to or less than a predetermined intensity A value information reacquisition unit,
When the luminance value information reacquisition unit acquires the effective radiance value of the subject, the image generation unit includes the surface of the subject included in the effective radiance value acquired by the luminance value information reacquisition unit. The image processing apparatus according to claim 12, wherein at least a part of the regular reflection light component is removed.
前記被写体の一部が虹彩であり、前記画像生成部が生成した撮像画像に基づいて本人認証を行う認証部をさらに備えることを特徴とする請求項12〜18のいずれか1項に記載の画像処理装置。   The image according to any one of claims 12 to 18, further comprising an authentication unit that performs identity authentication based on a captured image generated by the image generation unit, wherein a part of the subject is an iris. Processing equipment.
JP2017074535A 2016-04-28 2017-04-04 Image processing method and image processing apparatus Expired - Fee Related JP6409088B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/494,603 US10521660B2 (en) 2016-04-28 2017-04-24 Image processing method and image processing device
KR1020170052987A KR102011195B1 (en) 2016-04-28 2017-04-25 Image processing method and image processing device
CN201710288252.2A CN107341771B (en) 2016-04-28 2017-04-27 Image processing method and image processing apparatus
US16/668,088 US20200065581A1 (en) 2016-04-28 2019-10-30 Image processing method and image processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016091832 2016-04-28
JP2016091832 2016-04-28

Publications (2)

Publication Number Publication Date
JP2017201303A true JP2017201303A (en) 2017-11-09
JP6409088B2 JP6409088B2 (en) 2018-10-17

Family

ID=60265050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017074535A Expired - Fee Related JP6409088B2 (en) 2016-04-28 2017-04-04 Image processing method and image processing apparatus

Country Status (2)

Country Link
JP (1) JP6409088B2 (en)
KR (1) KR102011195B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075151A1 (en) * 2019-10-15 2021-04-22 シャープ株式会社 Shape identification device and biometric authentication device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021182670A (en) 2020-05-18 2021-11-25 キヤノン株式会社 Image processing device, imaging device, image processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4641349A (en) * 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
JPH11203478A (en) * 1998-01-07 1999-07-30 Oki Electric Ind Co Ltd Iris data acquiring device
WO2004090814A1 (en) * 2003-04-02 2004-10-21 Matsushita Electric Industrial Co. Ltd. Image processing method, image processor, photographing apparatus, image output unit and iris verify unit
WO2007029446A1 (en) * 2005-09-01 2007-03-15 Matsushita Electric Industrial Co., Ltd. Image processing method, image processing device, and image processing program
US20070110285A1 (en) * 2005-11-11 2007-05-17 Hanna Keith J Apparatus and methods for detecting the presence of a human eye
WO2009019887A1 (en) * 2007-08-07 2009-02-12 Panasonic Corporation Image processing device and image processing method
US20150042776A1 (en) * 2011-06-18 2015-02-12 Morpho Trust USA,LLC Systems And Methods For Detecting A Specular Reflection Pattern For Biometric Analysis

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4641349A (en) * 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
JPS62501889A (en) * 1985-02-20 1987-07-30 フロム,レオナ−ド iris recognition system
JPH11203478A (en) * 1998-01-07 1999-07-30 Oki Electric Ind Co Ltd Iris data acquiring device
WO2004090814A1 (en) * 2003-04-02 2004-10-21 Matsushita Electric Industrial Co. Ltd. Image processing method, image processor, photographing apparatus, image output unit and iris verify unit
US20050226470A1 (en) * 2003-04-02 2005-10-13 Matsushita Electric Industrial Co., Ltd Image processing method, image processor, photographic apparatus, image output unit and iris verify unit
WO2007029446A1 (en) * 2005-09-01 2007-03-15 Matsushita Electric Industrial Co., Ltd. Image processing method, image processing device, and image processing program
US20070110285A1 (en) * 2005-11-11 2007-05-17 Hanna Keith J Apparatus and methods for detecting the presence of a human eye
WO2009019887A1 (en) * 2007-08-07 2009-02-12 Panasonic Corporation Image processing device and image processing method
US20150042776A1 (en) * 2011-06-18 2015-02-12 Morpho Trust USA,LLC Systems And Methods For Detecting A Specular Reflection Pattern For Biometric Analysis

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075151A1 (en) * 2019-10-15 2021-04-22 シャープ株式会社 Shape identification device and biometric authentication device

Also Published As

Publication number Publication date
KR102011195B1 (en) 2019-08-14
KR20170123257A (en) 2017-11-07
JP6409088B2 (en) 2018-10-17

Similar Documents

Publication Publication Date Title
CN107341771B (en) Image processing method and image processing apparatus
Thavalengal et al. Iris authentication in handheld devices-considerations for constraint-free acquisition
CN108885689B (en) Spoofing detection using proximity sensors
CN109766876B (en) Non-contact fingerprint acquisition device and method
US20100202666A1 (en) Time-of-flight sensor-assisted iris capture system and method
Medioni et al. Face modeling and recognition in 3-D
US9858490B2 (en) Vein authentication method, image processing method, and vein authentication device
WO2017033178A1 (en) System and method for object authenticity detection
Thavalengal et al. Proof-of-concept and evaluation of a dual function visible/NIR camera for iris authentication in smartphones
CN106250839A (en) A kind of iris image perspective correction method, device and mobile terminal
JP6409088B2 (en) Image processing method and image processing apparatus
US20230196842A1 (en) Spoof-Resistant Facial Recognition Through Illumination and Imaging Engineering
US11734948B2 (en) Device and method for contactless fingerprint acquisition
KR102364044B1 (en) Apparatus and Method for Photographing and Correcting Wide Angle Images
EP3721381B1 (en) Anti-spoofing face id sensing
US11544961B2 (en) Passive three-dimensional face imaging based on macro-structure and micro-structure image sizing
JP2005018405A (en) Eye image pickup device
US20220114359A1 (en) Passive image depth sensing for object verification based on chromatic differentiation
Corcoran et al. Iris authentication in handheld devices-considerations for constraint-free acquisition
TWM501583U (en) The optimized illuminator location to adjust specular reflection area in image recognition system
TW201543371A (en) The system and method of the optimized illuminator location to adjust specular reflection area in image recognition system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180921

R150 Certificate of patent or registration of utility model

Ref document number: 6409088

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees