JP2022098933A - 虹彩検出方法、虹彩検出装置、及び虹彩検出プログラム - Google Patents

虹彩検出方法、虹彩検出装置、及び虹彩検出プログラム Download PDF

Info

Publication number
JP2022098933A
JP2022098933A JP2020212618A JP2020212618A JP2022098933A JP 2022098933 A JP2022098933 A JP 2022098933A JP 2020212618 A JP2020212618 A JP 2020212618A JP 2020212618 A JP2020212618 A JP 2020212618A JP 2022098933 A JP2022098933 A JP 2022098933A
Authority
JP
Japan
Prior art keywords
iris
image
pixel
eye
luminance value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020212618A
Other languages
English (en)
Other versions
JP6994704B1 (ja
Inventor
寿和 大野
Toshikazu Ono
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Swallow Incubate Co Ltd
Panasonic Holdings Corp
Original Assignee
Swallow Incubate Co Ltd
Panasonic Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Swallow Incubate Co Ltd, Panasonic Holdings Corp filed Critical Swallow Incubate Co Ltd
Priority to JP2020212618A priority Critical patent/JP6994704B1/ja
Priority to CN202180007422.XA priority patent/CN115039149A/zh
Priority to PCT/JP2021/021994 priority patent/WO2022137605A1/ja
Application granted granted Critical
Publication of JP6994704B1 publication Critical patent/JP6994704B1/ja
Priority to US17/841,905 priority patent/US20220309833A1/en
Publication of JP2022098933A publication Critical patent/JP2022098933A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Figure 2022098933000001
【課題】虹彩情報の検出精度のさらなる向上を図る。
【解決手段】虹彩検出方法は、人の顔を含む第1画像を取得し、第1画像から前記人の目の領域を含む第2画像を生成し、第2画像を二値化して、階調値が閾値より小さい画素が第1輝度値で表され、階調値が閾値以上の画素が第2輝度値で表された第3画像を生成し、第3画像において、第1輝度値を有する第1輝度領域内に表れる第2輝度値の画素であって所定の条件を満たす第2輝度値の画素を、第1輝度値の画素に置き換えて第4画像を生成し、第4画像を用いて人の虹彩の位置及び大きさの少なくとも一方に関する情報を含む虹彩情報を算出し、虹彩情報を出力する。
【選択図】図2

Description

本開示は、人の虹彩を検出する技術に関するものである。
画像から目に関する情報を検出する目検出技術は、人の感情又は覚醒度及び疲労度等の人の状態を推定するための要素技術として注目されている。目に関する情報の中でも虹彩の位置及び大きさに関する虹彩情報は、その他の目に関する情報を検出するための基本情報として使用されることもあるため、高精度に検出することが要求される。虹彩情報に関する特許文献として下記の文献が知られている。
例えば、特許文献1には、境界ボックス内の赤色チャネルの輝度に基づいて虹彩中心を決定し、虹彩中心に初期円を設定し、円上の画素の傾斜度を測定し、円を拡張しながら最大傾斜度を有する円を探索し、最大傾斜度を有する円の中心及び半径を虹彩中心及び虹彩半径として算出する技術が開示されている。
特許文献2には、画像を任意の閾値で二値化した場合の当該閾値よりも暗い部分を対象領域とし、対象領域の輪郭線を複数の異なる閾値毎に求め、全ての閾値で輪郭線を求めた後、どの閾値で二値化した時に得られる輪郭線が、真の虹彩顆粒の輪郭線であるかを判定する技術が開示されている。
特許第4723834号公報 特開平11-155838号公報
しかしながら、特許文献1、2の手法では、外光及び背景等が角膜に映り込んだ場合、虹彩情報の検出精度が低下するため、さらなる改善の必要がある。
本開示は、上記課題を解決するためになされたものであり、虹彩情報の検出精度のさらなる向上を図ることを目的とする。
本開示の一態様に係る虹彩検出方法は、撮像装置により撮像された人の虹彩を検出する虹彩検出装置における虹彩検出方法であって、前記虹彩検出装置のコンピュータが、前記人の顔を含む第1画像を取得し、前記第1画像から前記人の目の領域を含む第2画像を生成し、前記第2画像を二値化して、階調値が閾値より小さい画素が第1輝度値で表され、階調値が閾値以上の画素が第2輝度値で表された第3画像を生成し、前記第3画像において、前記第1輝度値を有する第1輝度領域内に表れる前記第2輝度値の画素であって所定の条件を満たす前記第2輝度値の画素を、前記第1輝度値の画素に置き換えて第4画像を生成し、前記第4画像を用いて前記人の虹彩の位置及び大きさの少なくとも一方に関する情報を含む虹彩情報を算出し、前記虹彩情報を出力する。
本開示によれば、虹彩情報の検出精度のさらなる向上を図ることができる。
本開示の実施の形態1における虹彩検出システムの外観図である。 本開示の実施の形態1における虹彩検出システムの全体構成の一例を示すブロック図である。 本開示の実施の形態1における虹彩検出装置の処理の一例を示すフローチャートである。 虹彩検出処理の一例を示すフローチャートである。 顔領域を示す図である。 目検出領域を示す図である。 二値画像の一例を示す図である。 絞り込み処理が行われた二値画像の一例を示す図である。 二値画像の他の一例を示す図である。 局所領域を示す図である。 虹彩推定中心位置の説明図である。 瞳領域内に黒の島領域が現れた二値画像を示す図である。 塗りつぶし処理後の二値画像を示す図である。 瞳領域の左端画素及び右端画素が検出された二値画像を示す図である。 瞳領域の上端画素及び下端画素が検出された二値画像を示す図である。 本開示の実施の形態2における虹彩検出システムの全体構成の一例を示すブロック図である。 本開示の実施の形態2における虹彩検出装置の処理の一例を示すフローチャートである。 モルフォロジー勾配演算が実行される前の二値画像を示す図である。 二値画像に対して膨張処理及び収縮処理が実行された膨張画像及び収縮画像を示す図である。 勾配画像を示す図である。 目尻及び目頭が検出された二値画像を示す図である。 ディスプレイに表示される表示画面の一例を示す図である。 目に関する情報を説明するための図である。
(本開示に至る経緯)
人の目は白目と白目に取り囲まれた瞳とを含む。瞳はさらに正面から見てほぼ円形の瞳孔とそれを取り囲むドーナツ状の虹彩とに分けられる。正面から見て瞳の手前にはドーム状の角膜がある。外光及び背景等が角膜に映り込むと、その映り込みが高輝度の領域として瞳内に現れる。このような高輝度の領域が現れた目の画像に対して、画素値が閾値未満の暗い画素を第1輝度値(例えば白)で表し、画素値が閾値以上の明るい画素を第2輝度値(例えば黒)で表す二値化処理を適用すると、白領域において、瞳に相当する領域内に黒の島領域が現れる。このような黒の島領域が白領域内に現れると、虹彩中心位置及び虹彩の大きさといった虹彩情報を正確に検出できなくなる。
上記の特許文献1では、目の境界ボックス内の赤色チャネル映像の最大輝度値を有する画素の数を閾値と比較することによってハイライトの有無を判定し、ハイライトが存在すると判定した場合、ハイライト周囲のハイコントラスト領域の中心点を虹彩中心として設定することが開示されている(段落[0076])。
ここで、角膜に映り込む外光及び背景等の高輝度の領域は中心が必ずしも虹彩領域の中心に位置するとは限らない。しかしながら、特許文献1では、ハイコントラスト領域の中心が虹彩中心位置として設定されているため、ハイコントラスト領域の中心点が虹彩中心位置と一致していない場合、虹彩中心位置を正確に検出できないという課題がある。
上述の特許文献2では、全ての閾値で対象領域の輪郭線を求めた後、どの閾値で二値化した時に得られる輪郭線が、真の虹彩顆粒の輪郭線であるかが判定されている(請求項2)。
しかしながら、特許文献2では、外光及び背景の角膜への映り込みが何ら考慮されていないため、虹彩情報を高精度に検出できないという課題がある。
そこで、本発明者は、目を含む画像を二値化した場合、白領域内に現れる黒の画素を白の画素で置換し、置換後の画像に対して虹彩情報を検出すれば虹彩情報を正確に検出できるとの知見を得て、以下に示す本開示の各態様に相当するに至った。
本開示の一態様に係る虹彩検出方法は、撮像装置により撮像された人の虹彩を検出する虹彩検出装置における虹彩検出方法であって、前記虹彩検出装置のコンピュータが、前記人の顔を含む第1画像を取得し、前記第1画像から前記人の目の領域を含む第2画像を生成し、前記第2画像を二値化して、階調値が閾値より小さい画素が第1輝度値で表され、階調値が閾値以上の画素が第2輝度値で表された第3画像を生成し、前記第3画像において、前記第1輝度値を有する第1輝度領域内に表れる前記第2輝度値の画素であって所定の条件を満たす前記第2輝度値の画素を、前記第1輝度値の画素に置き換えて第4画像を生成し、前記第4画像を用いて前記人の虹彩の位置及び大きさの少なくとも一方に関する情報を含む虹彩情報を算出し、前記虹彩情報を出力する。
本構成によれば、第3画像において、第1輝度領域内に表れる第2輝度値の画素であって所定の条件を満たす第2輝度値の画素が第1輝度値の画素に置き換えられて第4画像が生成される。これにより、第1輝度領域内の瞳に相当する領域内に現れる第2輝度値の島領域が第1輝度値で塗りつぶされる。そして、塗りつぶされた二値画像である第4画像を用いて虹彩情報が算出される。その結果、角膜に映り込んだ外光及び背景の影響が抑制され、虹彩情報の検出精度のさらなる向上を図ることができる。
上記虹彩検出方法において、前記第4画像の生成では、前記第3画像を構成する複数の縦ラインのそれぞれについて、前記第3画像の上端側から最初に現れる前記第1輝度値の画素である上端画素と、前記第3画像の下端側から最初に現れる前記第1輝度値の画素である下端画素とをそれぞれ検出し、前記上端画素及び下端画素間の距離が第1基準距離よりも大きい場合、前記上端画素及び前記下端画素間に含まれる前記第2輝度値の画素を前記所定の条件を満たす前記第2輝度値の画素として判定してもよい。
本構成によれば、上端画素と下端画素との距離が第1基準距離よりも大きい縦ラインにおいて上端画素と下端画素との間にある第2輝度値の画素が第1輝度値の画素に置換されている。そのため、第3画像を構成する複数の縦ラインのうち瞳に相当する領域を構成する縦ラインについて、上述の置換を行うことができる。その結果、瞳に相当する領域内にある第2輝度値の島領域を重点的に第1輝度値で塗りつぶすことができる。
上記虹彩検出方法において、前記第1輝度値は前記第2輝度値よりも大きく、前記第4画像の生成では、前記第3画像を横方向に所定画素ずつ分割して複数の局所領域に分け、各局所領域の平均輝度値を算出し、前記平均輝度値が最大の局所領域の中心位置を虹彩推定中心位置として算出し、前記虹彩推定中心位置から第2基準距離以内にある前記縦ライン内の前記第2輝度値の画素に対してのみ前記所定の条件を満たすか否かを判定してもよい。
瞳はほぼ円形であるため、第3画像を横方向に所定画素ずつ分割して複数の局所領域に分けた場合、基本的には、瞳の中心側に位置する局所領域ほど平均輝度値は増大し、瞳の中心を含む局所領域において平均輝度値は最大になる。本構成によれば、第1輝度値が第2輝度値よりも大きく設定され、複数の局所領域のうち、平均輝度値が最大の局所領域の中心位置が虹彩推定中心位置として設定されている。そのため、本構成は簡便な処理で虹彩中心位置を推定できる。
また、瞳に相当する領域は虹彩推定中心位置から一定距離内に位置すると考えられる。本構成によれば、虹彩推定中心位置から第2基準距離内にある縦ラインについてのみ上述の置換が行われているため、瞳に相当する領域に位置する縦ラインに対して、上述の置換を行うことができる。そのため、白目の領域に塗りつぶしが行われることが回避される。
上記虹彩検出方法において、前記虹彩情報の算出では、前記第4画像に対して、前記虹彩推定中心位置から前記横方向の左側に最初に現れる前記第2輝度値を有する第1画素と、前記虹彩推定中心位置から前記横方向の右側に最初に現れる前記第2輝度値を有する第2画素とをそれぞれ検出し、前記第1画素及び前記第2画素の中間位置を前記横方向の虹彩中心位置として算出してもよい。
本構成によれば、第2輝度値の島領域が第1輝度値で塗りつぶされた第4画像において、虹彩推定中心位置から、横方向の左側に向けて第2輝度値を有する第1画素が検出され、横方向の右側に向けて第2輝度値を有する第2画素が検出され、第1画素及び第2画素の中間位置が横方向の虹彩中心位置として算出されている。そのため、横方向の虹彩中心位置を精度よく算出することができる。
上記虹彩検出方法において、前記虹彩情報の算出では、前記第4画像に対して、前記虹彩推定中心位置から縦方向の上側に最初に現れる前記第2輝度値の画素である第3画素と、前記虹彩推定中心位置から前記縦方向の下側に最初に現れる前記第2輝度値の画素である第4画素とをそれぞれ検出し、前記第3画素及び前記第4画素の中間位置を前記縦方向の虹彩中心位置として算出してもよい。
本構成によれば、瞳に相当する領域が第1輝度値で塗りつぶされた第4画像において、虹彩推定中心位置から、縦方向の上側に向けて第2輝度値を有する第3画素が検出され、縦方向の下側に向けて第2輝度値を有する第4画素が検出され、第3画素及び第4画素の中間位置が縦方向の虹彩中心位置として算出されている。そのため、縦方向の虹彩中心位置を精度よく算出することができる。
上記虹彩検出方法において、さらに、前記第3画像に基づいて上下のまぶたの位置をそれぞれ検出してもよい。
本構成によれば、虹彩情報の算出過程で得られる第3画像に基づいて上下のまぶたの位置がそれぞれ検出されているため、虹彩情報を算出しつつ上下のまぶたの位置を検出できる。
上記虹彩検出方法において、前記まぶたの位置の検出では、前記第3画像に対してモルフォロジー勾配演算を行うことによって前記まぶたの位置を検出してもよい。
本構成によれば、二値化された第3画像に対してモルフォロジー勾配演算を行うことによって上下のまぶたの位置が検出されているため、上下のまぶたの位置を精度よく検出できる。
上記虹彩検出方法において、前記第3画像は、前記人の左目及び右目のいずれか一方の二値画像であり、さらに、前記第3画像に基づいて目尻及び目頭の位置をそれぞれ検出してもよい。
本構成によれば、虹彩情報の算出過程で得られる二値化された第3画像に基づいて目尻及び目頭の位置がそれぞれ検出されているため、虹彩情報を算出しつつ目尻及び目頭の位置を検出できる。
上記虹彩検出方法において、前記目尻及び前記目頭の位置の検出では、前記第3画像において、前記第1輝度値を有する横方向の左端の画素の位置を前記目尻及び前記目頭のいずれか一方の位置として検出し、前記第1輝度値を有する前記横方向の右端の画素の位置を前記目尻及び前記目頭のいずれか他方の位置として検出してもよい。
本構成によれば、左目及び右目のいずれか一方の二値画像である第3画像において、第1輝度値を有する横方向の左端の画素の位置が、目尻及び目頭のいずれか一方の位置として検出され、第1輝度値を有する横方向の右端の画素の位置が目尻及び目頭のいずれか他方の位置として検出されている。そのため、目尻及び目頭の位置を容易に検出できる。
上記虹彩検出方法において、さらに、前記目尻及び前記目頭の位置に基づいて前記人の両目に関する情報を算出してもよい。
本構成によれば、目尻及び目頭の位置に基づいて人の両目に関する情報が算出されるため、例えば人の目に関する疾患の判断材料となる情報を算出することができる。
上記虹彩検出方法において、さらに、前記第3画像から上下のまぶたの位置と目尻及び目頭の位置とを検出し、検出結果に基づいて、虹彩中心位置及び上まぶたの位置間の距離と、前記虹彩中心位置及び下まぶたの位置間の距離と、前記虹彩中心位置及び前記目尻の位置間の距離と、前記虹彩中心位置及び前記目頭の位置間の距離とを算出してもよい。
本構成によれば、虹彩中心位置及び上まぶたの位置間の距離と、虹彩中心位置及び下まぶた間の距離と、虹彩中心位置及び目尻の位置間の距離と、虹彩中心位置及び目頭の位置間の距離とが算出されている。そのため、これらの距離を用いて人の感情及び人の状態を推定することができる。
上記虹彩検出方法において、さらに、前記虹彩情報をディスプレイに表示される前記人の顔画像に重畳して表示してもよい。
本構成によれば、虹彩情報がディスプレイに表示される人の顔画像に重畳表示されるため、虹彩情報の算出結果をリアルタイムで顔画像上に表示することができる。
本開示の別の一態様に係る虹彩検出装置は、撮像装置により撮像された人の虹彩を検出する虹彩検出装置であって、前記人の顔を含む第1画像を取得する画像取得部と、前記第1画像から前記人の目の領域を含む第2画像を検出する目領域検出部と、前記第2画像を二値化して、輝度が閾値より小さい画素が第1輝度値で表され、輝度が閾値以上の画素が第2輝度値で表された第3画像を生成する二値化処理部と、前記第3画像において、前記第1輝度値を有する第1輝度領域内に表れる前記第2輝度値の画素であって所定の条件を満たす前記第2輝度値の画素を、前記第1輝度値の画素に置き換えて第4画像を生成する置換部と、前記第4画像を用いて前記人の虹彩の位置及び大きさの少なくとも一方に関する情報を含む虹彩情報を算出する虹彩情報算出部と、前記虹彩情報を出力する出力部とを備える。
本開示の別の一態様に係る虹彩検出プログラムは、撮像装置により撮像された人の虹彩を検出する虹彩検出装置としてコンピュータを機能させる虹彩検出プログラムであって、前記人の顔を含む第1画像を取得する画像取得部と、前記第1画像から前記人の目の領域を含む第2画像を検出する目領域検出部と、前記第2画像を二値化して、輝度が閾値より小さい画素が第1輝度値で表され、輝度が閾値以上の画素が第2輝度値で表された第3画像を生成する二値化処理部と、前記第3画像において、前記第1輝度値を有する第1輝度領域内に表れる前記第2輝度値の画素であって所定の条件を満たす前記第2輝度値の画素を、前記第1輝度値の画素に置き換えて第4画像を生成する置換部と、前記第4画像を用いて前記人の虹彩の位置及び大きさの少なくとも一方に関する情報を含む虹彩情報を算出する虹彩情報算出部と、前記虹彩情報を出力する出力部としてコンピュータを機能させる。
これらの構成によれば、上記虹彩検出方法と同様の作用効果が得られる。
本開示は、このような虹彩検出プログラムによって動作する虹彩検出システムとして実現することもできる。また、このようなコンピュータプログラムを、CD-ROM等のコンピュータ読取可能な非一時的な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。
(実施の形態1)
図1は、本開示の実施の形態1における虹彩検出システム100の外観図である。虹彩検出システム100は、スマートフォン又はタブレット端末等の携帯端末装置により構成されている。但し、これは一例であり、虹彩検出システム100は、据え置き型のコンピュータ又はクラウドサーバとカメラとディスプレイとを適宜組み合わせて構成されてもよい。
虹彩検出システム100は、虹彩検出装置1、撮像装置2、及びディスプレイ3を含む。虹彩検出装置1は、撮像装置2により撮像された人U1の虹彩情報を算出する。
撮像装置2は、携帯端末装置に実装されたカメラで構成されている。撮像装置2は、所定のフレームレートでカラーの可視光画像が可能なカメラである。
ディスプレイ3は、携帯端末装置に実装された液晶表示装置又は有機EL(Electro Luminescence)表示装置等の表示装置で構成されている。ディスプレイ3は、撮像装置2が撮像した人U1の顔の画像を表示する。さらに、ディスプレイ3は、人U1の顔の画像に虹彩検出装置1が算出した後述の虹彩情報を重畳表示させる。
図2は、本開示の実施の形態1における虹彩検出システム100の全体構成の一例を示すブロック図である。虹彩検出装置1は、プロセッサ10及びメモリ20を含む。プロセッサ10は、例えばCPU(Central Processing Unit)で構成されている。プロセッサ10は、画像取得部11、目領域検出部12、二値化処理部13、置換部14、虹彩情報算出部15、及び出力部16を含む。画像取得部11~出力部16は例えばプロセッサ10が虹彩検出プログラムを実行することで実現される。
画像取得部11は、撮像装置2が撮像した画像を取得する。ここで、取得される画像には、人U1の顔が含まれる。以下、顔が含まれる画像を顔画像と呼ぶ。画像取得部11は、所定のフレームレートで撮像される顔画像を順次に取得する。顔画像は人の顔を含む第1画像の一例である。
目領域検出部12は、画像取得部11が取得した顔画像から人物の顔を示す顔領域を検出する。目領域検出部12は、顔領域を検出するために予め作成された分類器に顔画像を入力することで顔領域を検出すればよい。この分類器は、例えば、ハール(Haar)状のカスケード分類器で構成される。顔領域は、例えば顔の全体を含む程度のサイズを持つ矩形状の領域である。
目領域検出部12は、顔領域から目検出領域を検出するために予め作成された分類器に入力して目検出領域を検出する。この分類器は、例えばハール状のカスケード分類器で構成される。目検出領域は、左目又は右目の大きさに所定のマージンを加えた程度のサイズを持つ矩形状の領域である。目領域検出部12は、左目を含む目検出領域と、右目を含む目検出領域とのそれぞれ顔領域から検出する。目検出領域は人の目の領域を含む第2画像の一例である。以下、左目を含む目検出領域を「左の目検出領域」と呼び、右目を含む目検出領域を「右の目検出領域」と呼ぶ。両者を区別しない場合、単に目検出領域と呼ぶ。また、左目とは人U1を正面から見て左側に位置する目を指し、右目とは人U1を正面から見て右側に位置する目を指す。但し、これは一例であり、この関係は逆であってもよい。
二値化処理部13は、目検出領域を二値化して、階調値が閾値より小さい画素が第1輝度値で表され、階調値が閾値以上の画素が第2輝度値で表された二値画像を生成する。二値画像は第3画像の一例である。目検出領域がカラー画像で構成されている場合、二値化処理部13は、目検出領域を例えば0~255の階調値を有するグレースケール画像に変換し、変換したグレースケール画像に対して二値化処理を実行すればよい。二値化処理としては、例えば大津の二値化処理が採用できる。第1輝度値は例えば白であり、第2輝度値は例えば黒である。すなわち、本実施の形態では、暗い箇所は白で表され、明るい箇所は黒で表された二値画像が生成される。白の輝度値は例えば255で表され、黒の輝度値は例えば0で表される。
ここでは、撮像装置2が撮像する画像が8ビットで量子化された画像であるため、グレースケール画像は0~255の階調値を有しているが、これは一例である。撮像装置2が撮像する画像が16ビット等の他のビット数で量子化された画像であれば、グレースケール画像は、そのビット数で表現可能な階調値を有していればよい。
二値化処理部13は、左の目検出領域と右の目検出領域とのそれぞれについて二値画像を生成すればよい。
置換部14は、二値画像において、白の画素からなる白領域(第1輝度領域)内に表れる黒の画素であって所定の条件を満たす黒の画素を、白画素に置き換える塗りつぶし処理を実行する。置換部14は、左の目検出領域と右の目検出領域のそれぞれに対して塗りつぶし処理を実行する。これにより、白領域内の瞳に相当する領域(以下、瞳領域)内に現れる黒の島領域が白画素で塗りつぶされた二値画像が生成される。塗りつぶし処理が行われた二値画像は、第4画像の一例である。
詳細には、置換部14は、二値画像を構成する複数の縦ラインのそれぞれについて、二値画像の上端側から最初に現れる白画素である上端画素と、二値画像の下端側から最初に現れる白画素である下端画素とをそれぞれ検出する。そして、置換部14は、上端画素及び下端素間の距離が第1基準距離よりも大きい場合、上端画素及び下端画素間に含まれる黒画素を所定の条件を満たす黒画素として判定する。
また、置換部14は、二値画像を横方向に所定画素ずつ分割して複数の局所領域に分け、各局所領域の平均輝度値を算出し、平均輝度値が最大の局所領域の中心位置を虹彩推定中心位置として算出し、前記虹彩推定中心位置から第2基準距離以内にある前記縦ライン内の黒画素に対してのみ所定の条件を満たすか否を判定する。
虹彩情報算出部15は、塗りつぶし処理が行われた二値画像を用いて人の虹彩の位置及び大きさの少なくとも一方に関する情報を含む虹彩情報を算出する。虹彩の位置に関する情報には、虹彩中心位置が含まれる。虹彩の大きさに関する情報には、虹彩半径及び虹彩の外縁等が含まれる。
図6を参照する。本実施の形態では、目は、白目103と白目103に取り囲まれた正面から見て円形の瞳110とを含む。瞳110は、正面から見て円形の瞳孔101と、瞳孔101を取り囲むドーナツ状の虹彩102とを含む。本実施の形態では、虹彩102の中心位置と瞳110の中心位置と瞳孔101の中心位置とは同じとする。虹彩102の半径は虹彩102の中心位置から虹彩102の外縁までの距離を指す。
出力部16は、画像取得部11が取得した顔画像に虹彩情報算出部15が算出した虹彩情報を重畳して表示画面を生成し、表示画面をディスプレイ3に表示する。
メモリ20は、例えばRAM(Random Access Memory)により構成されプロセッサ10の作業領域として使用される。
次に、図2に示す虹彩検出装置1の処理について説明する。図3は、本開示の実施の形態1における虹彩検出装置1の処理の一例を示すフローチャートである。なお、図3に示すフローチャートは、所定のサンプリング周期で実行される。所定のサンプリング周期は例えば撮像装置2のフレーム周期である。
ステップS1において、画像取得部11は撮像装置2から顔画像を取得する。ステップS2において、目領域検出部12は、顔領域を検出する分類器に顔画像を入力し、顔領域を検出する。図5は顔領域40を示す図である。図5に示すように、目領域検出部12は、額の上部と顎の下部と、耳の生え際とを含む矩形状の領域を顔領域40として検出している。ここでは、顔領域40は髪の全体を含んでいないが、髪の全体を含む領域であってもよい。図5では、顔画像は人U1を正面から撮影した画像であるため、左目と右目とが含まれている。
ステップS3において、目領域検出部12は、ステップS2で抽出した顔領域40を、目検出領域を検出する分類器に入力して目検出領域を検出する。図6は、目検出領域50を示す図である。図6に示すように、目検出領域50は、目の全域を含み、目の大きさに多少のマージンが加えられた矩形状の領域であることが分かる。図6では、左右のそれぞれの目検出領域50が抽出されている。
ステップS4において、二値化処理部13は、ステップS3で検出された目検出領域50をグレースケール画像に変換する。グレースケール画像への変換処理としては、例えば目検出領域50を構成する各画素の赤成分、緑成分、青成分のそれぞれの階調値の平均を算出する処理が採用できる。但し、これは一例であり、グレースケール画像への変換処理としては他の処理が採用されてもよい。
ステップS5において、二値化処理部13は、グレースケール画像に変換された目検出領域50を二値化して二値画像60を生成する。図7は、二値画像60の一例を示す図である。図7の例では、目検出領域50において瞳及びまつ毛等の暗い部位が白で表され、白目及び肌等の明るい部位が黒で表された二値画像60が生成されている。図7の例では、白の画素で構成された一塊の白領域D1によって目の情報が表されている。図7の例では、角膜への外光及び背景等の映り込みが少なかったため、白領域D1に黒の島領域が現れていない。角膜への映り込みがある場合、図12に示すように黒の島領域D2が現れる。
ステップS6において、二値化処理部13は、二値画像60に対して、白領域D1の周囲の不要な黒の領域を除去する絞り込み処理を適用することによって二値画像70を生成する。図8は、絞り込み処理が行われた二値画像70の一例を示す図である。図8の例では、二値画像60において白領域D1に外接矩形が設定され、この外接矩形の外側の黒の領域が除去されることにより二値画像70が生成されている。これにより、二重まぶた、目の下のクマ、目の周囲にあるほくろ、及び目の周囲にあるめがねが除去され、以降の処理の精度を高めることができる。
図9は、二値画像70の他の一例を示す図である。図9の例では、白領域D1が瞳を示す白領域D11と、まつ毛を示す白領域D12とに分離されている。図9の例のように瞳を示す白領域D11ができている場合、白領域D11の上下左右の中点を虹彩中心位置として決定することも可能である。
しかしながら、人U1の、まつ毛の濃さ、まつ毛周辺の化粧の程度、並びにつけまつ毛及びまつ毛エクステンション等の装飾具の影響により、図8に示すようにまつ毛と瞳とが一塊の白領域D1として現れることもある。この場合、単純に白領域D1の上下左右の中点を虹彩中心位置として決定してしまうと、決定された虹彩中心位置が実際の虹彩中心位置から大きくずれてしまい、虹彩中心位置の検出精度が低下してしまう。そこで、本実施の形態では、以降に示す虹彩検出処理を実行して虹彩中心位置の検出精度を高めている。
ステップS7において、置換部14及び虹彩情報算出部15は二値画像70に対して虹彩検出処理を適用することによって、虹彩情報を算出する。虹彩情報検出処理の詳細は、図4のフローチャートで後述する。
ステップS8において、出力部16は、ステップS7で算出された虹彩情報がステップS1で取得された顔画像に重畳された表示画面を生成し、ディスプレイ3に表示する。図3のフローチャートが所定のサンプリング周期で繰り返されることにより、虹彩情報が顔画像に重畳された表示画面がディスプレイ3にリアルタイムで表示される。
次に、虹彩検出処理の詳細について説明する。図4は、虹彩検出処理の一例を示すフローチャートである。ステップS40において、置換部14は、二値画像70をX方向に所定画素ずつ分離して複数の局所領域に分割する。図10は、局所領域71を示す図である。X方向とは撮像装置2が撮像する画像の横方向(水平方向)を指す。図10の例では、置換部14は、二値画像70を横方向に均等に10分割する。これにより、二値画像70は、Y方向を長手方向とする短冊状の10個の局所領域71に分けられる。ここで、置換部14は、二値画像70を10個の局所領域71に分割したが、これは一例である。分割数は、2以上9以下の整数又は11以上の整数であってもよい。Y方向とは、撮像装置2が撮像する画像の縦方向(垂直方向)を指す。
ステップS41において、置換部14は、10個の局所領域71のそれぞれの平均輝度値を算出する。ここでは、白の輝度値が255であり、黒の輝度値が0であるため、平均輝度値は例えば下記の式で算出される。
平均輝度値=局所領域71の白の画素数×255/局所領域71の画素数
ステップS42において、置換部14は、虹彩推定中心位置のX座標を算出する。図11は、虹彩推定中心位置P3の説明図である。虹彩推定中心位置P3は、虹彩中心位置の推定位置であり、最終的に算出される虹彩中心位置とは異なる。二重まぶた、まつ毛の濃さ、及びつけまつ毛等の影響によりこれらの部位が白領域D1として大きく表れることがある。この場合、白目103の部位が塗りつぶされる可能性がある。このような事態を回避するために、本実施の形態では虹彩推定中心位置P3を算出している。
図11の例では、左から5番目の局所領域71aの平均輝度値が最大である。そのため、置換部14は、局所領域71aのX方向の中点の座標を虹彩推定中心位置P3のX座標として算出する。なお、局所領域71のX方向の幅によっては、局所領域71のX方向の中点が虹彩推定中心位置P3のX座標として妥当でない場合もある。この場合、局所領域71のX方向の左端又は右端が虹彩推定中心位置P3のX座標として算出されてもよい。
ステップS43において、置換部14は、虹彩推定中心位置P3のY座標を算出する。図11を参照し、置換部14は、局所領域71aにおいて、白画素の最上端点P1と、白画素の最下端点P2とを検出し、最上端点P1と最下端点P2との中点を虹彩推定中心位置P3のY座標として算出する。なお、まつ毛及び化粧の影響で最上端点P1及び最下端点P2が左に隣接する局所領域71b又は右に隣接する局所領域71cに現れることもある。そこで、置換部14は、局所領域71a~71cのそれぞれの領域において最上端点及び最下端点を算出し、算出した3個の最上端点を平均して平均最上端点を求めるとともに算出した3個の最下端点を平均して平均最下端点を算出し、平均最上端点と平均最下端点との中点を虹彩推定中心位置P3のY座標として算出してもよい。
ステップS44において、置換部14は、二値画像70に対して塗りつぶし処理を実行する。可視光画像においては、周囲の明るさ等により、角膜に外光及び背景等が映り込むことがある。この映り込みが大きい場合、黒色又は茶色である瞳内に白などの明るい色の領域が現れる。この場合、目の画像を二値化すると、瞳領域内に黒の島領域が現れ、虹彩情報を高精度に検出できなくなる。そこで、本実施の形態では、塗りつぶし処理を実行する。
図12は、瞳領域内に黒の島領域D2が現れた二値画像70を示す図である。図12において左図は左目の二値画像70を示し、右図は右目の二値画像70を示している。図12に示すように、左右の二値画像70の両方において、中央に現れる瞳に相当する白領域D1内に黒の島領域D2が点在して現れていることが分かる。この黒の島領域D2を塗りつぶすのが塗りつぶし処理である。
塗りつぶし処理の詳細は下記の通りである。まず、置換部14は、二値画像70に対して虹彩推定中心位置P3のX座標にY方向と平行な縦ラインL1を設定する。次に、置換部14は、縦ラインL1において二値画像70の上端側から最初に現れる白画素を上端画素P4として検出する。次に、置換部14は、縦ラインL1において二値画像70の下端側から最初に現れる白画素を下端画素P5として検出する。次に、置換部14は、上端画素P4と下端画素P5間の距離が第1基準距離よりも大きいか否かを判定する。次に、置換部14は、上端画素P4及び下端画素P5間の距離が第1基準距離よりも大きいと判定した場合、縦ラインL1において上端画素P4及び下端画素P5間にある黒画素を所定の条件を満たす黒画素として判定し、この黒画素を白画素に置換する。一方、置換部14は、上端画素P4と下端画素P5間の距離が第1基準距離以下と判定した場合、縦ラインL1に対する前記置換は行わない。第1基準距離としては、例えば、想定される虹彩直径を基準に妥当な距離が採用される。
置換部14は、このような塗りつぶし処理を虹彩推定中心位置P3からX方向の左側に向けて左基準距離の範囲内の各縦ラインL1について実行すると共に虹彩推定中心位置P3からX方向の右側に向けて右基準距離の範囲内の各縦ラインL1について実行する。左基準距離範囲と右基準距離範囲との和は第2基準距離の一例である。左基準距離範囲と右基準距離範囲とは例えば同じ範囲である。第2基準距離としては、例えば、想定される虹彩直径よりも多少大きな距離が採用される。これにより、瞳領域に位置する縦ラインL1に対して重点的に塗りつぶし処理を適用することができる。
図13は、塗りつぶし処理後の二値画像80を示す図である。図13の左図は図12の左図の二値画像70に対して塗りつぶし処理が適用された二値画像80を示し、図13の右図は図12の右図の二値画像70に対して塗りつぶし処理が適用された二値画像80を示している。図13に示すように、図12に存在していた黒の島領域D2が白画素で塗りつぶされ、一塊の白画素からなる白領域D3が生成されていることが分かる。一方、まつ毛の部位にあった黒の島領域は塗りつぶし処理が行われていないことが分かる。すなわち、瞳領域に位置する縦ラインL1が重点的に塗りつぶされていることが分かる。
ステップS45において、虹彩情報算出部15は、瞳領域の左端画素及び右端画素をそれぞれ検出する。図14は、瞳領域の左端画素P6(第1画素)及び右端画素P7(第2画素)が検出された二値画像80を示す図である。置換部14は、二値画像80の白領域D3において、虹彩推定中心位置P3を起点として、X方向を左右に1画素ずつ輝度値の変化を調べる。そして、置換部14は、X方向の左側に最初に現れる黒画素を左端画素P6として検出すると共に、X方向の右側に最初に現れる黒画素を右端画素P7として検出する。
ステップS46において、虹彩情報算出部15は、左端画素P6及び右端画素P7の中間位置を虹彩中心位置P0のX座標として算出する。
ステップS47において、虹彩情報算出部15は、瞳領域の上端画素及び下端画素をそれぞれ検出する。図15は、瞳領域の上端画素P8(第3画素)及び下端画素P9(第4画素)が検出された二値画像80を示す図である。虹彩情報算出部15は、二値画像80の白領域D3において、虹彩中心位置P0のX座標を起点として、Y方向を上下に1画素ずつ輝度値の変化を調べる。そして、置換部14は、Y方向の上側に最初に現れる黒画素を上端画素P8として検出すると共に、Y方向の下側に最初に現れる黒画素を下端画素P9として検出する。
ステップS48において、虹彩情報算出部15は、上端画素P8及び下端画素P9の中間位置を虹彩中心位置P0のY座標として算出する。以上により虹彩中心位置P0が算出される。
ステップS49において、虹彩情報算出部15は、虹彩半径を算出する。ここで、虹彩情報算出部15は、虹彩中心位置P0及び左端画素P6間の距離、虹彩中心位置P0及び右端画素P7間の距離、又は両距離の平均値を虹彩半径として算出すればよい。或いは、虹彩情報算出部15は、虹彩中心位置P0及び上端画素P8間の距離、虹彩中心位置P0及び下端画素P9間の距離、又は両距離の平均値を虹彩半径として算出してもよい。或いは、虹彩情報算出部15は、これらの4つの距離の平均値を虹彩半径として算出してもよい。ステップS49が終了すると処理は図3のステップS8に進む。さらに、虹彩情報算出部15は、虹彩中心位置P0を中心とし、虹彩半径を半径とする円を虹彩外縁として算出してもよい。
このように、実施の形態1における虹彩検出装置1によれば、白領域D1内に表れる黒画素であって所定の条件を満たす黒画素が白画素に置き換えられた二値画像80が生成され、二値画像80から虹彩情報が算出されている。これにより、白領域内の瞳に相当する白領域D1内に現れる黒の島領域D2が白画素で塗りつぶされることになる。その結果、角膜に映り込んだ外光及び背景の影響が抑制され、虹彩情報の検出精度のさらなる向上を図ることができる。
(実施の形態2)
図16は、本開示の実施の形態2における虹彩検出システム100Aの全体構成の一例を示すブロック図である。実施の形態2における虹彩検出装置1Aは、まぶた、目尻、及び目頭を検出するものである。なお、実施の形態2において、実施の形態1と同一の構成要素には同一の符号を付して説明を省略する。
虹彩検出装置1Aのプロセッサ10Aは、実施の形態1の虹彩検出装置1のプロセッサ10に対して、さらにまぶた検出部17及び目尻目頭検出部18を含んでいる。
まぶた検出部17は、二値化処理部13により生成された二値画像70から人U1の上まぶた及び下まぶたの位置を検出する。まぶた検出部17は二値画像70に対してモルフォロジー勾配演算を適用することで、上まぶた及び下まぶたの位置を検出すればよい。まぶた検出部17は、左の二値画像70及び右の二値画像70のそれぞれについて、上まぶた及び下まぶたの位置を検出する。
目尻目頭検出部18は、二値化処理部13により生成された二値画像70から目尻及び目頭の位置を検出する。ここで、目尻目頭検出部18は、左の二値画像70及び右の二値画像70のそれぞれについて、目尻及び目頭の位置を検出する。
続いて、実施の形態2における虹彩検出装置1Aの処理について説明する。図17は、本開示の実施の形態2における虹彩検出装置1Aの処理の一例を示すフローチャートである。なお、図17のフローチャートにおいて図3と同じ処理には同じ処理番号が付されている。また、図17では図3のステップS8は省かれている。
ステップS7に続くステップS9において、まぶた検出部17はモルフォロジー勾配演算により上まぶた及び下まぶたの位置を検出する。図18は、モルフォロジー勾配演算が実行される前の二値画像70を示す図である。
まず、まぶた検出部17は、二値画像70に対して膨張処理を適用する。膨張処理は、注目画素の近傍に少なくとも1つの白画素があれば、注目画素を白画素に置き換える処理である。次に、まぶた検出部17は、二値画像70に対して収縮処理を適用する。収縮処理は、注目画素の近傍に少なくとも1つの黒画素があれば、注目画素を黒画素に置き換える処理である。図19は、二値画像70に対して膨張処理及び収縮処理が実行された膨張画像81及び収縮画像82を示す図である。
膨張処理が行われることにより、膨張画像81に含まれる白領域D1は二値画像70に含まれる白領域D1よりも膨張している。収縮処理が行われることにより、収縮画像82に含まれる白領域D1は二値画像70に含まれる白領域D1よりも収縮されている。
次に、まぶた検出部17は、膨張画像81から収縮画像82を減じることで勾配画像を算出する。図20は、勾配画像83を示す図である。勾配画像83には、二値画像70の白領域D1のエッジE1が含まれている。
次に、まぶた検出部17は、エッジE1の最上端位置を上まぶたの位置P10として検出する。なお、まぶた検出部17は、虹彩中心位置P0を通る縦ラインと上側のエッジE1との交点を上まぶたの位置P10として検出してもよい。また、まぶた検出部17は、虹彩中心位置P0を通る縦ラインと下側のエッジE1との交点を下まぶたの位置P11として検出する。これにより、輝度変化が薄く二値画像70において明確に表れ難い下まぶたの位置を検出することができる。なお、まぶた検出部17は、勾配画像83の左端と右端とをつなぐ上側のエッジE1の部分を上まぶたラインとして検出してもよい。
ステップS10において、目尻目頭検出部18は、目尻及び目頭の位置を検出する。図21は、目尻及び目頭が検出された二値画像70を示す図である。二値画像70の枠は白領域D1の外接矩形であるため、二値画像70において、白領域D1の左端のX座標は二値画像70の左端のX座標(X11)であり、白領域D1の右端のX座標は二値画像70の右端のX座標(X12)であり、両X座標は二値画像70を生成する際に算出済みである。そこで、目尻目頭検出部18は、算出済みの両X座標を利用して目尻の位置12及び目頭の位置P13を算出する。なお、図21は、左の二値画像70であるため、白領域D1の左端が目尻の位置P12となり、白領域D1の右端が目頭の位置P13となる。
詳細には、目尻目頭検出部18は、X座標(X11)において二値画像70の下端から1画素ずつ上端に向けて白画素を探索していく。そして、目尻目頭検出部18は、最初に検出した白画素のY座標を目尻の位置P12のY座標として決定する。同様に、目尻目頭検出部18は、X座標(X12)において二値画像70の下端から1画素ずつ上端に向けて白画素を探索していく。そして、目尻目頭検出部18は、最初に検出した白画素のY座標を目頭の位置P13のY座標として決定する。以上により、目尻の位置P12及び目頭の位置P13が検出される。
ステップS11において、出力部16は、虹彩情報をステップS1で算出された顔画像に重畳すると共に、目尻の位置P12及び目頭の位置P13を顔画像に重畳することにより、表示画面を生成し、ディスプレイ3に表示する。図22は、ディスプレイ3に表示される表示画面G1の一例を示す図である。表示画面G1において、虹彩中心位置P0が瞳の中心に重畳表示されている。さらに、上まぶたの位置P10と、下まぶたの位置P11と、目尻の位置P12と、目頭の位置P13とが人U1の顔画像に重畳表示されている。さらに、虹彩外縁を示す円L4が顔画像に重畳表示されている。この円L4は、虹彩情報に含まれる虹彩半径を用いて算出される。さらに、上まぶたの位置P10と、目尻の位置P12と、目頭の位置P13と、下まぶたの位置P11とを通る矩形L3が顔画像に重畳表示されている。
これにより、表示画面G1は、虹彩情報をはじめとする人U1の目に関する情報を撮像装置2が撮像した顔画像に対してリアルタイムで表示することができる。
本開示は以下の変形例が採用できる。
(1)実施の形態1、2では、二値画像60、70、80において、第1輝度値が白、第2輝度値が黒であったが、本開示はこれに限定されず、第1輝度値が黒、第2輝度値が白であってもよい。
(2)虹彩情報算出部15は、さらに以下に示す目に関する情報を算出してもよい。図23は、目に関する情報を説明するための図である。目に関する情報としては、距離a、距離b、距離c、距離d、及び距離eが含まれる。
距離aは上まぶたの位置P10と虹彩中心位置P0との距離である。距離aは上まぶたの位置P10のY座標-虹彩中心位置P0のY座標により算出される。
距離bは下まぶたの位置P11と虹彩中心位置P0との距離である。距離bは虹彩中心位置P0のY座標-下まぶたの位置P11のY座標により算出される。
距離cは目尻の位置P12と虹彩中心位置P0との距離である。左目の場合、距離cは虹彩中心位置P0のX座標-目尻の位置P12のX座標により算出される。
距離dは目頭の位置P13と虹彩中心位置P0との距離である。左目の場合、距離dは目頭の位置P13のX座標-虹彩中心位置P0のX座標により算出される。
距離eは、上下まぶた間距離である。距離eは、上まぶたの位置P10のY座標-下まぶたの位置P11のY座標により算出される。
これにより、人U1の感情及び人の状態を推定することが可能となる。
(3)虹彩情報算出部15は、さらに、人U1の両目に関する情報を算出してもよい。両目に関する情報としては、外眼角間距離、内眼角間距離、及び瞳孔間距離が含まれる。外眼角間距離は、左右の目尻間の距離である。外眼角間距離は、右目の目尻の位置P13のX座標-左目の目尻の位置P13のX座標により算出される。
内眼角間距離は、左右の目頭間の距離である。内眼角間距離は、右目の目頭の位置P12のX座標-左目の目頭の位置P12のX座標により算出される。
瞳孔間距離は、左右の虹彩中心位置P0間の距離である。外眼角間距離は、右目の虹彩中心位置P0のX座標-左目の虹彩中心位置P0のX座標により算出される。
さらに、虹彩情報算出部15は、内眼角間距離/瞳孔間距離及び外眼角間距離/内眼角間距離を人U1の目に関する情報として算出してもよい。
(4)外光の映り込みによる瞳領域の輝度の向上等に起因して、本来、虹彩直径と推定されるサイズよりも大きい又は小さい虹彩直径が検出されることがある。この場合、虹彩情報を正確に検出できない。そこで、虹彩情報算出部15は、虹彩直径と目尻目頭間距離とを算出して虹彩直径の目尻目頭間距離に対する比率を算出し、この比率が予め定められた基準比率範囲内にない場合、瞳領域の検出に失敗したと判定してもよい。この場合、虹彩情報算出部15は、虹彩情報を出力部16に出力せず、エラー信号を出力部16に出力してもよい。
本開示によれば、虹彩情報を正確に算出できるため、虹彩検出の技術分野において有用である。
1 :虹彩検出装置
2 :撮像装置
3 :ディスプレイ
10 :プロセッサ
11 :画像取得部
12 :目領域検出部
13 :二値化処理部
14 :置換部
15 :虹彩情報算出部
16 :出力部
17 :検出部
18 :目尻目頭検出部
20 :メモリ
100 :虹彩検出システム

Claims (14)

  1. 撮像装置により撮像された人の虹彩を検出する虹彩検出装置における虹彩検出方法であって、
    前記虹彩検出装置のコンピュータが、
    前記人の顔を含む第1画像を取得し、
    前記第1画像から前記人の目の領域を含む第2画像を生成し、
    前記第2画像を二値化して、階調値が閾値より小さい画素が第1輝度値で表され、階調値が閾値以上の画素が第2輝度値で表された第3画像を生成し、
    前記第3画像において、前記第1輝度値を有する第1輝度領域内に表れる前記第2輝度値の画素であって所定の条件を満たす前記第2輝度値の画素を、前記第1輝度値の画素に置き換えて第4画像を生成し、
    前記第4画像を用いて前記人の虹彩の位置及び大きさの少なくとも一方に関する情報を含む虹彩情報を算出し、
    前記虹彩情報を出力する、
    虹彩検出方法。
  2. 前記第4画像の生成では、前記第3画像を構成する複数の縦ラインのそれぞれについて、前記第3画像の上端側から最初に現れる前記第1輝度値の画素である上端画素と、前記第3画像の下端側から最初に現れる前記第1輝度値の画素である下端画素とをそれぞれ検出し、前記上端画素及び下端画素間の距離が第1基準距離よりも大きい場合、前記上端画素及び前記下端画素間に含まれる前記第2輝度値の画素を前記所定の条件を満たす前記第2輝度値の画素として判定する、
    請求項1記載の虹彩検出方法。
  3. 前記第1輝度値は前記第2輝度値よりも大きく、
    前記第4画像の生成では、前記第3画像を横方向に所定画素ずつ分割して複数の局所領域に分け、各局所領域の平均輝度値を算出し、前記平均輝度値が最大の局所領域の中心位置を虹彩推定中心位置として算出し、前記虹彩推定中心位置から第2基準距離以内にある前記縦ライン内の前記第2輝度値の画素に対してのみ前記所定の条件を満たすか否かを判定する、
    請求項2記載の虹彩検出方法。
  4. 前記虹彩情報の算出では、前記第4画像に対して、前記虹彩推定中心位置から前記横方向の左側に最初に現れる前記第2輝度値を有する第1画素と、前記虹彩推定中心位置から前記横方向の右側に最初に現れる前記第2輝度値を有する第2画素とをそれぞれ検出し、前記第1画素及び前記第2画素の中間位置を前記横方向の虹彩中心位置として算出する、
    請求項3記載の虹彩検出方法。
  5. 前記虹彩情報の算出では、前記第4画像に対して、前記虹彩推定中心位置から縦方向の上側に最初に現れる前記第2輝度値の画素である第3画素と、前記虹彩推定中心位置から前記縦方向の下側に最初に現れる前記第2輝度値の画素である第4画素とをそれぞれ検出し、前記第3画素及び前記第4画素の中間位置を前記縦方向の虹彩中心位置として算出する、
    請求項3又は4記載の虹彩検出方法。
  6. さらに、前記第3画像に基づいて上下のまぶたの位置をそれぞれ検出する、
    請求項1~5のいずれかに記載の虹彩検出方法。
  7. 前記まぶたの位置の検出では、前記第3画像に対してモルフォロジー勾配演算を行うことによって前記まぶたの位置を検出する、
    請求項6記載の虹彩検出方法。
  8. 前記第3画像は、前記人の左目及び右目のいずれか一方の二値画像であり、
    さらに、前記第3画像に基づいて目尻及び目頭の位置をそれぞれ検出する、
    請求項1~7のいずれかに記載の虹彩検出方法。
  9. 前記目尻及び前記目頭の位置の検出では、前記第3画像において、前記第1輝度値を有する横方向の左端の画素の位置を前記目尻及び前記目頭のいずれか一方の位置として検出し、前記第1輝度値を有する前記横方向の右端の画素の位置を前記目尻及び前記目頭のいずれか他方の位置として検出する、
    請求項8記載の虹彩検出方法。
  10. さらに、前記目尻及び前記目頭の位置に基づいて前記人の両目に関する情報を算出する、
    請求項8又は9記載の虹彩検出方法。
  11. さらに、前記第3画像から上下のまぶたの位置と目尻及び目頭の位置とを検出し、検出結果に基づいて、虹彩中心位置及び上まぶたの位置間の距離と、前記虹彩中心位置及び下まぶたの位置間の距離と、前記虹彩中心位置及び前記目尻の位置間の距離と、前記虹彩中心位置及び前記目頭の位置間の距離とを算出する、
    請求項1~10のいずれかに記載の虹彩検出方法。
  12. さらに、前記虹彩情報をディスプレイに表示される前記人の顔画像に重畳して表示する、
    請求項1~11のいずれかに記載の虹彩検出方法。
  13. 撮像装置により撮像された人の虹彩を検出する虹彩検出装置であって、
    前記人の顔を含む第1画像を取得する画像取得部と、
    前記第1画像から前記人の目の領域を含む第2画像を検出する目領域検出部と、
    前記第2画像を二値化して、輝度が閾値より小さい画素が第1輝度値で表され、輝度が閾値以上の画素が第2輝度値で表された第3画像を生成する二値化処理部と、
    前記第3画像において、前記第1輝度値を有する第1輝度領域内に表れる前記第2輝度値の画素であって所定の条件を満たす前記第2輝度値の画素を、前記第1輝度値の画素に置き換えて第4画像を生成する置換部と、
    前記第4画像を用いて前記人の虹彩の位置及び大きさの少なくとも一方に関する情報を含む虹彩情報を算出する虹彩情報算出部と、
    前記虹彩情報を出力する出力部とを備える、
    虹彩検出装置。
  14. 撮像装置により撮像された人の虹彩を検出する虹彩検出装置としてコンピュータを機能させる虹彩検出プログラムであって、
    前記人の顔を含む第1画像を取得する画像取得部と、
    前記第1画像から前記人の目の領域を含む第2画像を検出する目領域検出部と、
    前記第2画像を二値化して、輝度が閾値より小さい画素が第1輝度値で表され、輝度が閾値以上の画素が第2輝度値で表された第3画像を生成する二値化処理部と、
    前記第3画像において、前記第1輝度値を有する第1輝度領域内に表れる前記第2輝度値の画素であって所定の条件を満たす前記第2輝度値の画素を、前記第1輝度値の画素に置き換えて第4画像を生成する置換部と、
    前記第4画像を用いて前記人の虹彩の位置及び大きさの少なくとも一方に関する情報を含む虹彩情報を算出する虹彩情報算出部と、
    前記虹彩情報を出力する出力部としてコンピュータを機能させる、
    虹彩検出プログラム。
JP2020212618A 2020-12-22 2020-12-22 虹彩検出方法、虹彩検出装置、及び虹彩検出プログラム Active JP6994704B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020212618A JP6994704B1 (ja) 2020-12-22 2020-12-22 虹彩検出方法、虹彩検出装置、及び虹彩検出プログラム
CN202180007422.XA CN115039149A (zh) 2020-12-22 2021-06-09 虹膜检测方法、虹膜检测装置以及虹膜检测程序
PCT/JP2021/021994 WO2022137605A1 (ja) 2020-12-22 2021-06-09 虹彩検出方法、虹彩検出装置、及び虹彩検出プログラム
US17/841,905 US20220309833A1 (en) 2020-12-22 2022-06-16 Iris detection method, iris detection apparatus, and non-transitory computer-readable recording medium recording iris detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020212618A JP6994704B1 (ja) 2020-12-22 2020-12-22 虹彩検出方法、虹彩検出装置、及び虹彩検出プログラム

Publications (2)

Publication Number Publication Date
JP6994704B1 JP6994704B1 (ja) 2022-01-14
JP2022098933A true JP2022098933A (ja) 2022-07-04

Family

ID=80447985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020212618A Active JP6994704B1 (ja) 2020-12-22 2020-12-22 虹彩検出方法、虹彩検出装置、及び虹彩検出プログラム

Country Status (4)

Country Link
US (1) US20220309833A1 (ja)
JP (1) JP6994704B1 (ja)
CN (1) CN115039149A (ja)
WO (1) WO2022137605A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018467A (ja) * 2004-06-30 2006-01-19 Canon Inc 画像処理装置及び方法
JP2008210239A (ja) * 2007-02-27 2008-09-11 Nissan Motor Co Ltd 視線推定装置
JP2014182673A (ja) * 2013-03-21 2014-09-29 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2018088236A (ja) * 2016-11-21 2018-06-07 矢崎総業株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2020090897A1 (ja) * 2018-11-01 2020-05-07 日本電気株式会社 位置検出装置、位置検出システム、遠隔制御装置、遠隔制御システム、位置検出方法、及びプログラム
JP2020140637A (ja) * 2019-03-01 2020-09-03 国立大学法人静岡大学 瞳孔検出装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018467A (ja) * 2004-06-30 2006-01-19 Canon Inc 画像処理装置及び方法
JP2008210239A (ja) * 2007-02-27 2008-09-11 Nissan Motor Co Ltd 視線推定装置
JP2014182673A (ja) * 2013-03-21 2014-09-29 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2018088236A (ja) * 2016-11-21 2018-06-07 矢崎総業株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2020090897A1 (ja) * 2018-11-01 2020-05-07 日本電気株式会社 位置検出装置、位置検出システム、遠隔制御装置、遠隔制御システム、位置検出方法、及びプログラム
JP2020140637A (ja) * 2019-03-01 2020-09-03 国立大学法人静岡大学 瞳孔検出装置

Also Published As

Publication number Publication date
US20220309833A1 (en) 2022-09-29
JP6994704B1 (ja) 2022-01-14
WO2022137605A1 (ja) 2022-06-30
CN115039149A (zh) 2022-09-09

Similar Documents

Publication Publication Date Title
JP4307496B2 (ja) 顔部位検出装置及びプログラム
WO2018176938A1 (zh) 红外光斑中心点提取方法、装置和电子设备
JP3143819B2 (ja) まぶたの開度検出装置
KR20200004841A (ko) 셀피를 촬영하도록 사용자를 안내하기 위한 시스템 및 방법
JPH11250267A (ja) 目の位置検出方法、目の位置検出装置および目の位置検出プログラムを記録した記録媒体
US8285002B2 (en) Image processing apparatus and method, image sensing apparatus, and program
TWI694809B (zh) 檢測眼球運動的方法、其程式、該程式的記憶媒體以及檢測眼球運動的裝置
CN110930446B (zh) 一种眼底图像定量分析的前置处理方法及存储设备
JP6956986B1 (ja) 判定方法、判定装置、及び判定プログラム
US11877800B2 (en) Method and system for detecting blepharoptosis
JP6784261B2 (ja) 情報処理装置、画像処理システム、画像処理方法及びプログラム
JP6994704B1 (ja) 虹彩検出方法、虹彩検出装置、及び虹彩検出プログラム
JP6717477B1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP6977975B1 (ja) 目開閉検出方法、目開閉検出装置及び目開閉検出プログラム
JP6958828B1 (ja) 視距離推定方法、視距離推定装置、及び視距離推定プログラム
KR102380560B1 (ko) 영상 처리를 기반으로 하는 각막궤양 검출 장치 및 그 방법
US20220292881A1 (en) Eye detecting method, eye detecting device, and non-transitory computer-readable recording medium recording eye detecting program
CN113408531B (zh) 一种基于图像识别的目标物形状框选方法及终端
JP6757949B1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP4848302B2 (ja) 目検出装置、目検出方法およびプログラム
JP2016168134A (ja) 眼底画像処理装置
TWI466038B (zh) Eyelid length measurement method and device thereof
JP2016112268A (ja) 眼科装置、視細胞検出方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210924

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211202

R150 Certificate of patent or registration of utility model

Ref document number: 6994704

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150