JP2017202038A - 判別装置、判別方法、および判別プログラム - Google Patents

判別装置、判別方法、および判別プログラム Download PDF

Info

Publication number
JP2017202038A
JP2017202038A JP2016094244A JP2016094244A JP2017202038A JP 2017202038 A JP2017202038 A JP 2017202038A JP 2016094244 A JP2016094244 A JP 2016094244A JP 2016094244 A JP2016094244 A JP 2016094244A JP 2017202038 A JP2017202038 A JP 2017202038A
Authority
JP
Japan
Prior art keywords
candidate
edge
eye
image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016094244A
Other languages
English (en)
Inventor
珊珊 于
Shanshan Yu
珊珊 于
大祐 石井
Daisuke Ishii
大祐 石井
哲 中島
Satoru Nakajima
哲 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016094244A priority Critical patent/JP2017202038A/ja
Priority to US15/486,700 priority patent/US20170330026A1/en
Priority to EP17167251.2A priority patent/EP3244346A1/en
Priority to CN201710307821.3A priority patent/CN107403133A/zh
Publication of JP2017202038A publication Critical patent/JP2017202038A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】被写体の顔が傾いているいないにかかわらず、安定的に、目の候補領域のうち、眉の領域と目の領域とを判別する。【解決手段】 コンピュータが、被写体の顔が写る画像を取得し、前記画像から、人間の目の特徴を有する複数の候補領域を検出し、前記複数の候補領域各々における、前記画像の空間周波数における高周波成分を抽出し、前記複数の候補領域それぞれの前記高周波成分の量に基づき、前記複数の候補領域の各々について、前記目に対応するであろう領域と眉に対応するであろう領域を判別し、判別した結果を出力する処理を実行することを特徴とする目と眉の判別方法。【選択図】図1

Description

本発明は、被写体の目と眉を判別する技術に関する。
画像から被写体の目の領域を検出する技術がある。そして、この目の領域を検出する技術は、様々な技術に利用されている。様々な技術として、例えば、近赤外光源および近赤外カメラを利用して、角膜反射法により、被写体である人物の視線を検出する技術がある(例えば、非特許文献1)。
角膜反射法は、近赤外線光源を用いて角膜上に反射を発生させた状態で画像を撮影し、当該画像から目の領域を検出する。そして、角膜反射法は、目の領域から特定した角膜反射の中心位置と瞳孔の中心位置との位置関係から、被写体の視線を検出する。
ここで、被写体の目の領域を検出する技術としては、例えば、テンプレートマッチングや目の特徴情報を利用する方法が知られている。しかし、テンプレートマッチング等を利用する方法では、眉毛等の目以外の領域も検出されてしまう。そこで、テンプレートマッチング等により目の候補領域を特定した後に、目以外の顔のパーツ(鼻や口)との位置関係から、目の候補領域のうち、目の領域を特定する方法がある。
また、目以外の顔のパーツを利用する方法以外の方法として、目の領域のヒストグラムと眉毛の領域のヒストグラムの形状が異なることに着目して、目領域と眉領域を区別する処理装置もある(例えば、特許文献1)。
特開平08−300978号公報
大野健彦ら、眼球形状モデルに基づく視線測定システム―視線入力デバイスの実現に向けて―、情報処理学会研究報告2001−HI−93、2001、pp47−54
例えば、マスクを着用している被写体の画像や、被写体の顔の一部がフレームアウトしている画像からは、鼻や口などのそのほかの顔のパーツを検出することができない。したがって、目以外の顔のパーツとの位置関係を用いて、目の候補領域から、目の領域を特定することができない。
また、特許文献1の手法においては、目以外の顔のパーツは不要であるが、画像に写る被写体の顔が傾いている場合(被写体が首をかしげている場合等)に、目の領域と眉毛の領域とを区別する精度が低下するという問題がある。
そこで、実施例に開示の技術は、被写体の顔が傾いているいないにかかわらず、安定的に、目の候補領域のうち、眉の領域と目の領域とを判別することを目的とする。
本実施例に開示の技術は、一つの側面では、コンピュータが、被写体の顔が写る画像を取得し、前記画像から、人間の目の特徴を有する複数の候補領域を検出し、前記複数の候補領域各々における、前記画像の空間周波数における高周波成分を抽出し、前記複数の候補領域それぞれの前記高周波成分の量に基づき、前記複数の候補領域の各々について、前記目に対応するであろう領域と眉に対応するであろう領域を判別し、判別した結果を出力する処理を実行することを特徴とする目と眉の判別方法に関する。
本実施例に開示の技術は、安定的に、目の候補領域のうち、眉の領域と目の領域とを判別して、目の領域の検出精度を向上させるという効果を奏する。
図1は、実施例1に係る判別装置の機能ブロック図である。 図2は、テンプレートの一例である。 図3Aおよび図3Bは、高周波成分の量と、目領域としての確からしさとの関係を説明するための図である。 図4は、候補領域を管理する候補領域情報管理テーブルのデータ構成例である。 図5は、実施例1に係る判別処理のフローチャートである。 図6は、実施例2に係る判別装置の機能ブロック図である。 図7Aおよび図7Bは、エッジの方向を説明するための説明図である。 図8は、エッジの方向を管理するエッジ方向管理テーブルのデータ構成例である。 図9は、実施例2に係る判別処理のフローチャートである。 図10は、実施例3に係る判別装置の機能ブロック図である。 図11は、変換テーブルのデータ構成例である。 図12は、実施例3に係る判別処理のフローチャートである。 図13Aおよび図13Bは、従来技術の問題点を説明するための図である。 図14Aおよび図14Bは、顔が傾いたときの顔画像およびエッジ抽出結果である。 図15は、判別装置のハードウェア構成である。
以下に、本発明に関する検出技術の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
[実施例1]
実施例1は、被写体の顔画像から目の候補領域を検出し、各候補領域の高周波成分に基づき、眉に対応するであろう領域と目に対応するであろう領域を判別する。なお、眉に対応するであろう領域(眉領域)と判断された候補領域が除外された候補領域の情報は、その後、非特許文献1に開示された視線検出技術に利用される。
また、視線検出技術以外にも、眉領域を除外された目の候補領域の情報は、目領域を監視する事で、被写体の瞬きを検出する技術にも利用される。瞬きを検出する技術は、例えば、被写体であるドライバーの眠気検知などに適用され得る。さらに、眉領域を除外された目の候補領域の情報は、目領域の位置変化を監視する事で、被写体のうなずきや顔の向きの変化を検出する技術にも利用される。当該技術は、例えば、体が不自由な人とのコミュニケーションツールなどに適用され得る。
図1は、実施例1に係る判別装置の機能ブロック図である。判別装置1は、被写体の顔画像から目の候補領域を検出し、画像の空間周波数における高周波成分の量に基づき、眉に対応するであろう候補領域(眉領域)を判別するとともに、目領域である可能性が高い候補領域を判別する。なお、高周波成分は、被写体側からの反射率の変化を示し、例えば、エッジや高輝度の孤立画素などとして検出される。
例えば、判別装置1が視線検出のための目領域を判別する場合には、判別装置1は、近赤外光が照射された被写体を撮影するカメラと接続され、カメラから取得した画像を処理対象とする。さらに、判別装置1が視線検出のための目領域を判別する場合には、判別装置1は、被写体の瞳孔位置および近赤外光の角膜反射位置を特定する他の装置や他のアルゴリズムに、処理結果を出力する。他の装置やアルゴリズムは、判別装置1が検出した目領域である可能性が高い候補領域内を処理対象として、瞳孔位置および角膜反射位置を特定する処理を行う。
判別装置1は、取得部11、候補領域検出部12、抽出部13、算出部14、判定部15、出力部16、記憶部17を含む。取得部11は、カメラから被写体の顔が写る画像を取得する。なお、カメラが近赤外カメラである場合、画像は近赤外画像である。
候補領域検出部12は、画像から、人間の目の特徴情報に基づき、被写体の目領域の候補となる候補領域を検出する。通常、候補領域は、左右の目おのおのに関わる2つと、それ以外にも目の特徴情報を有する領域(例えば眉領域)が、候補領域として検出される。
候補領域を検出する方法としては、例えば、以下の方法が知られている。まず、第一の方法は、画像から、虹彩の特徴である暗い円形領域を検出し、その円形領域を含む領域を候補領域として設定する方法である。
具体的には、候補領域検出部12は、画像の輝度情報を利用して、閾値以下の輝度を有する画素を特定する。さらに、特定された画素をグループ化する。そして、候補領域検出部12は、グループ化された各領域の形状が略円形かを判定する。円形か否かの判定には、例えば、Wilhelm Burgerら、「Digital Image Processing」、pp224−225や、村本健一郎ら、「領域および厳格戦による降雪雪片の形状特徴解析」、電子情報通信学会論文誌、1993年5月、Vol.J76−D−II、No.5、pp.949−958に開示された技術を用いることができる。
グループ化された領域の形状が略円形であることが判定された場合には、候補領域検出部12は、当該領域を基準に矩形領域を設定する。例えば、矩形領域は、略楕円の中心を重心とし、長辺(X軸方向)として略楕円の直径の3倍、短辺(Y軸方向)として略楕円の直径を有する。また、例えば、矩形領域は、略楕円の大きさに依存せず、予め設定された大きさの矩形領域であってもよい。
第二の方法は、テンプレートマッチングにより、目の候補領域を検出する。候補領域検出部12は、画像を所定の大きさの矩形領域に分割し、各矩形領域の代表輝度値を算出する。なお、代表輝度値は、各矩形領域に含まれる画素の平均値などが採用される。
候補領域検出部12は、例えば、図2に示すテンプレートを利用する。図2は、テンプレートの一例である。
顔画像では、両目の部分が暗く、鼻や頬が明るく撮影されため、テンプレートは、上段左が閾値よりも代表輝度値が小さい矩形領域、上段中央が代表輝度値が閾値以上の矩形領域、上段右が閾値よりも代表輝度値が小さい矩形領域、下段左が代表輝度値が閾値以上の矩形領域、下段右が代表輝度値が閾値以上の矩形領域となっている。そして、このテンプレートに当てはまる領域が特定された場合に、候補領域検出部12は、上段左の矩形領域と上段右の矩形領域を、候補領域として検出する。
第三の方法は、画像が視線検出用の近赤外画像である場合に、眼球に近赤外光の角膜反射が発生することを利用して、角膜反射の特徴を使って、候補領域を検出する方法である。候補領域検出部12は、角膜反射の特徴である、高輝度の画素の集合を検出する。例えば、輝度値が0から256を取りうる場合に、輝度値が200以上である画素の集合を検出する。そして、画素の集合の中心を基準に、矩形領域を設定し、この矩形領域を候補領域とする。ただし、集合に含まれる画素数が所定値以上である場合には、角膜反射ではない他の物体(例、白い衣類等)であるとして、その集合を除外してもよい。
なお、目の候補領域の検出方法としては、これら第一の方法から第三の方法以外の方法が採用されてもよい。また、第一の方法から第三の方法のいずれかのみを候補領域検出部12が実行することとしてもよいし、複数を組み合わせて実行するものとしてもよい。
このように、種々の目の候補領域の検出方法が採用され得るが、例えば、第一の方法においても、眉部分の中に輝度が低い円形領域が検出されると、眉部分に候補領域が設定される。また、第二の方法においても、左右の眉部分が、テンプレートと合致して、左右の眉部分に候補領域が設定される。さらに、第三の方法においても、眉部分に一部肌が見える部分が存在すると、その部分が高輝度の画素の集合として検出されるため、眉部分に候補領域が設定される。よって、候補領域が、眉に相当する領域なのか、目に相当する領域なのかを判別する必要がある。
次に、抽出部13は、複数の候補領域各々について、高周波成分を抽出する。高周波成分として、例えば、エッジや高輝度の孤立画素(白い点)が抽出される。エッジを抽出する場合には、sobelフィルタやcannyフィルタが用いられる。また、高輝度の孤立画素を抽出する場合には、特徴点抽出の一手法であるFast(Features from Accelerated Segment Test)が用いられる。
算出部14は、複数の候補領域それぞれの高周波成分の量を算出する。抽出部13が高輝度成分としてエッジを抽出する場合、算出部14は、例えば、各候補領域のエッジ量を算出する。なお、エッジ量は、エッジとして抽出された画素の数である。さらに、算出部14は、エッジ量からエッジ密度を算出する。エッジ密度は、処理対象の候補領域に含まれる全画素とエッジ量との割合である。例えば、以下の式1により算出される。なお、エッジ密度は、0から1の間の値となり、大きな値ほど、エッジ量が多いことを示す。
一方、抽出部13が高輝度成分として高輝度の孤立画素を抽出する場合、算出部14は、例えば、各候補領域の高輝度の孤立画素数を算出する。さらに、算出部14は、孤立画素数から孤立画素の密度を算出する。孤立画素の密度は、処理対象の候補領域に含まれる全画素と孤立画素数との割合である。例えば、以下の式2により算出される。なお、孤立画素の密度は、0から1の間の値となり、大きな値ほど、孤立画素数が多いことを示す。
次に、判定部15は、複数の候補領域のそれぞれが、目に対応する領域であるか、眉に対応する領域(眉領域)であるかを判定する。判定部15は、予め設定された閾値と、高周波成分の密度とを比較する。閾値は、事前の学習により決定される値であって、目と眉を区別するのに適切な値が設定される。例えば、閾値は、0.2である。
ここで、高周波成分の量と、目領域としての確からしさとの関係を説明する。図3Aおよび図3Bは、高周波成分の量と、目領域としての確からしさとの関係を説明するための図である。
図3Aには、画像の一部(以下、顔画像100)が示されている。また、図3Aには、候補領域検出部12が、被写体の顔画像100の中から、目の候補領域として候補領域101乃至104を検出した様子が示されている。
さらに、図3Bには、抽出部13が、顔画像100における各候補領域101乃至104を対象に、高周波成分としてエッジを抽出したエッジ画像110が示されている。なお、図3Aにおける候補領域101は、図3Bにおける候補領域111に対応し、図3Aにおける候補領域102は、図3Bにおける候補領域112に対応し、図3Aにおける候補領域103は、図3Bにおける候補領域113に対応し、図3Aにおける候補領域104は、図3Bにおける候補領域114に対応する。
図3Aおよび図3Bに示されるように、眉に対応する候補領域113および114からは、目に対応する候補領域111および112と比較して、より多くのエッジが検出される。つまり、エッジ密度が所定値(閾値)以上となる。したがって、判定部15は、予め設定された閾値と、高周波成分の量(または密度)とを比較することで、候補領域各々について、眉領域であるかを判別することができる。なお、高周波成分として、高輝度の孤立画素が抽出された場合にも、眉領域からはより多くの孤立画素が検出されることとなるため、候補領域の孤立画素の密度が所定値(閾値)以上である場合に、当該候補領域は眉に対応すると判別することができる。
次に、出力部16は、判定部15の判定結果を出力する。例えば、出力部16は、複数の候補領域のうち、眉領域を除外した候補領域の情報を、出力する。図3Aおよび図3Bに示される候補領域101乃至104のうち、眉領域である103および104を除外した候補領域(101および102)の情報が出力される。なお、出力先は、例えば、視線検出のための瞳孔位置や角膜反射位置を検出するアルゴリズムや装置である。
記憶部17は、判別装置1が実行する各種処理に必要な情報を記憶する。例えば、記憶部17は、候補領域として検出された領域に関する候補領域情報や、各種閾値情報を記憶する。
図4は、候補領域を管理する候補領域情報管理テーブルのデータ構成例である。候補領域情報管理テーブルのデータは、記憶部17に記憶される。
候補領域情報管理テーブルは、候補領域ID、各候補領域の位置情報(右上座標、左上座標、右下座標、左下座標)、判定結果を対応付けて記憶する。候補領域IDは、各候補領域を識別する情報である。各候補領域の位置情報は、画像における各候補領域の位置の情報である。判定結果は、判定部15による判定結果が格納される。例えば、判定部15が、眉領域であると判定した場合には「0」が、眉領域ではない(目領域である可能性が高い)と判定した場合には「1」が格納される。
図4は、候補領域101乃至103の判定が終了し、候補領域104の判定結果が得られる前の候補領域情報管理テーブルを示す。つまり、候補領域101および102には、判定結果「1」が、候補領域103には、判定結果「0」が格納され、候補領域104の判定結果は「空(Null)」である。
図5は、実施例1に係る判別処理のフローチャートである。まず、取得部11は、カメラから処理対象の画像を取得する(Op.1)。次に、候補領域検出部12は、画像から目の候補領域を検出する(Op.2)。候補領域の検出処理については、上記第一の方法乃至第三の方法のいずれかもしくは複数、または、その他公知の手法が利用される。さらに、候補領域検出部12は、検出した各候補領域の情報を、候補領域情報管理テーブル(記憶部17)に格納する。ただし、Op.2の時点では、全ての候補領域について、判定結果は空(Null)である。
なお、処理対象の画像には、被写体の顔の少なくとも一部が写っていることが前提となるが、処理Op.2に先駆けて、判別装置1は、顔検出等の技術により顔が写った画像であるかを判定し、顔が写った画像である場合に、Op.2以降の処理を実行してもよい。
抽出部13は、各候補領域内の高周波成分を抽出する(Op.3)。例えば、エッジや高輝度の孤立画素が、上記方法のいずれか、またはその他公知の手法により抽出される。
算出部14は、高周波成分が抽出された各候補領域のうち、いずれかを処理対象として、高周波成分の量を算出する(Op.4)。例えば、算出部14は、エッジ量を求め、さらに、エッジ密度を算出する。または、算出部14は、高輝度の孤立画素数を求め、さらに、孤立画素の密度を算出する。
次に、判定部15は、高周波成分の量が閾値よりも大きいかを判定する(Op.5)。そして、高周波成分の量が閾値よりも大きい場合には(Op.5YES)、判定部15は、処理対象の候補領域は眉領域であるとして、候補領域情報管理テーブルの判定結果に「0」を格納する(Op.6)。一方、高周波成分の量が閾値以下である場合には(Op.5NO)、判定部15は、処理対象の候補領域は眉領域ではないとして、候補領域情報管理テーブルの判定結果に「1」を格納する(Op.7)。
次に、判定部15は、全ての候補領域の処理が終了したかを判定し(Op.8)、全ての候補領域についての処理が終了するまで、Op.4乃至Op.8の処理を繰り返す(Op.8NO)。全ての候補領域について処理が終了した場合(Op.8YES)、出力部16は、処理結果を出力する(Op.9)。例えば、出力部16は、管候補領域情報管理テーブルにおいて、判定結果が「1」となっている候補領域の情報を、他のアルゴリズムまたは他の装置へ出力する。
以上のように、実施例1に係る判別装置1は、各候補領域の高周波成分の量に基づき、目領域としては不適切な領域(例えば眉領域)を判別することができるため、目領域の検出精度を向上させることができる。引いては、目領域としては不適切な領域(例えば眉領域)を除外して、後段の処理に目領域を出力することができるため、後段の処理の精度を向上させることができる。
さらに、目の候補領域を検出する際に、目と類似する眉領域も検出してしまうという従来の課題を、高周波成分の量に着目して眉領域である可能性が高い候補領域を削除することで、解決する。よって、判別装置1は、目の候補領域を検出する技術の精度に寄らず、眉領域を除外した検出結果を生成し、出力することができる。
[実施例2]
実施例2は、高周波成分としてエッジを抽出するとともに、エッジの方向を考慮して、目の候補領域の中から、目と眉を判別する。図6は、実施例2に係る判別装置の機能ブロック図である。判別装置2は、判別装置1と同様に、目と眉を判別するが、特定の方向のエッジの密度を利用する。
判別装置2は、取得部11、候補領域検出部12、抽出部23、特定部20、算出部24、判定部15、出力部16、記憶部27を含む。なお、実施例1における判別装置1と同様の機能を有する処理部には、同一の名称および符号を付し、説明を省略する。よって、以下では、抽出部23、特定部20、算出部24、記憶部27について説明する。
抽出部23は、実施例2における高周波成分として、エッジを抽出する。このとき、抽出部23は、ラべリング処理を実行することで、各エッジを形成するエッジ画素をグループ化する。
具体的には、抽出部23は、エッジ画素として検出された各画素のそれぞれを処理対象として、処理対象のエッジ画素に隣接する各周辺画素(8画素)に他のエッジ画素が存在するかを判定する。存在する場合には、抽出部23は、自画素と他のエッジ画素とを一つのエッジを形成する画素として連結する処理を繰り返すことで、エッジの端点を検索する。ただし、互いにすでに連結済みである場合には、連結処理は実行されない。そして、端点の検索までに連結されたエッジ画素を、一つのエッジを形成する画素としてグループ化する。
なお、あるエッジ画素の周辺画素8画素のうち、3画素以上がエッジ画素である場合には、処理対象のエッジ画素が2つ以上のエッジの交点であるため、抽出部23は、2つ以上のエッジに分割する。なお、分割された各エッジには、当該エッジ画素(交差点)が含まれる。
特定部20は、抽出部23が抽出したエッジの方向を特定するとともに、全候補領域における全エッジの向きから、支配的なエッジの向きを特定する。なお、支配的なエッジの向きは、以下、方向Aとする。
図7Aおよび図7Bは、エッジの方向を説明するための説明図である。まず、抽出部23は、ラべリング処理により、図7Aに示す画素a1乃至a3を一本のエッジaを形成するエッジ画素としてグループ化する。また、抽出部23は、画素b1乃至b6を一本のエッジbを形成するエッジ画素としてグループ化する。抽出部23は、画素c1乃至c7を一本のエッジcを形成するエッジ画素としてグループ化する。
次に、特定部20は、各エッジの方向を判定する。各エッジに含まれる各エッジ画素について、当該エッジ画素を囲む8画素のうち、他のエッジ画素が存在する方向の角度を求める。例えば、エッジaのエッジ画素a1については、エッジ画素a1を囲む8画素のうち、右上45°に他のエッジ画素a2が存在する。よって、特定部20は、エッジ画素a1について、角度45°を求める。同様に、エッジ画素a2についても、45°が求められる。
さらに、エッジ画素a3については、左下に画素a2が存在するため、角度としては、225°が求められるが、本実施例においては、180°以上の角度については、180°を除算する。よって、エッジ画素a3についても、同様に45°が求められる。
次に、特定部20は、同一のエッジを形成する各エッジ画素に対して求められた角度の平均を求める。エッジaに関しては、平均値45°が求められる。
次に、特定部20は、平均値から、各エッジの方向を決定する。図7Bは、エッジの平均角度と方向の対応関係を示す図である。なお、図7Bの例では、エッジの方向として、8つの方向を定義している。例えば、平均角度が45°のエッジaについては、もっとも近い方向IIIが、エッジの方向として特定される。なお、図7Bにおける破線を境界として、特定部20は、隣接する2つの方向のいずれに属するかを判断する。例えば、平均角度が10°の場合には、対応するエッジの方向はIとなる。
図8は、エッジの方向を管理するエッジ方向管理テーブルのデータ構成例である。エッジ方向管理テーブルは、候補領域ID、エッジID、エッジ画素ID、位置情報、エッジ方向を対応付けて記憶する。つまり、エッジ方向管理テーブルは、エッジ画素ごとに、エッジ方向を管理する。
候補領域IDは、各候補領域を識別する情報である。エッジIDは、エッジを識別する情報である。エッジ画素IDは、エッジ画素を識別する情報である。位置情報は、エッジ画素の位置(座標)である。エッジ方向は、各エッジ画素が含まれるエッジの方向を示す情報である。
例えば、エッジ画素a1を例に説明する。なお、エッジ画素a1が含まれるエッジaは、図3に示す候補領域101から抽出されたものとする。この場合、候補領域ID「101」、エッジID「a」、エッジ画素ID「a1」が対応付けて記憶される。さらに、エッジ画素a1の位置情報として、座標(xa1,ya1)も格納される。また、エッジaのエッジ方向「III」が特定されると、エッジaに含まれるエッジ画素a1乃至a3の各々にエッジ方向「III」が対応付けて、格納される。
以上の通り、特定部20によって、各エッジの方向が特定されるとともに、各エッジに含まれるエッジ画素に対しても当該方向が対応付けて管理される。そして、各エッジ画素に対して方向が決定されると、特定部20は、支配的なエッジの向き(方向X)を特定する。
例えば、特定部20は、エッジ方向管理テーブルを参照しながら、方向I乃至VIIIそれぞれについて、各方向に対応付けられているエッジ画素の個数を計数し、最も多くのエッジ画素が計上された方向を、支配的なエッジの向き(方向X)とする。なお、方向Xを特定する際には、特定部20は、各エッジがいずれの候補領域から抽出されたものであるかは考慮しない。つまり、エッジ方向管理テーブル全体を対象にして、一つの方向Xが決定される。
また、特定部20が方向Xを特定する際には、エッジ画素を計数する代わりに、エッジそのものの本数を、各々の方向について、計数してもよい。そして、特定部20は、最も多くの本数が計数された方向を、支配的なエッジの向き(方向X)とする。
次に、実施例2における判別装置2の算出部24は、特定された方向Xに対応するエッジ画素の量およびエッジ密度を算出する。例えば、方向Xが方向Iである場合、算出部24は、エッジ方向管理テーブルを参照し、候補領域ごとに、エッジ方向に「I」を有するエッジ画素の数を計数する。さらに、算出部24は、式1と同様に、エッジ方向に「I」を有するエッジ画素の数を、対応する候補領域の全画素数で割ることで、各候補領域のエッジ密度を算出する。
記憶部27は、実施例1と同様に、候補領域情報管理テーブルや各種処理に必要な情報を記憶するとともに、エッジ方向管理テーブル(図8)も併せて記憶する。
図9は、実施例2に係る判別処理のフローチャートである。なお、実施例1における判別処理と同様の処理については、同一の符号を付し、説明を簡略化する。まず、取得部11は、カメラから処理対象の画像を取得する(Op.1)。候補領域検出部12は、画像から目の候補領域を検出する(Op.2)。
抽出部23は、各候補領域のエッジを抽出する(Op.21)。エッジ抽出の際、先述のラべリング処理が実行される。特定部20は、各エッジの方向を特定するとともに、全候補領域におけるエッジの向きから、支配的なエッジの向き(方向X)を特定する(Op.22)。
次に、算出部24は、各候補領域のうち、いずれかを処理対象として、方向Xのエッジのエッジ密度を算出する(Op.23)。判定部15は、エッジ密度が閾値よりも大きいかを判定する(Op.24)。なお、閾値は、例えば、0.2である。
そして、エッジ密度が閾値よりも大きい場合には(Op.24YES)、判定部15は、処理対象の候補領域は眉領域であるとして、候補領域情報管理テーブルの判定結果に「0」を格納する(Op.6)。一方、エッジ密度が閾値以下である場合には(Op.24NO)、判定部15は、処理対象の候補領域は眉領域でないとして、候補領域情報管理テーブルの判定結果に「1」を格納する(Op.7)。
次に、判定部15は、全ての候補領域の処理が終了したかを判定し(Op.8)、全ての候補領域についての処理が終了するまで、Op.23、24、Op.6乃至Op.8の処理を繰り返す(Op.8NO)。全ての候補領域について処理が終了した場合(Op.8YES)、出力部16は、処理結果を出力する(Op.9)。
以上のように、実施例2にかかる判別装置2は、エッジの方向を考慮して、支配的なエッジの方向Xについて、エッジの密度を算出する。なお、まつ毛は、一般的に縦方向のエッジとして検出されることがおおく、眉は、一般的に横方向のエッジとして検出されることが多い。さらに、一般的に、まつ毛よりも眉の方が多い。そこで、単純にエッジの量を利用するよりも、眉であろうエッジの量(密度)で、目と眉を判別する事で、判別装置2は、判別の精度を向上させることができる。
さらに、判別装置2は、エッジ密度の算出の対象とするエッジ方向として、一律に水平方向(例えば、図7Bの方向I)を横方向を設定するのではなく、画像ごとに、支配的な方向Xを特定する。例えば、被写体が首をかしげるまたは、カメラが傾いて被写体を撮影している場合などであっても、判別装置2は、被写体が撮影された状況における横方向に相当する方向を、都度、特定する。よって、判別装置2は、被写体とカメラとの位置関係によって、被写体が首をかしげているような状態で画像が撮影されたとしても、本来の横方向に相当する方向Xに対して、エッジ密度を求めることができる。
[実施例3]
実施例3は、実施例2に加えて、被写体とカメラとの距離に応じて、判定部による判定のロジックを切り替える。具体的には、実施例3における判定部は、被写体とカメラの距離が比較的近い場合には、実施例2と同様の判定処理を行うが、被写体とカメラの距離が比較的遠い場合には、以下説明する他の判定処理を実行する。
図10は、実施例3に係る判別装置の機能ブロック図である。判別装置3は、取得部11、候補領域検出部12、抽出部23、特定部20、距離判定部30、算出部34、判定部35、出力部16、記憶部37を含む。なお、実施例1における判別装置1および実施例2における判別装置2と同様の機能を有する処理部には、同一の名称および符号を付し、説明を省略する。よって、以下では、距離判定部30、算出部34、判定部35、記憶部37について説明する。
距離判定部30は、画像に写る被写体とカメラとの距離を取得するとともに、被写体とカメラの距離が予め設定された閾値Th1よりも小さいか判定する。そして、距離判定部30は、判定結果を、算出部34へ出力する。
なお、閾値Th1は、例えば、80(cm)である。例えば、閾値Th1は、事前の実験により、適切な値が設定される。例えば、様々な距離で撮影された被写体の画像を収集し、眉の毛がエッジとして撮影されず、眉全体が一つの低輝度領域として撮影されるようになる距離が、閾値として設定される。
また、被写体とカメラの距離の判定方法は従来の手法が適用される。例えば、距離判定部30は、画像から被写体の顔幅(ピクセル)を取得し、変換テーブルを参照することで、距離(cm)を判定する。なお、距離判定部30が顔幅を取得する際には、顔領域の検出処理で検出された顔領域の幅を計測してもよいし、目の候補領域を含む高輝度領域(例えば、輝度が180以上)を顔領域と推測し、当該高輝度領域の幅を計測してもよい。
図11は、変換テーブルのデータ構成例である。変換テーブルは、顔幅の範囲と距離とを対応付けて記憶する。なお、変換テーブルは、予め、様々な距離で被写体を撮影した画像を収集し、学習処理を行う事で、生成される。図11の例では、例えば、顔幅が、50ピクセルから99ピクセルの間であれば、被写体とカメラとの距離は80cmと判定される。
次に、算出部34は、距離が閾値Th1よりも小さい場合には、実施例2同様、各候補領域について、特定部20が特定した方向Xのエッジ密度を算出する。一方、算出部34は、距離が閾値Th1以上である場合には、各候補領域について、方向Xに対して垂直の方向Yのエッジ密度を算出する。例えば、方向Xが図7Bにおける方向Iである場合は、方向Yは方向Vとなる。よって、算出部34は、方向Vを持つエッジのエッジ密度を算出する。
判定部35は、距離が閾値Th1よりも小さい場合には、実施例2同様、実施例2における閾値(以下、閾値Th2とする)と方向Xのエッジ密度とを比較して、閾値Th2よりもエッジ密度が大きい場合、対応する候補領域は眉領域であると判定する。一方、距離が閾値Th1以上である場合には、判定部35は、閾値Th3と方向Yのエッジ密度とを比較して、閾値Th3よりもエッジ密度が小さい場合、対応する候補領域は眉領域であると判定する。なお、閾値Th2は、例えば、実施例2と同様に、0.2である。また、閾値Th3は、例えば、0.1である。閾値Th3は、事前の学習により決定される値であって、目と眉を区別するのに適切な値が設定される。
例えば、カメラと被写体が比較的遠い場合、画像において、被写体の眉の毛は、エッジとして現れない。つまり、眉全体が一つの低輝度領域として現れる可能性が高い。よって、眉に対応する候補領域には、眉全体の輪郭がエッジとして残る。一方、目に対応する候補領域には、目の輪郭に加え、白目と黒目の境界もエッジとして残る。このとき、眉の輪郭や目の輪郭部分のエッジは、カメラと被写体が正対している状態での横方向となることが予測される一方で、白目と黒目の境界のエッジは縦方向となる。
したがって、実施例3における判別装置3は、支配的な方向X(例えば、方向I)と垂直な方向Y(例えば、方向V)のエッジの密度を利用することで、眉と目の判別を図る。具体的には、垂直な方向Yのエッジ密度は、目に対応する候補領域においては大きく、眉に対応する候補領域おいては小さいことが予測されるため、判定部35は、エッジ密度が閾値Th3よりも小さい候補領域を、眉に対応する候補領域として判定する。
記憶部37は、実施例1および2と同様に、候補領域情報管理テーブル、エッジ方向管理テーブル、各種処理に必要な閾値情報を記憶するとともに、変換テーブル(図11)も併せて記憶する。
図12は、実施例3に係る判別処理のフローチャートである。なお、実施例1および実施例2における判別処理と同様の処理については、同一の符号を付し、説明を簡略化する。まず、取得部11は、カメラから処理対象の画像を取得する(Op.1)。候補領域検出部12は、画像から目の候補領域を検出する(Op.2)。
抽出部23は、各候補領域のエッジを抽出する(Op.21)。特定部20は、各エッジの方向を特定するとともに、全候補領域におけるエッジの向きから、支配的なエッジの向き(方向X)を特定する(Op.22)。
次に、距離判定部30は、例えば、変換テーブルを利用して、被写体とカメラとの距離を取得する(Op.30)。そして、距離判定部30は、距離が閾値Th1よりも小さいかを判定する(Op.31)。
距離が閾値Th1よりも小さい場合は(Op.31YES)、算出部34は、各候補領域のうち、いずれかを処理対象として、方向Xのエッジのエッジ密度を算出する(Op.23)。判定部35は、エッジ密度が閾値Th2よりも大きいかを判定する(Op.24)。
そして、エッジ密度が閾値Th2よりも大きい場合には(Op.24YES)、判定部35は、処理対象の候補領域は眉領域であるとして、候補領域情報管理テーブルの判定結果に「0」を格納する(Op.6)。一方、エッジ密度が閾値Th2以下である場合には(Op.24NO)、判定部35は、処理対象の候補領域は眉領域ではないとして、候補領域情報管理テーブルの判定結果に「1」を格納する(Op.7)。
次に、判定部35は、全ての候補領域の処理が終了したかを判定し(Op.8)、全ての候補領域についての処理が終了するまで、Op.23、24、Op.6乃至Op.8の処理を繰り返す(Op.8NO)。
一方、距離が閾値Th1以上の場合は(Op.31NO)、算出部34は、各候補領域のうち、いずれかを処理対象として、方向Xに垂直な方向Yをもつエッジのエッジ密度を算出する(Op.32)。判定部35は、エッジ密度が閾値Th3よりも小さいかを判定する(Op.33)。
そして、エッジ密度が閾値Th3よりも小さい場合には(Op.33YES)、判定部35は、処理対象の候補領域は眉領域であるとして、候補領域情報管理テーブルの判定結果に「0」を格納する(Op.34)。一方、エッジ密度が閾値Th3以上である場合には(Op.33NO)、判定部35は、処理対象の候補領域は眉領域ではないとして、候補領域情報管理テーブルの判定結果に「1」を格納する(Op.35)。
次に、判定部35は、全ての候補領域の処理が終了したかを判定し(Op.36)、全ての候補領域についての処理が終了するまで、Op.32乃至Op.36の処理を繰り返す(Op.36NO)。
Op.8において、全ての候補領域について処理が終了した場合(Op.8YES)、または、Op.36において、全ての候補領域について処理が終了した場合(Op.36YES)、出力部16は、処理結果を出力する(Op.9)。
以上のように、実施例3に係る判別装置3は、被写体とカメラとの距離に応じて、2種類の判定方法を切り替えることで、目と眉の判別精度を向上させる。
[従来技術と比較した効果]
ここで、実施例1乃至実施例3に係る判別装置と、特許文献1に係る従来技術との違いを、説明する。図13Aおよび図13Bは、従来技術の問題点を説明するための図である。
図13Aに示すように、特許文献1に開示された従来技術においては、顔が写った画像200に対して、所定の大きさの矩形領域201が順次設定される。そして、矩形領域201内の画素を対象に、輝度ヒストグラムが生成される。なお、ヒストグラムは、画像の水平方向の位置ごとに、輝度が所定値よりも低い画素(低輝度画素)の画素数分布を表す。
例えば、眉のあたりに設定された矩形領域202のヒストグラムは、画像200のように顔の傾きがない状態であれば、水平方向全体の位置に渡って、低輝度画素の分布が多いことを示すヒストグラムとなる。一方で、目の辺りに設定された矩形領域203のヒストグラムは、水平方向中央のあたり(黒目のあたり)に低輝度画素の分布が多いヒストグラムとなる。そこで、従来技術は、ヒストグラムの形状が、矩形領域202は横に広い山形になるのに対して、矩形領域203は幅の狭い山型になるという違いを利用して、眉と目を判別する。
しかし、図13Bのように、被写体の顔が傾いている場合には、眉や目を適切に含む矩形が設定されにくい。なぜなら、画像の水平方向に、順次、矩形領域211が設定されるためである。例えば、矩形領域211の設定方向を水平以外にも斜めや、様々な角度にすることも考えられるが、処理負荷が増加するため、現実的ではない。
よって、図13Bの状態における矩形領域212と矩形領域213のヒストグラムは、図13Aにおける矩形領域202と矩形領域203のヒストグラムのように、目と眉を区別できる特徴を有さない。つまり、従来技術では、顔が傾いたときに、目と眉の判別が困難となる。
一方、実施例1乃至実施例3に係る判別方法は、目の特徴情報を有する候補領域を抽出するとともに、各候補領域の高周波成分の量(密度)に基づき、目に対応する候補領域と眉に対応する候補領域の判別が行われる。
図14Aおよび図14Bは、顔が傾いたときの顔画像およびエッジ抽出結果である。図14Aは、顔が傾いた状態で撮影された画像の一部(顔画像120)であって、当該顔画像120に対して目の特徴情報を有する候補領域の抽出処理を行った結果である候補領域121乃至124が示されている。ただし、候補領域の設定方向(矩形の長辺が設定される方向)は、図3Aと同様に、画像の水平方向である。なお、図3Aおよび図3Bとの比較を容易にするため、図14Aは、顔画像120として、図3Aに示す顔画像100を斜めにした画像を使用している。そのため、顔が傾いて撮影されたときの本来の顔画像には、顔画像120における左上および右下の白色の各領域に、それらの顔の部分に対応する撮影画像が存在する。
図14Bには、顔画像120における各候補領域121乃至124を対象に、高周波成分としてエッジを抽出した結果であるエッジ画像130が示されている。なお、エッジ画像130に設定された候補領域131乃至134は、顔画像120における候補領域121乃至124に対応する。
ここで、候補領域121乃至124各々における、高周波成分(エッジ)の密度は、図14Bにおける候補領域131乃至134に示される通り、眉に対応する候補領域において大きく、目に対応する領域において小さい。したがって、実施例1乃至3に係る判別方法は、顔の傾きに依存することなく、目と眉を判別することができる。
[判別装置の適用例]
判別装置1乃至判別装置3は、視線検出システムの一部として適用され得る。例えば、視線検出システムは、判別装置1乃至判別装置3からの入力を受けて、目領域から瞳孔および角膜反射を検出する。そして、視線検出システムは、瞳孔の位置および角膜反射の位置に基づき、視線情報(被写体の視線位置および方向)を検出する。
視線情報は、例えば、ドライバーの安全運転支援や、店舗におけるマーケティングに活用される。視線情報を解析する事で、ドライバーが各方面に注意を配っているか、客はどのような商品に注目しているかが推察される。
[ハードウェア構成例]
判別装置1乃至判別装置3のハードウェア構成例について説明する。なお、ここでは、判別装置1乃至判別装置3を、視線検出システムの一部として適用した例を用いて説明を行うが、これに限定されるものではない。
図15は、判別装置のハードウェア構成である。なお、図15には、判別装置を含む視線検出システム10全体のハードウェア構成例を示している。つまり、判別装置1乃至判別装置3単体で機能する場合には、実線で記したハードウェアコンポーネントを含む。一方、判別装置1乃至3が視線検出システム10の一部として機能する場合には、視線検出システム10は、実線で記したハードウェアコンポーネントおよび破線で記したハードウェアコンポーネントを含む。
視線検出システム10に含まれる判別装置1乃至判別装置3は、ハードウェア構成として、プロセッサー1001、Read Only Memory(ROM)1002、Random Access Memory(RAM)1003、Hard Disk Drive(HDD)1004、通信装置1005、入力装置1008、表示装置1009、媒体読取装置1010を有する。さらに、視線検出システム10は、インターフェース回路1012、光源1006、カメラ1007を有する。
プロセッサー1001、ROM1002、RAM1003、HDD1004、通信装置1005、入力装置1008、表示装置1009、媒体読取装置1010、インターフェース回路1012はバス1011を介して相互に接続されている。そして、プロセッサー1001による制御下で相互にデータの送受信を行うことができる。
実施例1乃至3に係る判別処理のプログラムおよび視線検出処理にかかるプログラムは、判別装置1乃至3または視線検出システム10が読み取り可能な記録媒体に記録される。記録媒体には、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。
磁気記録装置には、HDD、フレキシブルディスク(FD)、磁気テープ(MT)などがある。光ディスクには、Digital Versatile Disc(DVD)、DVD−RAM、Compact Disc − Read Only Memory(CD−ROM)、Compact Disc − Recordable/ReWritable(CD−R/RW)などがある。光磁気記録媒体には、Magneto − Optical disk(MO)などがある。半導体メモリには、ROM、RAM、Static Random Access Memory(スタティックRAM)、Solid State Drive(SSD)などがある。
各実施例に係る処理が記述されたプログラムを流通させる場合には、例えば、当該プログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売されることが考えられる。そして、媒体読取装置1010が、当該プログラムを記録した記録媒体から、該プログラムを読み出す。プロセッサー1001は、読み出されたプログラムをHDD1004若しくはROM1002、RAM1003に格納する。
プロセッサー1001は判別装置1乃至3全体の動作制御を司る。プロセッサーは、例えば、Central Processing Unit(CPU)などの電子回路を含む。
そして、プロセッサー1001が、本実施例に関わる処理が記述されたプログラムをそれが格納された記録媒体(例えばHDD1004)から読み出して実行することで、プロセッサー1001は、判別装置1乃至3における候補領域検出部12、抽出部13(23)、算出部14(24、34)、判定部15(35)、特定部20、距離判定部30として機能する。なお、プロセッサー1001は、記録媒体から読み出されたプログラムをRAM1003にロードし、RAM1003にロードされたプログラムを実行してもよい。
通信装置1005は、プロセッサー1001の制御の下、取得部11として機能する。HDD1004は、各種情報を記憶し、プロセッサー1001の制御下で記憶部17(27、37)として機能する。各種情報は、プログラム同様、プロセッサー1001とアクセス可能なROM1002またはRAM1003に格納されても良い。さらに、処理の過程で一時的に生成および保持される各種情報は、例えば、RAM1003に格納される。
入力装置1008は、各種入力を受け付ける。入力装置1008は、例えばキーボードやマウスである。表示装置1009は、各種情報を表示する。表示装置1009は、例えばディスプレイである。
このように、図1、図6および図10に示した各機能部は、プロセッサー1001およびメモリ(HDD1004、ROM1002、RAM1003)を含むハードウェアによって実現される。そして、プロセッサー1001が、メモリに格納されたプログラムを読み出して、実行する事で、図5、図9および図12に示す判別処理が実行される。
また、本実施例に係る処理は、クラウド上で実行される場合もある。この場合、光源1006およびカメラ1007が、被写体が存在する空間に配置される。そして、カメラ1007から画像を受信した判別装置1乃至3(1つ以上のサーバ)が、図5、図9および図12に示す判別処理を実行する。
1、2、3 判別装置
11 取得部
12 候補領域検出部
13、23 抽出部
14、24、34 算出部
15、35 判定部
16 出力部
17、27、37 記憶部
20 特定部
30 距離判定部
10 視線検出システム
1001 プロセッサー
1002 ROM
1003 RAM
1004 HDD
1005 通信装置
1006 光源
1007 カメラ
1008 入力装置
1009 表示装置
1010 媒体読取装置
1011 バス
1012 インターフェース回路

Claims (8)

  1. コンピュータが、
    被写体の顔が写る画像を取得し、
    前記画像から、人間の目の特徴を有する複数の候補領域を検出し、
    前記複数の候補領域各々における、前記画像の空間周波数における高周波成分を抽出し、
    前記複数の候補領域それぞれの前記高周波成分の量に基づき、前記複数の候補領域の各々について、前記目に対応するであろう領域と眉に対応するであろう領域を判別し、
    判別した結果を出力する、
    処理を実行することを特徴とする目と眉の判別方法。
  2. 前記高周波成分は、エッジおよび高輝度の独立画素の少なくとも一方であることを特徴とする請求項1に記載の目と眉の判別方法。
  3. 前記コンピュータが、
    前記高周波成分として、前記複数の候補領域それぞれから、複数のエッジを抽出し、
    前記複数のエッジの方向のうち、支配的な第一の方向を決定し、
    前記複数の領域各々における前記第一の方向に関連するエッジの密度に基づき、前記判別する処理を行うことを特徴とする請求項1に記載の目と眉の判別方法。
  4. 前記コンピュータが、
    前記被写体と、前記画像を撮影したカメラとの距離を算出し、
    前記距離が閾値以下である場合に、前記エッジ密度に基づき、前記判別する処理を行うことを特徴とする請求項3に記載の目と眉の判別方法。
  5. 前記コンピュータが、
    前記距離が前記閾値よりも大きい場合に、前記第一の方向と垂直関係にある第二の方向に関連する他のエッジ密度に基づき、前記判別する処理を行うことを特徴とする請求項4に記載の目と眉の判別方法。
  6. 前記コンピュータが、
    前記候補領域のうち、前記眉に対応するであろう領域を除外した候補領域を対象に、前記被写体の視線を検出する処理
    を実行することを特徴とする請求項1乃至5に記載の目と眉の判別方法。
  7. 被写体の顔が写る画像を取得する取得部と、
    前記画像から、人間の目の特徴を有する複数の候補領域を検出する候補領域検出部と、
    前記複数の候補領域各々における、前記画像の空間周波数における高周波成分を抽出する抽出部と
    前記複数の候補領域それぞれの前記高周波成分の量に基づき、前記複数の候補領域の各々について、前記目に対応するであろう領域と眉に対応するであろう領域を判別する判定部と、
    判別した結果を出力する出力部とを有することを特徴とする目と眉の判別装置。
  8. コンピュータに、
    被写体の顔が写る画像を取得し、
    前記画像から、人間の目の特徴を有する複数の候補領域を検出し、
    前記複数の候補領域各々における、前記画像の空間周波数における高周波成分を抽出し、
    前記複数の候補領域それぞれの前記高周波成分の量に基づき、前記複数の候補領域の各々について、前記目に対応するであろう領域と眉に対応するであろう領域を判別し、
    判別した結果を出力する、
    処理を実行させるための目と眉の判別プログラム。
JP2016094244A 2016-05-10 2016-05-10 判別装置、判別方法、および判別プログラム Pending JP2017202038A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016094244A JP2017202038A (ja) 2016-05-10 2016-05-10 判別装置、判別方法、および判別プログラム
US15/486,700 US20170330026A1 (en) 2016-05-10 2017-04-13 Determining device and determination method
EP17167251.2A EP3244346A1 (en) 2016-05-10 2017-04-20 Determining device and determination method
CN201710307821.3A CN107403133A (zh) 2016-05-10 2017-05-04 确定设备和确定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016094244A JP2017202038A (ja) 2016-05-10 2016-05-10 判別装置、判別方法、および判別プログラム

Publications (1)

Publication Number Publication Date
JP2017202038A true JP2017202038A (ja) 2017-11-16

Family

ID=58672332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016094244A Pending JP2017202038A (ja) 2016-05-10 2016-05-10 判別装置、判別方法、および判別プログラム

Country Status (4)

Country Link
US (1) US20170330026A1 (ja)
EP (1) EP3244346A1 (ja)
JP (1) JP2017202038A (ja)
CN (1) CN107403133A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019230965A1 (ja) * 2018-06-01 2019-12-05 日本電信電話株式会社 物体らしさ推定装置、方法、およびプログラム
JP7444240B2 (ja) 2020-03-27 2024-03-06 日本電気株式会社 画像処理システム、撮像システム、画像処理方法および画像処理プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3452685B2 (ja) 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置
US6636763B1 (en) * 1998-12-10 2003-10-21 Andrew Junker Brain-body actuated system
US7747040B2 (en) * 2005-04-16 2010-06-29 Microsoft Corporation Machine vision system and method for estimating and tracking facial pose
US8542928B2 (en) * 2005-09-26 2013-09-24 Canon Kabushiki Kaisha Information processing apparatus and control method therefor
JP4799104B2 (ja) * 2005-09-26 2011-10-26 キヤノン株式会社 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
JP4307496B2 (ja) * 2007-03-19 2009-08-05 株式会社豊田中央研究所 顔部位検出装置及びプログラム
US7848548B1 (en) * 2007-06-11 2010-12-07 Videomining Corporation Method and system for robust demographic classification using pose independent model from sequence of face images
JP5262243B2 (ja) * 2008-03-31 2013-08-14 アイシン精機株式会社 眼開閉判別装置、及びプログラム
CN101739545A (zh) * 2008-11-21 2010-06-16 上海电机学院 一种人脸检测方法
US10474875B2 (en) * 2010-06-07 2019-11-12 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation
US20130279573A1 (en) * 2012-04-18 2013-10-24 Vixs Systems, Inc. Video processing system with human action detection and methods for use therewith
JP5420049B1 (ja) * 2012-10-31 2014-02-19 Eizo株式会社 拡大率推定装置またはその方法
JP6187817B2 (ja) * 2013-10-09 2017-08-30 アイシン精機株式会社 顔検出装置、方法およびプログラム
KR20150112535A (ko) * 2014-03-28 2015-10-07 한국전자통신연구원 비디오 대표 이미지 관리 장치 및 방법
JP6742405B2 (ja) * 2015-09-29 2020-08-19 バイナリーヴィーアール, インコーポレイテッドBinaryvr, Inc. 表情検出機能を備えたヘッドマウントディスプレイ

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019230965A1 (ja) * 2018-06-01 2019-12-05 日本電信電話株式会社 物体らしさ推定装置、方法、およびプログラム
JP2019211914A (ja) * 2018-06-01 2019-12-12 日本電信電話株式会社 物体らしさ推定装置、方法、およびプログラム
JP7444240B2 (ja) 2020-03-27 2024-03-06 日本電気株式会社 画像処理システム、撮像システム、画像処理方法および画像処理プログラム

Also Published As

Publication number Publication date
EP3244346A1 (en) 2017-11-15
US20170330026A1 (en) 2017-11-16
CN107403133A (zh) 2017-11-28

Similar Documents

Publication Publication Date Title
JP6582604B2 (ja) 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム
JP4845698B2 (ja) 眼部検出装置、眼部検出方法及びプログラム
Antal et al. An ensemble-based system for microaneurysm detection and diabetic retinopathy grading
Niemeijer et al. Automated measurement of the arteriolar-to-venular width ratio in digital color fundus photographs
Tang et al. Splat feature classification with application to retinal hemorrhage detection in fundus images
US20180300589A1 (en) System and method using machine learning for iris tracking, measurement, and simulation
US9489574B2 (en) Apparatus and method for enhancing user recognition
CN108985210A (zh) 一种基于人眼几何特征的视线追踪方法及系统
WO2020098038A1 (zh) 瞳孔跟踪图像处理方法
TWI694809B (zh) 檢測眼球運動的方法、其程式、該程式的記憶媒體以及檢測眼球運動的裝置
CN111212594B (zh) 电子设备和利用电子设备确定结膜充血程度的方法
JP5776323B2 (ja) 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法
JP2000137792A (ja) 眼部検出装置
EP3158921A1 (en) Line of sight detection system and method
US20150278584A1 (en) Object discriminating apparatus and method
JPWO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
EP3207861A2 (en) Detection system and detection method
JP2002366958A (ja) 画像認識方法および画像認識装置
JP2017202038A (ja) 判別装置、判別方法、および判別プログラム
WO2015131710A1 (zh) 人眼定位方法及装置
KR20120049605A (ko) 동공 중심 검출 장치 및 방법
Tan et al. Classification of left and right eye retinal images
Wiśniewska et al. Robust eye gaze estimation
KR101704717B1 (ko) 홍채 인식 장치 및 그 동작 방법
Princye et al. Detection of exudates and feature extraction of retinal images using fuzzy clustering method