JP2013215549A - 画像処理装置、画像処理プログラムおよび画像処理方法 - Google Patents

画像処理装置、画像処理プログラムおよび画像処理方法 Download PDF

Info

Publication number
JP2013215549A
JP2013215549A JP2013012703A JP2013012703A JP2013215549A JP 2013215549 A JP2013215549 A JP 2013215549A JP 2013012703 A JP2013012703 A JP 2013012703A JP 2013012703 A JP2013012703 A JP 2013012703A JP 2013215549 A JP2013215549 A JP 2013215549A
Authority
JP
Japan
Prior art keywords
pupil
candidate
information
size
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013012703A
Other languages
English (en)
Inventor
Satoru Nakajima
哲 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013012703A priority Critical patent/JP2013215549A/ja
Priority to EP13159591.0A priority patent/EP2639743A3/en
Priority to US13/835,052 priority patent/US9082000B2/en
Publication of JP2013215549A publication Critical patent/JP2013215549A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Abstract

【課題】瞳孔を精度良く検出すること。
【解決手段】本実施例に係る画像処理装置100は、瞳孔情報登録部140が、瞳孔を精度良く検出した時点の瞳孔の情報を、直近半径情報記憶部101cに記憶させておく。そして、本実施例にかかる画像処理装置100は、瞳孔候補検出部130が、瞳孔の候補を検出し、瞳孔判定部160は、瞳孔の候補の大きさと、直近半径情報記憶部101cに記憶された瞳孔の大きさの情報とを基にして、瞳孔を判定する。
【選択図】図1

Description

本発明は、画像処理装置等に関する。
利用者の視線を検出し、検出結果を利用してコンピュータを操作する視線インターフェース技術が存在する。視線インターフェースを利用することで、利用者は、マウスやキーボードを操作しなくても、画面上を目視することで、目視した位置に対するズーム操作や、目視した物体の選択操作等を行うことができる。
視線インターフェースは、角膜反射法を用いて視線を検出する。角膜反射法は、近赤外線光源を用いて角膜上に反射を発生させ、反射の中心と瞳孔の中心とを画像処理により求める。そして、角膜反射法は、反射の中心と瞳孔の中心との位置関係から、利用者の視線を検出する。
ここで、上記の角膜反射法は、画像処理により瞳孔を正確に検出することが前提となっている。このため、例えば、瞳孔が瞼の下に移動した場合でも、瞳孔の位置を検出することが求められる。以下において、瞳孔を検出する従来技術の一例について説明する。
従来技術1では、目を撮影した画像の中から、円形に近い部分を瞳孔として推測し、推測した部分を、円形に補完する。そして、従来技術1では、予め定義したテンプレートと、円形に補完した画像とのテンプレートマッチングを実行することで瞳孔を検出する。
従来技術2は、上記の従来技術1のテンプレートマッチングをベースとした技術である。従来技術2では、動画像の処理において、あるフレーム画像で対象物が検出出来なかった場合に、前のフレーム画像の検出結果を用いて補完する。例えば、従来技術2では、フレーム画像1の領域Aで対象物を検出した場合に、次のフレーム画像2でも、領域Aと同領域付近に対象物が存在するはずといったルールを適用する。
従来技術3は、瞳孔の候補を複数検出した場合に、瞳孔の候補のサイズや外接矩形面積比等を用いて、複数の瞳孔の候補の中からいずれかを選択する技術である。例えば、従来技術3では、サイズについて、瞳孔の候補の領域の高さと、幅とが3〜30ピクセル以内であれば、瞳孔とみなす。従来技術3では、利用者が、事前に瞳孔が取り得る値をサイズとして設定しておく。
特開平6−274269号公報 特開2009−254691号公報
「自律移動ロボット用人検出方法」松下電工技報 Vol.53 No.2 「Haar-like特徴を用いたAdaBoostによる交通流計測」ViEw2009論文集 p.104
しかしながら、上述した従来技術では、瞳孔を精度良く検出することができないという問題があった。
例えば、従来技術1では、目の領域の中に鼻の影などが目に映り込んでいる場合に、かかる映り込みと、瞳孔とを区別することができない。また、瞳孔の位置は瞬間的に大きく移動するため、従来技術2の前提となるルールが適用できない場合がある。また、従来技術3で利用されるサイズは、瞳孔の取り得る大まかな範囲を指定するものであるため、類似するサイズの瞳孔の候補が複数存在する場合には、正確な瞳孔を選択することが難しかった。
開示の技術は、上記に鑑みてなされたものであって、瞳孔を精度良く検出することが出来る画像処理装置、画像処理プログラムおよび画像処理方法を提供することを目的とする。
開示の画像処理装置は、記憶部、瞳孔候補検出部、瞳孔判定部を有する。記憶部は、瞳孔の大きさの情報を記憶する。瞳孔候補検出部は、目領域の画像から円形でない瞳孔の候補を検出する。瞳孔判定部は、瞳孔候補検出部が検出した瞳孔の候補の形状を補完し、形状を補完した瞳孔の候補の大きさと、記憶部に記憶された瞳孔の大きさとを基にして、各瞳孔の候補から瞳孔を判定する。
開示の画像処理装置によれば、瞳孔を精度良く検出することができるという効果を奏する。
図1は、本実施例に係る画像処理装置の構成を示す図である。 図2は、テンプレート情報のデータ構造の一例を示す図である。 図3は、瞳孔候補記憶部のデータ構造の一例を示す図である。 図4は、直近半径情報のデータ構造の一例を示す図である。 図5は、明るさ瞳孔情報のデータ構造の一例を示す図である。 図6は、目の領域の一例を示す図である。 図7は、瞳孔候補検出部の処理を説明するための図である。 図8は、尤度を算出する処理を説明するための図である。 図9は、尤度が所定の閾値未満となる場合の瞳孔候補群記憶部のデータ構造の一例を示す図である。 図10は、画像処理装置の処理の一例を説明するための図である。 図11は、明るさ瞳孔情報を生成する処理手順を示すフローチャートである。 図12は、本実施例に係る画像処理装置が瞳孔を判定する処理手順を示すフローチャートである。 図13は、画像処理プログラムを実行するコンピュータの一例を示す図である。
以下に、本願の開示する画像処理装置、画像処理プログラムおよび画像処理方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係る画像処理装置の構成を示す図である。図1に示すように、この画像処理装置100は、カメラ50に接続される。画像処理装置100は、テンプレート記憶部101a、瞳孔候補群記憶部101b、直近半径情報記憶部101c、明るさ瞳孔情報記憶部101dを有する。また、画像処理装置100は、タイマ105、画像取得部110、目領域検出部120、瞳孔候補検出部130、瞳孔情報登録部140、瞳孔情報学習部150、瞳孔判定部160を有する。
カメラ50は、撮像範囲の画像を撮影する撮像装置である。本実施例では、例えば、カメラ50が撮影した画像には、利用者の顔画像が含まれているものとする。カメラ50は、撮影した画像のデータを、画像処理装置100に順次出力する。
テンプレート記憶部101aは、様々な半径のテンプレート情報を記憶する記憶部である。図2は、テンプレート情報のデータ構造の一例を示す図である。例えば、図2に示す例では、半径の異なる円形のテンプレート1A、1B、1Cが含まれる。
瞳孔候補群記憶部101bは、瞳孔の候補に関する各種の情報を記憶する記憶部である。図3は、瞳孔候補記憶部のデータ構造の一例を示す図である。図3に示すように、瞳孔候補記憶部101bは、ID(Identification)、X座標、Y座標、半径、尤度を対応付ける。IDは、瞳孔の候補を一意に識別する情報である。X座標、Y座標は、画像データ上の瞳孔の座標を示す情報である。半径は、瞳孔の候補の半径を示す情報である。尤度は、瞳孔の候補が、瞳孔である確からしさの度合いを示す情報である。尤度が大きいほど、より確からしい。
直近半径情報記憶部101cは、後述の瞳孔情報登録部140が最後に検出した瞳孔の大きさの情報を記憶する記憶部である。瞳孔情報登録部140が最後に検出した瞳孔の大きさの情報を、直近半径情報と表記する。図4は、直近半径情報のデータ構造の一例を示す図である。図4に示すように、この直近半径情報は、直近半径および時刻を対応付ける。直近半径は、瞳孔情報登録部140が最後に検出した瞳孔の半径を示す情報である。時刻は、瞳孔情報登録部140が、最後に瞳孔を検出した時刻を示す情報である。直近半径情報は、瞳孔情報登録部140が瞳孔を検出する度に更新される。
明るさ瞳孔情報記憶部101dは、明るさと瞳孔の半径との関係を示す明るさ瞳孔情報を記憶する記憶部である。図5は、明るさ瞳孔情報のデータ構造の一例を示す図である。図5の横軸は明るさを示し、図5の縦軸は半径を示す。図5に示すように、明るくなるにつれて、瞳孔の半径は小さくなる。明るさ瞳孔情報は、後述する瞳孔情報学習部150によって生成される。
上記の各記憶部101a〜101dは、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子に対応する。または、各記憶部101a〜101dは、ハードディスク、光ディスクなどの記憶装置に対応する。
タイマ105は、時刻情報を瞳孔情報登録部140および瞳孔判定部160に出力するタイマである。
画像取得部110は、カメラ50から順次画像データを取得し、画像データを目領域検出部120に出力する処理部である。
目領域検出部120は、画像データから、目の領域を検出する処理部である。目領域検出部120は、目の領域の情報を、瞳孔候補検出部130に出力する。図6は、目の領域の一例を示す図である。
目領域検出部120が、目の領域を検出する処理の一例について説明する。目領域検出部120は、画像データから、目らしい特徴を持つ領域を、目の領域として検出する。例えば、目領域検出部120は、画像データから円形状の領域を特定し、該円形状周辺の輝度値が、画像データの他の領域の輝度値と比較して低い場合に、該円形状周辺の領域を目の領域として検出する。その他、目領域検出部120は、公知の技術を利用して、目の領域を抽出してもよい。例えば、公知技術には<「部分特徴テンプレートとグローバル制約による顔器官特徴の抽出」電子情報通信学会論文誌.D−II、情報・システム、II−情報処理J77−D−2(8)、1601−1609、1994−08−25>がある。
上記公知技術は、顔全体の形状の変化より局所部分、つまり目等の顔器官のコーナー部分の変化が小さいという性質を用いて、目等の領域を検出する技術である。顔器官を検出する場合、顔全体の形状を一つの単位として扱うと、個人性や表情、照明条件、顔の向きなどによって、対象となる画像が変形し、認識結果が安定したいためである。例えば、公知技術は、顔器官の部分特徴を表す部分特徴テンプレート(PFT:Partial Feature Template)を利用する。
部分特徴テンプレートは、例えば、目のコーナー部分のエッジ画像を2値化して得られたパターンを一般化して作成されたモデルであり、エッジ部分、非エッジ部分、非処理部分の三つの部分に構成される。例えば、目領域検出部120は、かかる部分特徴テンプレートと、画像データとをマッチングして、類似度を計算し、類似度が閾値以上となる領域を、目の領域として検出する。その他の具体的な処理は、上記公知技術に開示されているため、ここでは説明を省略する。
また、目領域検出部120は、目の領域の明るさを算出し、算出した明るさの情報を、瞳孔情報学習部150および瞳孔判定部160に出力する。例えば、目の領域の明るさは、目の領域に含まれる各画素の輝度値の平均値に対応する。
瞳孔候補検出部130は、目の領域の情報から、瞳孔の候補を検出し、検出結果を瞳孔候補群記憶部101bに記憶させる処理部である。以下において、瞳孔候補検出部130の処理について具体的に説明する。瞳孔候補検出部130は、目の領域の情報を取得する度に、下記の処理を繰り返し実行し、瞳孔候補群記憶部101bを更新する。
図7は、瞳孔候補検出部の処理を説明するための図である。図7に示すように、瞳孔候補検出部130は、目の領域の情報10上を、テンプレート2を走査させ、テンプレート2の輪郭と一部一致する領域を、瞳孔の候補として検出する。瞳孔候補検出部130は、テンプレート2の情報を、テンプレート記憶部101aから取得する。図7に示すテンプレート2は、図2に示したテンプレート1A、1B、1Cのいずれかに対応する。瞳孔候補検出部130は、ある大きさのテンプレート2の走査が終了した後に、テンプレート2の大きさを変更し、上記処理を繰り返し実行することで、瞳孔の候補を検出する。
瞳孔候補検出部130は、瞳孔の候補をテンプレートにより検出した場合には、IDと、瞳孔の候補のX座標、Y座標、半径を対応付けて、瞳孔候補群記憶部101bに記憶させる。ここで、瞳孔の候補のX座標、Y座標は、瞳孔の候補をテンプレートによって円形に補完した場合の、中心座標とする。また、瞳孔の候補の半径は、瞳孔の候補をテンプレートによって円形に補完した場合の、円の半径とする。
また、瞳孔候補検出部130は、瞳孔の候補から尤度を算出する。図8は、尤度を算出する処理を説明するための図である。図8において、2はテンプレートを示し、3は瞳孔の候補に対応する。瞳孔候補検出部130は、テンプレート2の円周上にある画素p1の輝度値と、該画素p1に隣接するテンプレート2外側の画素p2の輝度値とを比較する。瞳孔候補検出部130は、画素p1と画素p2との各組みにおいて、画素p1の輝度値と画素p2の輝度値との差が閾値以上となる画素p1の数を計数する。以下の説明において、画素p1の輝度値と画素p2の輝度値との差が閾値以上となる画素p1の数を円周画素数と表記する。
瞳孔候補検出部130は、式(1)を基にして、瞳孔の候補の尤度を算出する。式(1)において、Tは、テンプレート上の画素p1の総数である。Nは、円周画素数である。瞳孔候補検出部130は、瞳孔の候補毎に図8に示した処理を実行し、瞳孔の候補毎に尤度をそれぞれ算出する。瞳孔候補算出部130は、算出した尤度を、瞳孔候補群記憶部101bに記憶させる。
尤度=N/T・・・(1)
瞳孔情報登録部140は、瞳孔候補群記憶部101bを基にして、直近半径情報を生成する処理部である。瞳孔情報登録部140は、瞳孔候補群記憶部101bを参照し、尤度が所定の閾値を超え、各瞳孔の候補のうち、尤度が最大となる瞳孔の候補を、瞳孔であると判定する。瞳孔情報登録部140が瞳孔と判定した瞳孔の候補の半径を直近半径と表記する。瞳孔情報登録部140は、直近半径と、タイマ105から取得する時刻とを対応付けた直近半径情報を生成し、直近半径情報記憶部101cに記憶させる。
例えば、図3を用いて、瞳孔情報登録部140の処理について説明する。所定の閾値を「0.8」とする。図3に示す例では、所定の閾値を超え、尤度が最大となる瞳孔の候補は、ID「1」の瞳孔の候補となる。この場合には、直近半径は「5」となる。
なお、瞳孔情報登録部140は、所定の閾値を超える瞳孔の候補が存在しない場合には、瞳孔候補群記憶部101bのデータが更新されるまで、処理を待機する。瞳孔情報登録部140は、瞳孔候補群記憶部101bのデータが更新された場合には、上記処理を再度実行する。瞳孔情報登録部140は、最新時刻の直近半径情報を、直近半径情報記憶部101cに登録する。
瞳孔情報学習部150は、瞳孔候補群記憶部101bを基にして、明るさ瞳孔情報を生成する処理部である。瞳孔情報学習部150は、瞳孔候補群記憶部101bを参照し、尤度が所定の閾値を超え、各瞳孔の候補のうち、尤度が最大となる瞳孔の候補を、瞳孔であると判定する。瞳孔情報学習部150は、判定した瞳孔の半径と、目の領域の明るさとを対応付けて、明るさ瞳孔情報を生成する。
瞳孔情報学習部150は、明るさの情報を、目領域検出部130から取得する。瞳孔情報学習部150が、各瞳孔の候補から、瞳孔を判定する処理は、上記の瞳孔情報登録部140と同様である。瞳孔情報学習部150は、瞳孔候補群記憶部101bのデータが更新される度に、上記処理を繰り返し実行することで、明るさ瞳孔情報を生成する。
瞳孔判定部160は、瞳孔候補群記憶部101b、直近半径情報記憶部101c、明るさ瞳孔情報記憶部101dを基にして、瞳孔を判定する処理部である。瞳孔判定部160は、判定結果を外部装置に出力する。例えば、判定結果には、瞳孔の中心座標が含まれる。外部装置は、角膜反射法により視線を検出する視線検出装置に対応する。
まず、瞳孔判定部160は、瞳孔候補記憶部101bを参照し、尤度が所定の閾値を超える瞳孔の候補が存在するか否かを判定する。瞳孔判定部160は、尤度が所定の閾値を超える瞳孔の候補が存在する場合には、各瞳孔の候補のうち、尤度が最大となる瞳孔の候補を、瞳孔であると判定する。
続いて、尤度が所定の閾値を超える瞳孔の候補が存在しない場合について説明する。瞳孔判定部160は、現在の時刻と、直近半径情報の時刻とを比較する。瞳孔判定部160は、現在の時刻を、タイマ105から取得する。瞳孔判定部160は、直近半径情報を、直近半径情報記憶部101cから取得する。以下において、現在の時刻と、直近半径情報の時刻との時間差が所定の時間未満の場合と、所定の時間以上の場合に分けて、瞳孔判定部160の処理について説明する。
現在の時刻と、直近半径情報の時刻との時間差が、所定の時間未満の場合について説明する。瞳孔判定部160は、直近半径情報の半径に最も近い半径の瞳孔の候補を、瞳孔として判定する。図9は、尤度が所定の閾値未満となる場合の瞳孔候補群記憶部のデータ構造の一例を示す図である。図9を用いて、瞳孔判定部160の処理を説明する。なお、所定の閾値を「0.8」とする。また、直近半径情報に含まれる直近半径を「3」とする。
瞳孔判定部160は、直近半径に最も近い半径の瞳孔の候補を、瞳孔として判定する。図9に示す例では、直近半径「3」に最も近い半径の瞳孔の候補は、ID「2」の瞳孔の候補となる。このため、瞳孔判定部160は、ID「2」の瞳孔の候補を、瞳孔として判定する。
現在の時刻と、直近半径情報の時刻との時間差が、所定の時間以上の場合について説明する。瞳孔判定部160は、現在の明るさと、明るさ瞳孔情報とを比較して、現在の明るさに対応する半径を判定する。瞳孔判定部160は、現在の明るさの情報を、目領域検出部120から取得する。瞳孔判定部160は、明るさ瞳孔情報を、明るさ瞳孔情報記憶部101dから取得する。瞳孔判定部160は、現在の明るさに対応する半径に最も近い半径の瞳孔の候補を、瞳孔として判定する。
例えば、現在の明るさに対応する半径を「4」とする。図9に示す例では、直近半径「4」に最も近い半径の瞳孔の候補は、ID「3」の瞳孔の候補となる。このため、瞳孔判定部160は、ID「3」の瞳孔の候補を、瞳孔として判定する。
次に、画像データの一例を用いて、画像処理装置100の処理の一例を説明する。図10は、画像処理装置の処理の一例を説明するための図である。
図10に示す例では、画像処理装置100は、画像11a、11b、11c、11dの順に処理を行う。各画像11a〜11dは、目領域検出部120により検出される目の領域の画像である。画像11a、11b、11c、11dの時刻をそれぞれ、t、t+1、t+2、t+3とする。
画像11aの処理について説明する。画像処理装置100の瞳孔候補検出部130は、テンプレートマッチングを実行し、画像11aから瞳孔の候補を検出する。例えば、瞳孔候補検出部130は、画像11aから、瞳孔の候補12a、12bを検出する。瞳孔の候補12bの尤度が所定の閾値以上であり、瞳孔の候補12bの尤度は、瞳孔の候補12aの尤度よりも大であるとする。画像処理装置100の瞳孔判定部160は、瞳孔の候補12bを瞳孔であると判定する。また、画像処理装置100の瞳孔情報登録部140は、瞳孔12bの半径を直近半径とした直近半径情報を生成する。
画像11bの処理について説明する。画像処理装置100の瞳孔候補検出部130は、テンプレートマッチングを実行し、画像11bから瞳孔の候補を検出する。例えば、瞳孔候補検出部130は、画像11bから、瞳孔の候補13a、13b、13cを検出する。瞳孔の候補13a〜13cの尤度を、所定の閾値未満とする。瞳孔判定部160は、直近の瞳孔12bの半径と、円形に補完した瞳孔の候補14a、14b、14cの半径とを比較して、瞳孔を判定する。瞳孔の候補13a、13b、13bを補完したものを、それぞれ14a〜14cとする。画像処理装置100は、瞳孔12bの半径に最も近い瞳孔の候補14bを瞳孔として判定する。なお、画像11bの時刻と、直近半径情報の時刻との時間差を、所定時間未満とする。
画像11cの処理について説明する。画像処理装置100の瞳孔候補検出部130は、テンプレートマッチングを実行し、画像11cから瞳孔の候補を検出する。例えば、瞳孔候補検出部130は、画像11cから、瞳孔の候補15a、15b、15c、15dを検出する。瞳孔の候補15a〜15dの尤度を、所定の閾値未満とする。瞳孔判定部160は、直近の瞳孔12bの半径と、円形に補完した瞳孔の候補16a、16b、16c、16dの半径とを比較して、瞳孔を判定する。瞳孔の候補15a、15b、15b、15dを補完したものを、それぞれ16a〜16dとする。画像処理装置100は、瞳孔12bの半径に最も近い瞳孔の候補16bを瞳孔と判定する。なお、画像11cの時刻と、直近半径情報の時刻との時間差を、所定時間未満とする。
なお、画像11cの時刻と、直近半径情報の時刻との時刻差が所定時間以上の場合には、瞳孔判定部160は、現在の明るさと、明るさ瞳孔情報とを比較して、明るさに対応する半径を判定する。そして、瞳孔判定部160は、明るさに対応する半径を基にして、各瞳孔の候補から、瞳孔を判定する。
画像11dの処理について説明する。画像処理装置100の瞳孔候補検出部130は、テンプレートマッチングを実行し、画像11dから瞳孔の候補を検出する。例えば、瞳孔候補検出部130は、画像11dから、瞳孔の候補17a、17b、17cを検出する。瞳孔の候補17cの尤度が所定の閾値以上であり、瞳孔の候補17cの尤度は、瞳孔の候補17a、17bよりも大であるとする。画像処理装置100の瞳孔判定部160は、瞳孔17cを瞳孔であると判定する。また、画像処理装置100の瞳孔情報登録部140は、瞳孔の候補17cの半径を直近半径とした直近半径情報を生成する。
次に、本実施例に係る画像処理装置が明るさ瞳孔情報を生成する処理の処理手順について説明する。図11は、明るさ瞳孔情報を生成する処理手順を示すフローチャートである。図11に示す処理は、画像データを取得したことを契機にして実行される。図11に示すように、画像処理装置100は、画像データを取得し(ステップS101)、目領域を検出する(ステップS102)。
画像処理装置100は、テンプレートマッチングを実行し(ステップS103)、尤度を算出する(ステップS104)。画像処理装置100は、尤度が閾値以上となる瞳孔候補が存在するか否かを判定する(ステップS105)。画像処理装置100は、尤度が閾値以上となる瞳孔の候補が存在しない場合には(ステップS105,No)、ステップS101に移行する。
一方、画像処理装置100は、尤度が閾値以上となる瞳孔の候補が存在する場合には(ステップS105,Yes)、尤度が最大となる瞳孔の候補を瞳孔と判定する(ステップS106)。
画像処理装置100は、目領域内の明るさを算出し(ステップS107)、明るさと瞳孔の半径との関係を明るさ瞳孔情報記憶部101dに登録し(ステップS108)、ステップS101に移行する。
次に、本実施例に係る画像処理装置が瞳孔を判定する処理の処理手順について説明する。図12は、本実施例に係る画像処理装置が瞳孔を判定する処理手順を示すフローチャートである。図12に示す処理は、画像データを取得したことを契機にして実行される。図12に示すように、画像処理装置100は、画像データを取得し(ステップS201)、目領域を検出する(ステップS202)。
画像処理装置100は、テンプレートマッチングを実行し(ステップS203)、尤度を算出する(ステップS204)。画像処理装置100は、尤度が閾値以上となる瞳孔の候補が存在するか否かを判定する(ステップS205)。
画像処理装置100は、尤度が閾値以上となる瞳孔の候補が存在する場合には(ステップS205,Yes)、尤度が最大となる瞳孔の候補を瞳孔と判定し、直近半径情報を更新する(ステップS206)。画像処理装置100は、ステップS201に移行する。
画像処理装置100は、尤度が閾値以上となる瞳孔の候補が存在しない場合には(ステップS205,No)、直近半径情報の時刻から所定時間以上経過しているか否かを判定する(ステップS207)。
画像処理装置100は、直近半径情報の時刻から所定時間以上経過している場合には(ステップS207,Yes)、明るさに対応する半径を基準にして、瞳孔の候補から瞳孔を判定し(ステップS208)、ステップS201に移行する。
画像処理装置100は、直近半径情報の時刻から所定時間以上経過していない場合には(ステップS207,No)、直近半径を基準にして、瞳孔の候補から瞳孔を判定し(ステップS209)、ステップS201に移行する。
次に、本実施例に係る画像処理装置100の効果について説明する。画像処理装置100は、予め、瞳孔を精度良く検出できた場合に、かかる瞳孔の大きさを学習しておく。そして、画像処理装置100は、目領域から検出した瞳孔の候補を補完し、補完した瞳孔の候補の大きさと、予め学習しておいた直近の瞳孔の大きさとを基にして、各瞳孔の候補から瞳孔を判定する。このため、例えば、瞳孔が瞼の下に移動した場合にでも、瞳孔を精度よく検出することができる。
また、画像処理装置100は、瞳孔を精度良く検出する度に、直近半径情報を更新するので、瞳孔の変化に順次対応して、瞳孔を精度よく検出することができる。
また、画像処理装置100は、瞳孔の大きさを学習した時刻から所定時間経過した後に、瞳孔の候補から瞳孔を判定する場合には、明るさと瞳孔の大きさとの関係を基にして、現在の明るさに対応する瞳孔の大きさを特定する。そして、画像処理装置100は、特定した明るさに対応する瞳孔の大きさと、瞳孔の候補の大きさとを基にして、瞳孔を判定する。このため、明るさに応じて変動する瞳孔の大きさに対応して、精度良く、瞳孔を判定することができる。
ところで、上記の画像取得部110、目領域検出部120、瞳孔候補検出部130、瞳孔情報登録部140、瞳孔情報学習部150、瞳孔判定部160等の各処理部は、下記の装置に対応する。例えば、各処理部は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、各処理部は、例えば、CPUやMPU(Micro Processing Unit)等の電子回路に対応する。
また、実施例に示した画像処理装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部がCPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図13は、画像処理プログラムを実行するコンピュータの一例を示す図である。図13に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、入力装置202と、ディスプレイ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置205とを有する。また、コンピュータ200は、カメラ206を有する。また、コンピュータ200は、各種情報を一時記憶するRAM207と、ハードディスク装置208を有する。そして、各装置201〜208は、バス209に接続される。
ハードディスク装置208は、画像取得プログラム208a、目領域検出プログラム208b、瞳孔候補検出プログラム208c、瞳孔情報登録プログラム208d、瞳孔情報学習プログラム208e、瞳孔判定プログラム208fを記憶する。CPU201は、各プログラム208a〜208fを読み出して、RAM207に展開する。
画像取得プログラム208aは、画像取得プロセス207aとして機能する。目領域検出プログラム208bは、目領域検出プロセス207bとして機能する。瞳孔候補検出プログラム208cは、瞳孔候補検出プロセス207cとして機能する。瞳孔情報登録プログラム208dは、瞳孔情報登録プロセス207dとして機能する。瞳孔情報学習プログラム208eは、瞳孔情報学習プロセス207eとして機能する。瞳孔判定プログラム208fは、瞳孔判定プロセス207fとして機能する。
例えば、画像取得プロセス207aは、画像取得部110に対応する。目領域検出プロセス207bは、目領域検出部120に対応する。瞳孔候補検出プロセス207cは、瞳孔候補検出部130に対応する。瞳孔情報学習プロセス207eは、瞳孔情報学習部150に対応する。瞳孔判定プロセス207fは、瞳孔判定部160に対応する。
なお、各プログラム208a〜208fについては、必ずしも最初からハードディスク装置208に記憶させておかなくてもよい。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200がこれらから各プログラム208a〜208fを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)瞳孔の大きさの情報を記憶する記憶部と、
目領域の画像から円形でない瞳孔の候補を検出する瞳孔候補検出部と、
前記瞳孔候補検出部が検出した瞳孔の候補の形状を補完し、形状を補完した瞳孔の候補の大きさと、前記記憶部に記憶された瞳孔の大きさとを基にして、各瞳孔の候補から瞳孔を判定する瞳孔判定部と
を有することを特徴とする画像処理装置。
(付記2)前記目領域の画像から円形の瞳孔を検出し、検出した瞳孔の大きさを前記記憶部に記憶させる瞳孔情報登録部を更に有することを特徴とする付記1に記載の画像処理装置。
(付記3)前記目領域の画像から円形の瞳孔を検出した場合に、検出した瞳孔の大きさと前記目領域の明るさとを対応付けた明るさ瞳孔情報を前記記憶部に更に記憶させる瞳孔情報学習部を更に有し、
前記瞳孔情報登録部は、瞳孔を検出した検出時刻と、瞳孔の大きさとを対応付けて前記記憶部に記憶させ、
前記瞳孔判定部は、瞳孔の候補を検出した時刻と、前記記憶部の検出時刻との差が所定時間以上の場合に、目領域の明るさと前記明るさ瞳孔情報とを比較して、瞳孔の大きさを特定し、特定した瞳孔の大きさを基にして、各瞳孔の候補から瞳孔を判定することを特徴とする付記2に記載の画像処理装置。
(付記4)コンピュータに、
瞳孔の大きさの情報を記憶装置に記憶し、
目領域の画像から円形でない瞳孔の候補を検出し、
前記瞳孔の候補の形状を補完し、形状を補完した瞳孔の候補の大きさと、前記記憶装置に記憶された瞳孔の大きさとを基にして、各瞳孔の候補から瞳孔を判定する
各処理を実行させることを特徴とする画像処理プログラム。
(付記5)前記記憶装置に記憶する処理は、目領域の画像から円形の瞳孔を検出し、検出した瞳孔の大きさを前記記憶装置に記憶することを特徴とする付記4に記載の画像処理プログラム。
(付記6)前記瞳孔の大きさを記憶する処理は、瞳孔を検出した検出時刻と、瞳孔の大きさとを対応付けて前記記憶装置に記憶させ、
前記目領域の画像から円形の瞳孔を検出した場合に、検出した瞳孔の大きさと前記目領域の明るさとを対応付けた明るさ瞳孔情報を前記記憶装置に更に記憶させる処理を更に実行させ、
前記瞳孔を判定する処理は、瞳孔の候補を検出した時刻と、前記記憶装置の検出時刻との差が所定時間以上の場合に、目領域の明るさと前記明るさ瞳孔情報とを比較して、瞳孔の大きさを特定し、特定した瞳孔の大きさを基にして、各瞳孔の候補から瞳孔を判定することを特徴とする付記5に記載の画像処理プログラム。
(付記7)コンピュータが、
瞳孔の大きさの情報を記憶装置に記憶し、
目領域の画像から円形でない瞳孔の候補を検出し、
前記瞳孔の候補の形状を補完し、形状を補完した瞳孔の候補の大きさと、前記記憶装置に記憶された瞳孔の大きさとを基にして、各瞳孔の候補から瞳孔を判定する
各処理を実行することを特徴とする画像処理方法。
(付記8)前記記憶装置に記憶する処理は、目領域の画像から円形の瞳孔を検出し、検出した瞳孔の大きさを前記記憶装置に記憶することを特徴とする付記7に記載の画像処理方法。
(付記9)前記瞳孔の大きさを記憶する処理は、瞳孔を検出した検出時刻と、瞳孔の大きさとを対応付けて前記記憶装置に記憶させ、
前記目領域の画像から円形の瞳孔を検出した場合に、検出した瞳孔の大きさと前記目領域の明るさとを対応付けた明るさ瞳孔情報を前記記憶装置に更に記憶させる処理を更に実行し、
前記瞳孔を判定する処理は、瞳孔の候補を検出した時刻と、前記記憶装置の検出時刻との差が所定時間以上の場合に、目領域の明るさと前記明るさ瞳孔情報とを比較して、瞳孔の大きさを特定し、特定した瞳孔の大きさを基にして、各瞳孔の候補から瞳孔を判定することを特徴とする付記8に記載の画像処理方法。
50 カメラ
100 画像処理装置
110 画像取得部
120 目領域検出部
130 瞳孔候補検出部
140 瞳孔情報登録部
150 瞳孔情報学習部
160 瞳孔判定部

Claims (5)

  1. 瞳孔の大きさの情報を記憶する記憶部と、
    目領域の画像から円形でない瞳孔の候補を検出する瞳孔候補検出部と、
    前記瞳孔候補検出部が検出した瞳孔の候補の形状を補完し、形状を補完した瞳孔の候補の大きさと、前記記憶部に記憶された瞳孔の大きさとを基にして、各瞳孔の候補から瞳孔を判定する瞳孔判定部と
    を有することを特徴とする画像処理装置。
  2. 前記目領域の画像から円形の瞳孔を検出し、検出した瞳孔の大きさを前記記憶部に記憶させる瞳孔情報登録部を更に有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記目領域の画像から円形の瞳孔を検出した場合に、検出した瞳孔の大きさと前記目領域の明るさとを対応付けた明るさ瞳孔情報を前記記憶部に更に記憶させる瞳孔情報学習部を更に有し、
    前記瞳孔情報登録部は、瞳孔を検出した検出時刻と、瞳孔の大きさとを対応付けて前記記憶部に記憶させ、
    前記瞳孔判定部は、瞳孔の候補を検出した時刻と、前記記憶部の検出時刻との差が所定時間以上の場合に、目領域の明るさと前記明るさ瞳孔情報とを比較して、瞳孔の大きさを特定し、特定した瞳孔の大きさを基にして、各瞳孔の候補から瞳孔を判定することを特徴とする請求項2に記載の画像処理装置。
  4. コンピュータに、
    瞳孔の大きさの情報を記憶装置に記憶し、
    目領域の画像から円形でない瞳孔の候補を検出し、
    前記瞳孔の候補の形状を補完し、形状を補完した瞳孔の候補の大きさと、前記記憶装置に記憶された瞳孔の大きさとを基にして、各瞳孔の候補から瞳孔を判定する
    各処理を実行させることを特徴とする画像処理プログラム。
  5. コンピュータが、
    瞳孔の大きさの情報を記憶装置に記憶し、
    目領域の画像から円形でない瞳孔の候補を検出し、
    前記瞳孔の候補の形状を補完し、形状を補完した瞳孔の候補の大きさと、前記記憶装置に記憶された瞳孔の大きさとを基にして、各瞳孔の候補から瞳孔を判定する
    各処理を実行することを特徴とする画像処理方法。
JP2013012703A 2012-03-16 2013-01-25 画像処理装置、画像処理プログラムおよび画像処理方法 Pending JP2013215549A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013012703A JP2013215549A (ja) 2012-03-16 2013-01-25 画像処理装置、画像処理プログラムおよび画像処理方法
EP13159591.0A EP2639743A3 (en) 2012-03-16 2013-03-15 Image processing device, image processing program, and image processing method
US13/835,052 US9082000B2 (en) 2012-03-16 2013-03-15 Image processing device and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012061203 2012-03-16
JP2012061203 2012-03-16
JP2013012703A JP2013215549A (ja) 2012-03-16 2013-01-25 画像処理装置、画像処理プログラムおよび画像処理方法

Publications (1)

Publication Number Publication Date
JP2013215549A true JP2013215549A (ja) 2013-10-24

Family

ID=48044550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013012703A Pending JP2013215549A (ja) 2012-03-16 2013-01-25 画像処理装置、画像処理プログラムおよび画像処理方法

Country Status (3)

Country Link
US (1) US9082000B2 (ja)
EP (1) EP2639743A3 (ja)
JP (1) JP2013215549A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101619656B1 (ko) * 2014-12-03 2016-05-10 현대자동차주식회사 시선추적장치 및 그의 동공검출방법
KR20160090867A (ko) * 2013-11-27 2016-08-01 선전 후이딩 테크놀로지 컴퍼니 리미티드 아이 트래킹 및 사용자 반응 검출
EP3109795A1 (en) 2015-06-23 2016-12-28 Fujitsu Limited Detection method and system
WO2019117247A1 (ja) * 2017-12-14 2019-06-20 オムロン株式会社 瞳孔検出装置および検出システム
US11740692B2 (en) 2013-11-09 2023-08-29 Shenzhen GOODIX Technology Co., Ltd. Optical eye tracking

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101610525B1 (ko) * 2014-10-20 2016-04-07 현대자동차주식회사 조도를 고려한 동공 검출 장치 및 그 방법
KR20170011362A (ko) * 2015-07-22 2017-02-02 삼성전자주식회사 영상 처리 장치 및 그 방법
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
JP6856017B2 (ja) * 2017-12-28 2021-04-07 株式会社Jvcケンウッド 角膜反射位置検出装置、視線検出装置及び角膜反射位置検出方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846836A (ja) * 1994-07-29 1996-02-16 Canon Inc 視線検出方法及び装置並びに撮像装置
JP2007164518A (ja) * 2005-12-14 2007-06-28 Denso Corp 楕円検出方法、画像認識装置、制御装置
JP2009254691A (ja) * 2008-04-18 2009-11-05 Calsonic Kansei Corp 瞳孔検知方法及び装置
JP2012024154A (ja) * 2010-07-20 2012-02-09 Panasonic Corp 瞳孔検出装置及び瞳孔検出方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274269A (ja) 1993-03-24 1994-09-30 Nissan Motor Co Ltd 視線入力装置
US7206435B2 (en) 2002-03-26 2007-04-17 Honda Giken Kogyo Kabushiki Kaisha Real-time eye detection and tracking under various light conditions
JP4033180B2 (ja) 2004-07-14 2008-01-16 松下電器産業株式会社 瞳孔検出装置、虹彩認証装置及び瞳孔検出方法
JP3966309B2 (ja) * 2004-07-14 2007-08-29 松下電器産業株式会社 瞳孔検出装置および虹彩認証装置
JP2006048204A (ja) * 2004-08-02 2006-02-16 Matsushita Electric Ind Co Ltd 瞳孔検出装置および虹彩認証装置
WO2006041426A2 (en) * 2004-09-15 2006-04-20 Adobe Systems Incorporated Locating a feature in a digital image
KR101078466B1 (ko) * 2007-01-19 2011-10-31 아사히 가세이 가부시키가이샤 각성 상태 판정 모델 생성 장치, 각성 상태 판정 장치, 경고 장치, 차량, 각성 상태 판정 모델 생성 방법, 각성 상태 판정 방법, 각성 상태 판정 모델 생성 프로그램을 기록한 컴퓨터 판독 가능 기록매체, 및 각성 상태 판정 프로그램을 기록한 컴퓨터 판독 가능 기록매체
DE102007056528B3 (de) 2007-11-16 2009-04-02 Seereal Technologies S.A. Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren
CA2736609C (en) * 2008-02-14 2016-09-20 Iristrac, Llc System and method for animal identification using iris images
US8503737B2 (en) * 2010-09-27 2013-08-06 Panasonic Corporation Visual line estimating apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846836A (ja) * 1994-07-29 1996-02-16 Canon Inc 視線検出方法及び装置並びに撮像装置
JP2007164518A (ja) * 2005-12-14 2007-06-28 Denso Corp 楕円検出方法、画像認識装置、制御装置
JP2009254691A (ja) * 2008-04-18 2009-11-05 Calsonic Kansei Corp 瞳孔検知方法及び装置
JP2012024154A (ja) * 2010-07-20 2012-02-09 Panasonic Corp 瞳孔検出装置及び瞳孔検出方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11740692B2 (en) 2013-11-09 2023-08-29 Shenzhen GOODIX Technology Co., Ltd. Optical eye tracking
KR20160090867A (ko) * 2013-11-27 2016-08-01 선전 후이딩 테크놀로지 컴퍼니 리미티드 아이 트래킹 및 사용자 반응 검출
KR101855196B1 (ko) * 2013-11-27 2018-06-08 선전 구딕스 테크놀로지 컴퍼니, 리미티드 아이 트래킹 및 사용자 반응 검출
US10416763B2 (en) 2013-11-27 2019-09-17 Shenzhen GOODIX Technology Co., Ltd. Eye tracking and user reaction detection
KR101619656B1 (ko) * 2014-12-03 2016-05-10 현대자동차주식회사 시선추적장치 및 그의 동공검출방법
EP3109795A1 (en) 2015-06-23 2016-12-28 Fujitsu Limited Detection method and system
JP2017010337A (ja) * 2015-06-23 2017-01-12 富士通株式会社 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム
US10147022B2 (en) 2015-06-23 2018-12-04 Fujitsu Limited Detection method and system
WO2019117247A1 (ja) * 2017-12-14 2019-06-20 オムロン株式会社 瞳孔検出装置および検出システム
JP2019103744A (ja) * 2017-12-14 2019-06-27 オムロン株式会社 瞳孔検出装置および検出システム

Also Published As

Publication number Publication date
US9082000B2 (en) 2015-07-14
EP2639743A2 (en) 2013-09-18
EP2639743A3 (en) 2014-10-08
US20130243251A1 (en) 2013-09-19

Similar Documents

Publication Publication Date Title
JP2013215549A (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
WO2017152794A1 (en) Method and device for target tracking
US9792494B2 (en) Image processing apparatus, method, and program capable of recognizing hand gestures
WO2019041519A1 (zh) 目标跟踪装置、方法及计算机可读存储介质
US9213897B2 (en) Image processing device and method
US20230334235A1 (en) Detecting occlusion of digital ink
JP5776323B2 (ja) 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法
JP2007233871A (ja) 画像処理装置、コンピュータの制御方法及びプログラム
JP2009265732A (ja) 画像処理装置及びその方法
JP4903192B2 (ja) 顔検出装置
JP2018205819A (ja) 注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法
CN110619656A (zh) 基于双目摄像头的人脸检测跟踪方法、装置及电子设备
JP2007025902A (ja) 画像処理装置、画像処理方法
JP2018092354A (ja) 物体検出装置および物体検出方法
US9727145B2 (en) Detecting device and detecting method
JP2018124918A (ja) 画像処理装置、画像処理方法及びプログラム
JP2007188407A (ja) 画像処理装置及び画像処理プログラム
EP3291179B1 (en) Image processing device, image processing method, and image processing program
JP2017004438A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
JP2011232845A (ja) 特徴点抽出装置および方法
JP2014199505A (ja) 画像認識装置、画像認識方法及びプログラム
JP2022185872A (ja) 画像処理装置、画像処理方法、撮像装置
JPH08279044A (ja) パターン認識装置およびジェスチャ認識装置
JP2011175347A (ja) 情報処理装置および情報処理方法
JP2008112462A (ja) 顔画像による顔領域追跡方法及びその装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160829

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170124