JP5429885B2 - 特徴点追跡方法及び特徴点追跡装置 - Google Patents
特徴点追跡方法及び特徴点追跡装置 Download PDFInfo
- Publication number
- JP5429885B2 JP5429885B2 JP2010521735A JP2010521735A JP5429885B2 JP 5429885 B2 JP5429885 B2 JP 5429885B2 JP 2010521735 A JP2010521735 A JP 2010521735A JP 2010521735 A JP2010521735 A JP 2010521735A JP 5429885 B2 JP5429885 B2 JP 5429885B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- feature point
- coordinate system
- point tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 54
- 238000001514 detection method Methods 0.000 claims description 57
- 238000003384 imaging method Methods 0.000 claims description 45
- 238000006073 displacement reaction Methods 0.000 claims description 25
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 210000001747 pupil Anatomy 0.000 description 86
- 238000012545 processing Methods 0.000 description 59
- 239000013598 vector Substances 0.000 description 34
- 230000008569 process Effects 0.000 description 19
- 230000005484 gravity Effects 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 12
- 230000009466 transformation Effects 0.000 description 10
- 210000003128 head Anatomy 0.000 description 8
- 238000012937 correction Methods 0.000 description 6
- 238000005286 illumination Methods 0.000 description 6
- 238000002372 labelling Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 206010041349 Somnolence Diseases 0.000 description 3
- 230000008602 contraction Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 241001469893 Oxyzygonectes dovii Species 0.000 description 1
- 208000032140 Sleepiness Diseases 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000037321 sleepiness Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
Description
対象者Aの撮像時には、画像処理装置1は、光源3a,3bを交互に点灯させて、それぞれの点灯に同期した顔画像を交互に生成させることによって、明瞳孔画像及び暗瞳孔画像を得る。明瞳孔画像は、光源3aの照射に伴って得られる画像であり、瞳孔部分の輝度が相対的に明るくなっている。これに対し、暗瞳孔画像は、光源3bの照射に伴って得られる画像であり、瞳孔部分の輝度が相対的に暗くなっている。これらの2種類の画像は、2つの光源3a,3bからの照明光の照射に伴う瞳孔からの反射光の強度が異なることに起因して得られる。例えば、フィールド走査を採用するカメラの場合は、光源3a,3bをカメラ2のフィールド信号に同期させて点灯させることで、奇数フィールドと偶数フィールド間で明瞳孔画像と暗瞳孔画像とを分離することができる。そして、画像処理装置1は、明瞳孔画像と暗瞳孔画像のそれぞれの所定位置にウィンドウを設定し、互いのウィンドウ内の画像間で明瞳孔画像と暗瞳孔画像との差分を取った後に瞳孔部分の範囲を判別する。これらのウィンドウは、後述するように、過去の撮像タイミングにおける瞳孔中心の3次元位置に基づいてその位置が設定される。このような差分処理を行うことで、ロバスト性の高い瞳孔の検出を行うことができる。
で表され、各特徴点の位置ベクトルは定数an(n=1,2,3,4)を用いて下記式(2);
で表される。
が成立する。従って、画像処理装置1は、3つの特徴点P1,P2,P3についての次の連立方程式(4)を解くことにより、カメラ座標系における位置ベクトルP1,P2,P3を求めることができる。同様に、位置ベクトルP4及び左右の鼻孔中心の中間点の位置ベクトルP0も算出することができる。さらに、画像処理装置1は、特徴点P0,P1,P2の重心G(xG,yG,zG)、及び特徴点P0,P1,P2を通る平面の法線ベクトルVF=(nx,ny,nz)を求める。この法線ベクトルVFは、対象者Aの顔方向を示している。
図3に示すように、カメラ座標系XYZに対して特徴点P0,P1,P2及びそれらの重心Gを基準にした顔座標系xyzを定義する。このx軸、y軸、z軸は、顔座標系の原点が重心Gとなるように設定される。また、同図に示すように、y軸上にあって負値をとるように設定された鼻孔間中点P00、及びxy平面上に位置するように設定された瞳孔位置P10,P20に対応する姿勢を顔座標系xyzに対応する基準姿勢と定義する。
によって求まる。
によって求まる。
を用いて顔座標系における座標Pn’に変換することができる。ここで、Tx(β)及びTy(α)は下記式(8);
によって定義される。
を用いて回転角γを算出する。
また、画像処理装置1は、カメラ座標系上の任意点の位置ベクトルを、下記式(12);
により顔座標系上の位置ベクトルに変換することもできる。
具体的には、画像処理装置1は、時間的に連続するフィールド画像間で対象者Aの顔方向と顔重心は連続的に変化するので、処理対象の画像フレームの顔姿勢の回転角度及び顔重心を、過去のフィールド画像から予測することができる。例えば、画像処理装置1は、m番目のフィールド画像の回転角度(α,β,γ)及び重心位置Gと、その直前のm−1番目のフィールド画像の回転角度(α,β,γ)及び重心位置Gとを利用して、カルマンフィルター等の予測手法を用いることによって、m+1番目のフィールド画像の予測回転角度(αp,βp,γp)及び予測重心位置Gpを予測する。
その後、画像処理装置1は、変換係数予測ステップによって予測された処理対象のフィールド画像の予測回転角度(αp,βp,γp)及び予測重心位置Gpを参照して顔座標系の基準姿勢における特徴点座標を求めることによって、左右の瞳孔中心及び左右の鼻孔中心の3次元予測位置の座標を算出する。さらに、画像処理装置1は、算出した3次元予測位置の座標に対して、式(10)により与えられる変換行列を適用した後重心Gだけ変位させることにより、カメラ座標系における特徴点の予測3次元座標Pn1を算出する。
画像処理装置1は、位置検出ステップでm+1番目のフィールド画像における瞳孔画像を検出するために、連続するm番目及びm+1番目のフィールド間で明瞳孔画像と暗瞳孔画像とを差分する際には、m+1番目のフィールド画像上のウィンドウに対して、左右の瞳孔中心の予測3次元座標P11,P21の移動分に応じた位置補正を施す。すなわち、画像処理装置1は、カメラ座標系における特徴点の予測3次元座標Pn1=(Xn1,Yn1,Zn1)を、下記式(13);
を用いて、撮像平面PL(図2参照)上の予測2次元座標Qn1に変換する。そして、画像処理装置1は、m+1番目のフィールド画像の予測2次元座標Q11,Q21を中心にして、左右の瞳孔検出用の小ウィンドウを設定する。一方、m番目のフィールド画像に関しては、既に位置検出ステップで検出された2次元座標Q1,Q2を中心にして正方形の小ウィンドウを設定し、2つの小ウィンドウ間で差分画像を生成することによって、瞳孔画像の検出を行う。
Th = (Thmax+Thmin)/2 …(14)
を用いて閾値Thを決定し、この閾値を用いてウィンドウ内から2値化画像を得て左右の鼻孔像を検出する。なお、閾値Thのときの鼻孔2値化画像から検出された最大面積を持つラベルの面積をSmax[pixel]、2値化画像全体の面積をSw[pixel]とすると、鼻孔を検出する際の2値化閾値を決定する基準となるPタイル値Pは、P=Smax/Swで求めることができる。
により求めることができる。さらに、顔座標系xyzでの鼻孔方向ベクトルkFから、座標変換によりカメラ座標系XYZでの鼻孔方向ベクトルkCを求めることができる。すなわち、鼻孔方向ベクトルkCは、顔座標系の回転角度(α,β,γ)を反映した式(10),式(11)で計算される変換行列を用いて計算することができる。また、鼻孔方向ベクトルkCの水平角αN、垂直角βN、および回転角γNは、下記式(16);
によって求めることができる。
によって算出する。すなわち、画像処理装置1は、鼻孔像のy成分を1/cos(δ−ζ)倍に拡大する。
N’3D(x2,y2,z2)=T(−α,−β,−γ)N3D(x1,y1,z1) …(18)
によって求められる。さらに、画像処理装置1は、得られた鼻孔標準像の画素の座標N’3Dを撮像平面PLに投影することにより、座標N’2D(X2,Y2)=(x2×f/z2,y2×f/z2)を得る。この変換処理を鼻孔標準像中の画素全てに対して行うことにより、鼻孔標準像から次フィールドの左右の鼻孔の推定像を予測することができる。なお、このようにして得られた鼻孔推定像は、カメラ2から鼻孔までの距離による鼻孔サイズの変化についても考慮されている。そして、画像処理装置1は、鼻孔推定像を基に鼻孔領域の画素数を算出し、その画素数とウィンドウサイズの関係に基づいて、実際に鼻孔を検出する際のPタイル値を決定する。例えば、Pタイル値がP[%]の場合には、ウィンドウ内の画像を対象に、輝度の低いほうから割合P[%]までの画素を検出して2値化閾値を設定する。
Claims (6)
- 対象者の頭部画像に基づいて、該対象者の特徴点の位置を追跡する特徴点追跡方法であって、
前記対象者の3つの特徴点の組み合わせである特徴部位群の2次元位置を撮像手段によって撮像し、前記特徴部位群の3次元位置を時系列で検出する位置検出ステップと、
過去の撮像タイミングにおける前記特徴部位群の前記3次元位置に基づいて、該特徴部位群を基準とした顔座標系の所定の基準座標系からの回転角度及び変位を算出する変換係数算出ステップと、
当該算出された前記顔座標系の前記基準座標系からの回転角度及び変位に基づいて、現在の撮像タイミングにおける前記顔座標系の回転角度及び変位を予測する変換係数予測ステップと、
当該予測された前記回転角度及び前記変位に基づいて、現在の撮像タイミングの前記特徴部位群の3次元予測位置を算出する予測位置算出ステップとを備え、
前記位置検出ステップでは、当該算出された前記特徴部位群の3次元予測位置に基づいて、現在の撮像タイミングの画像フレーム上にそれぞれの前記特徴部位群用のウィンドウを設定し、それぞれの前記ウィンドウを対象にして前記特徴部位群の画像を検出する、
ことを特徴とする特徴点追跡方法。 - 前記位置検出ステップでは、過去の撮像タイミングにおいて検出された特徴部位群の画像の大きさに応じて、前記特徴部位群用のウィンドウのサイズを調整する、
ことを特徴とする請求項1記載の特徴点追跡方法。 - 前記位置検出ステップでは、過去の撮像タイミングにおいて前記特徴部位群の画像の検出が失敗した場合には、前記特徴部位群用の前記ウィンドウのサイズを大きくする、
ことを特徴とする請求項1又は2に記載の特徴点追跡方法。 - 前記位置検出ステップでは、前記ウィンドウを対象にして所定の閾値を用いて前記画像フレームを2値化画像に変換して、前記2値化画像を基に前記特徴部位群のいずれかを検出し、前記2値化画像内の連結エリアの最大面積の微分値が、最大になるような前記所定の閾値との関係に基づいて、前記所定の閾値を決定する、
ことを特徴とする請求項1〜3のいずれか1項に記載の特徴点追跡方法。 - 前記位置検出ステップでは、前記ウィンドウを対象にして前記画像フレームの所定割合の画素を2値化することで2値化画像に変換して、前記2値化画像を基に前記特徴部位群のいずれかを検出し、前記変換係数予測ステップで予測された前記顔座標系の前記回転角度に基づいて前記特徴部位群のいずれかの前記画像フレーム上の推定像を予測し、前記推定像を基に前記所定割合の値を決定する、
ことを特徴とする請求項1〜4のいずれか1項に記載の特徴点追跡方法。 - 対象者の頭部画像に基づいて、該対象者の特徴点の位置を追跡する特徴点追跡装置であって、
前記対象者の3つの特徴点の組み合わせである特徴部位群の2次元位置を撮像手段によって撮像し、前記特徴部位群の3次元位置を時系列で検出する位置検出手段と、
過去の撮像タイミングにおける前記特徴部位群の前記3次元位置に基づいて、該特徴部位群を基準とした顔座標系の所定の基準座標系からの回転角度及び変位を算出する変換係数算出手段と、
当該算出された前記顔座標系の前記基準座標系からの回転角度及び変位に基づいて、現在の撮像タイミングにおける前記顔座標系の回転角度及び変位を予測する変換係数予測手段と、
当該予測された前記回転角度及び前記変位に基づいて、現在の撮像タイミングの前記特徴部位群の3次元予測位置を算出する予測位置算出手段とを備え、
前記位置検出手段は、当該算出された前記特徴部位群の3次元予測位置に基づいて、現在の撮像タイミングの画像フレーム上にそれぞれの前記特徴部位群用のウィンドウを設定し、それぞれの前記ウィンドウを対象にして前記特徴部位群の画像を検出する、
ことを特徴とする特徴点追跡装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010521735A JP5429885B2 (ja) | 2008-07-24 | 2009-07-23 | 特徴点追跡方法及び特徴点追跡装置 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008191136 | 2008-07-24 | ||
JP2008191136 | 2008-07-24 | ||
JP2010521735A JP5429885B2 (ja) | 2008-07-24 | 2009-07-23 | 特徴点追跡方法及び特徴点追跡装置 |
PCT/JP2009/063197 WO2010010926A1 (ja) | 2008-07-24 | 2009-07-23 | 特徴点追跡方法及び特徴点追跡装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2010010926A1 JPWO2010010926A1 (ja) | 2012-01-05 |
JP5429885B2 true JP5429885B2 (ja) | 2014-02-26 |
Family
ID=41570386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010521735A Active JP5429885B2 (ja) | 2008-07-24 | 2009-07-23 | 特徴点追跡方法及び特徴点追跡装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5429885B2 (ja) |
WO (1) | WO2010010926A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI452540B (zh) | 2010-12-09 | 2014-09-11 | Ind Tech Res Inst | 影像式之交通參數偵測系統與方法及電腦程式產品 |
JP2012125373A (ja) * | 2010-12-15 | 2012-07-05 | Hitachi Aloka Medical Ltd | 超音波画像処理装置 |
KR101320337B1 (ko) | 2012-05-02 | 2013-10-29 | 한국항공우주연구원 | 위치 및 자세 추정시스템 |
EP2857939B1 (en) * | 2012-05-25 | 2018-08-29 | National University Corporation Shizuoka University | Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method |
JP6627450B2 (ja) * | 2015-11-20 | 2020-01-08 | カシオ計算機株式会社 | 特徴点追跡装置、特徴点追跡方法及びプログラム |
CN115082978A (zh) | 2021-03-10 | 2022-09-20 | 佳能株式会社 | 面部姿态的检测装置、方法、图像处理系统及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002007095A1 (fr) * | 2000-07-17 | 2002-01-24 | Mitsubishi Denki Kabushiki Kaisha | Dispositif de representation en 3d du visage et dispositif de reconnaissance peripherique comprenant ce dernier |
JP2003015816A (ja) * | 2001-06-29 | 2003-01-17 | Honda Motor Co Ltd | ステレオカメラを使用した顔・視線認識装置 |
JP2005309992A (ja) * | 2004-04-23 | 2005-11-04 | Toyota Motor Corp | 画像処理装置および画像処理方法 |
JP2007026073A (ja) * | 2005-07-15 | 2007-02-01 | National Univ Corp Shizuoka Univ | 顔姿勢検出システム |
JP2007172237A (ja) * | 2005-12-21 | 2007-07-05 | Denso Corp | 推定装置 |
JP2007268026A (ja) * | 2006-03-31 | 2007-10-18 | National Univ Corp Shizuoka Univ | 瞳孔を検出する方法及び装置 |
-
2009
- 2009-07-23 JP JP2010521735A patent/JP5429885B2/ja active Active
- 2009-07-23 WO PCT/JP2009/063197 patent/WO2010010926A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002007095A1 (fr) * | 2000-07-17 | 2002-01-24 | Mitsubishi Denki Kabushiki Kaisha | Dispositif de representation en 3d du visage et dispositif de reconnaissance peripherique comprenant ce dernier |
JP2003015816A (ja) * | 2001-06-29 | 2003-01-17 | Honda Motor Co Ltd | ステレオカメラを使用した顔・視線認識装置 |
JP2005309992A (ja) * | 2004-04-23 | 2005-11-04 | Toyota Motor Corp | 画像処理装置および画像処理方法 |
JP2007026073A (ja) * | 2005-07-15 | 2007-02-01 | National Univ Corp Shizuoka Univ | 顔姿勢検出システム |
JP2007172237A (ja) * | 2005-12-21 | 2007-07-05 | Denso Corp | 推定装置 |
JP2007268026A (ja) * | 2006-03-31 | 2007-10-18 | National Univ Corp Shizuoka Univ | 瞳孔を検出する方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2010010926A1 (ja) | 2012-01-05 |
WO2010010926A1 (ja) | 2010-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4452833B2 (ja) | 視線移動検出方法及び視線移動検出装置 | |
JP4307496B2 (ja) | 顔部位検出装置及びプログラム | |
JP5158842B2 (ja) | 眼球運動計測方法および眼球運動計測装置 | |
CN106175801B (zh) | 眨眼测量方法、眨眼测量装置及眨眼测量程序 | |
JP5429885B2 (ja) | 特徴点追跡方法及び特徴点追跡装置 | |
JP4452836B2 (ja) | 瞳孔を検出する方法及び装置 | |
US10311583B2 (en) | Eye motion detection method, program, program storage medium, and eye motion detection device | |
JP5578603B2 (ja) | 視線制御装置、視線制御方法、及びそのプログラム | |
JP4501003B2 (ja) | 顔姿勢検出システム | |
JP2008146356A (ja) | 視線方向推定装置及び視線方向推定方法 | |
US20220100268A1 (en) | Eye tracking device and a method thereof | |
JP7030317B2 (ja) | 瞳孔検出装置及び瞳孔検出方法 | |
JP6452235B2 (ja) | 顔検出方法、顔検出装置、及び顔検出プログラム | |
JP6957048B2 (ja) | 眼部画像処理装置 | |
JP4431749B2 (ja) | 顔姿勢検出方法 | |
JPWO2013008304A1 (ja) | 瞼検出装置 | |
JP2006236184A (ja) | 画像処理による人体検知方法 | |
JP2010244156A (ja) | 画像特徴量検出装置及びこれを用いた視線方向検出装置 | |
KR101961266B1 (ko) | 시선 추적 장치 및 이의 시선 추적 방법 | |
JP6555707B2 (ja) | 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム | |
JP7046347B2 (ja) | 画像処理装置及び画像処理方法 | |
JP6288770B2 (ja) | 顔検出方法、顔検出システム、および顔検出プログラム | |
JP2004192552A (ja) | 開閉眼判定装置 | |
JP6652263B2 (ja) | 口領域検出装置及び口領域検出方法 | |
JP4696571B2 (ja) | 眼位置検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130827 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5429885 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |