JP2019185557A - 画像解析装置、方法およびプログラム - Google Patents
画像解析装置、方法およびプログラム Download PDFInfo
- Publication number
- JP2019185557A JP2019185557A JP2018077885A JP2018077885A JP2019185557A JP 2019185557 A JP2019185557 A JP 2019185557A JP 2018077885 A JP2018077885 A JP 2018077885A JP 2018077885 A JP2018077885 A JP 2018077885A JP 2019185557 A JP2019185557 A JP 2019185557A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- face
- image
- detection
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
- G06T7/231—Analysis of motion using block-matching using full search
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/446—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Ophthalmology & Optometry (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
第2の態様によれば、例えば、ドライバモニタリングの分野においてドライバの顔の状態を信頼性高くかつ安定的に推定することが可能となる。
先ず、この発明の実施形態に係る画像解析装置の一適用例について説明する。
この発明の実施形態に係る画像解析装置は、例えば、ドライバの顔を構成する複数の器官(目や、鼻、口、頬骨等)に対応して予め設定した複数の特徴点の位置や、ドライバの顔の向き、視線の方向等を監視するドライバモニタリングシステムに使用されるもので、以下のように構成される。
顔領域検出部4aは、上記画像取得部3により取得された画像データをフレームごとに上記画像メモリから読み出し、当該画像データからドライバの顔を含む画像領域(部分画像)を抽出する。例えば、顔領域検出部4aは、テンプレートマッチング法を使用する。そして、画像データに対し顔の基準テンプレートの位置を所定数の画素間隔でステップ的に移動させながら、上記画像データから基準テンプレートの画像との一致の度合いが閾値以上となる画像領域を検出し、この検出された画像領域を抽出する。この顔画像領域の抽出には、例えば矩形枠が使用される。
例えば、探索制御部6は、画像の現フレームにおいて、上記探索部4bにより得られた推定結果の信頼度が閾値を超えた場合に、トラッキングフラグをオンに設定し、このとき顔領域検出部4aにより検出された顔画像領域をトラッキング情報記憶部7に保存する。つまり、トラッキングモードを設定する。そして、上記保存された顔画像領域を、後続のフレームにおいて顔画像領域を検出するための基準位置とするように顔領域検出部4aに提供する。
(a) 顔の特徴点の位置座標の変化量が所定の範囲内であること。
(b) 顔の向きの変化量が所定の角度の範囲内であること。
(c) 視線の方向の変化量が所定の範囲内であること。
(構成例)
(1)システム
この発明の一実施形態に係る画像解析装置は、適用例においても述べたように、例えば、ドライバの顔の状態を監視するドライバモニタリングシステムにおいて使用される。ドライバモニタリングシステムは、例えば、カメラ1と、画像解析装置2とを備える。
画像解析装置2は、上記カメラ1により得られた画像信号からドライバの顔画像領域を検出し、この顔画像領域からドライバの顔の状態、例えば、顔の複数の器官(例えば目や鼻、口、頬骨)に対応して予め設定された複数の特徴点の位置、顔の向き、視線の方向を検出するものである。
図2は、画像解析装置2のハードウェア構成の一例を示すブロック図である。
画像解析装置2は、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサ11Aを有する。そして、このハードウェアプロセッサ11Aに対し、プログラムメモリ11B、データメモリ12、カメラインタフェース(カメラI/F)13、外部インタフェース(外部I/F)14を、バス15を介して接続したものとなっている。
図3は、この発明の一実施形態に係る画像解析装置2のソフトウェア構成を示したブロック図である。
データメモリ12の記憶領域には、画像記憶部121と、テンプレート記憶部122と、検出結果記憶部123と、トラッキング情報記憶部124が設けられている。画像記憶部121は、カメラ1から取得した画像データを一時保存するために用いられる。
位置検出部1131は、例えば、上記顔領域検出部112により検出された顔画像領域から、テンプレート記憶部122に記憶された三次元顔形状モデルを用いて、目、鼻、口、頬骨等の顔の各器官に対応して設定された複数の特徴点を探索し、その位置座標を推定する。三次元顔形状モデルは、先に適用例等でも述べたように、ドライバの顔の複数の向きに対応して複数用意される。例えば、顔の正面方向、斜め右方向、斜め左方向、斜め上方向、斜め下方向等の代表的な顔の向きに対応するモデルが用意される。なお、顔向きをヨー方向とピッチ方向の2つの軸方向にそれぞれ一定の角度おきに定義し、これらの各軸の全ての角度の組み合わせに対応する三次元顔形状モデルを用意するようにしてもよい。三次元顔形状モデルは、例えばドライバの実際の顔に応じて学習処理により生成されるのがよいが、一般的な顔画像から取得される平均的な初期パラメータが設定されたモデルであってもよい。
(a) 前フレームの推定結果に対する現フレームで検出された顔の特徴点座標の変化量が、所定の範囲内であるか否か、
(b) 前フレームの推定結果に対する現フレームで検出された顔の向きの変化量が、所定の角度の範囲内であるか否か、
(c) 前フレームの推定結果に対する現フレームで検出された視線方向の変化量が、所定の範囲内であるか否か、
をそれぞれ判定する。
(動作例)
次に、以上のように構成された画像解析装置2の動作例を説明する。
なお、この例では、撮像された画像データから顔が含まれる画像領域を検出する処理に使用する顔の基準テンプレートが、予めテンプレート記憶部122に記憶されているものとして説明を行う。
先ず、画像解析装置2を動作させるために必要となる学習処理について説明する。
(1−1)三次元顔形状モデルの取得
画像解析装置2は、先ずステップS01により変数iを定義し、これに1を代入する。次にステップS02において、予め特徴点の三次元位置が取得されている学習用の顔画像のうち、i番目のフレームの顔画像(Img_i)を画像記憶部121から読み込む。ここでは、iに1が代入されているため1番目のフレームの顔画像(Img_1)が読み込まれる。続いてステップS03により、顔画像Img_iの特徴点の正解座標の集合を読み出し、正解モデルパラメータkoptを取得して三次元顔形状モデルの正解モデルを作成する。次に画像解析装置2は、ステップS04により、正解モデルパラメータkoptに基づいてずれ配置モデルパラメータkdifを作成し、ずれ配置モデルを作成する。このずれ配置モデルの作成は乱数を発生させて所定の範囲内で正解モデルからずらすことが好ましい。
以下、正規化の具体例について説明する。例えば、ある顔画像jについての特徴点配置ベクトルXjについて、点p1〜pnの重心座標をpGとするとき、重心pGを原点とする座標系に各点を移動させた後、[数2]によって定義されるLmを用いて、その大きさを正規化することができる。具体的には、Lmによって移動後の座標値を割ることにより、大きさを正規化することができる。ここで、Lmは、重心から各点までの直線距離の平均値である。
画像解析装置2は、次にステップS05において、ずれ配置モデルを学習画像上に射影する。
三次元顔形状モデルは、二次元平面に射影することにより二次元画像上での処理が可能になる。三次元形状を二次元平面に射影する方法としては、平行投影法、透視投影法などの各種の手法が存在する。ここでは、透視投影法のうち単点透視投影を例に説明する。尤も、他のどのような手法を使用しても同様の効果を得ることができる。z=0平面への単点透視投影行列は、[数10]に示す通りである。
画像解析装置2は、次にステップS06において、上記ずれ配置モデルが射影された二次元顔形状モデルに基づいてレティナ構造を用いたサンプリングを実行し、サンプリング特徴量f_iを取得する。
画像解析装置2は、次にステップS07において、正解モデルパラメータkoptと、ずれ配置モデルパラメータkdifとに基づいて、形状モデルの誤差(ずれ)dp_iを取得する。ここで、全ての学習用の顔画像について処理が完了したか否かを、ステップS08で判定する。この判定は、例えば、iの値と学習用の顔画像の数とを比較することにより判断することができる。未処理の顔画像がある場合、画像解析装置2はステップS09でiの値をインクリメントし、インクリメントされた新たなiの値に基づいてステップS02以降の処理を実行する。
上記学習処理が終了すると、画像解析装置2は、顔の基準テンプレートと、上記学習処理により得られた三次元顔形状モデルとを用いて、ドライバの顔状態を検出するための処理を以下のように実行する。この例では、顔状態として、顔の各器官に対応して設定された複数の特徴点の位置と、顔の向きと、視線の方向がそれぞれ検出される。
例えば、運転中のドライバの姿はカメラ1により正面から撮像され、これにより得られた画像信号はカメラ1から画像解析装置2へ送られる。画像解析装置2は、上記画像信号をカメラI/F13により受信し、フレームごとにデジタル信号からなる画像データに変換する。
(2−2−1)顔領域の検出
画像解析装置2は、次に顔領域検出部112の制御の下、ステップS20でフレーム番号nを1にセットした後、ステップS21により上記画像記憶部121から画像データの第1フレームを読み込む。そして、顔領域検出部112の制御の下、ステップS22において、先ずテンプレート記憶部122に予め記憶されている顔の基準テンプレートを用いて、上記読み込んだ画像データからドライバの顔が映っている画像領域を検出し、当該顔画像領域を矩形枠を用いて抽出する。
図9は、この顔領域検出処理により抽出された顔画像領域の一例を示すもので、FCはドライバの顔を示している。
画像解析装置2は、次に探索部113の制御の下、ステップS22において、上記顔領域検出部112により矩形枠により抽出された顔画像領域から、先の学習処理により作成された三次元顔形状モデルを用いて、検出対象となる顔の器官、例えば目、鼻、口、頬骨に対し設定された複数の特徴点の位置を推定する。
探索部113は、先ずステップS60において、上記データメモリ12の画像記憶部121から、上記顔領域検出部112の制御の下で、矩形枠により抽出された顔画像領域の座標を読み込む。続いてステップS61において、上記顔画像領域の初期位置に対し、初期パラメータkinitに基づいた三次元顔形状モデルを配置する。そして、ステップS62により、変数iを定義してこれに“1”を代入すると共に、kiを定義してこれに初期パラメータkinitを代入する。
上記探索処理により顔画像領域から検出対象となる複数の特徴点の位置が検出されると、続いて画像解析装置2は、信頼度検出部115の制御の下、ステップS23において、上記探索部113により推定された各特徴点の位置に関する信頼度α(n) (nはフレーム番号で、ここではn=1)を算出する。この信頼度α(n) は、例えば、予め記憶された顔画像の特徴と、探索部113により検出された顔画像領域の特徴とを比較して、検出した顔領域の画像が被写体の画像である確率を求め、この確率から算出することができる。
次に画像解析装置2は、探索制御部116の制御の下、ステップS24においてトラッキング中か否かを判定する。この判定は、トラッキングフラグがオンになっているか否かにより行われる。現在の第1フレームでは、まだトラッキングモードが設定されていないので、探索制御部116は図6に示すステップS30に移行する。そして、上記信頼度検出部115により算出された信頼度α(n) を閾値と比較する。この閾値は、事前に適当な値に設定される。
(2−3−1)顔領域の検出
トラッキングモードになると、画像解析装置2は次のように顔状態の検出処理を実行する。すなわち、画像解析装置2は、顔領域検出部112の制御の下、ステップS22において、画像データの次のフレームからドライバの顔領域を検出する際に、探索制御部116から通知されたトラッキング情報に従い、前フレームで検出された顔画像領域の座標を基準位置として、当該領域に含まれる画像を矩形枠により抽出する。なお、この場合、上記基準位置のみから画像を抽出してもよいが、当該基準位置から所定ビット分だけ上下左右方向にシフトされた周辺の複数の領域から、それぞれ画像を抽出するようにしてもよい。
画像解析装置2は、続いて探索部113の制御の下、ステップS22において、上記抽出された顔画像領域から、検出対象の顔の特徴点の位置を探索する。ここで行われる探索処理は先に第1フレームに対し行われた探索処理と同じである。そして、画像解析装置2は、信頼度検出部115の制御の下、ステップS23において上記探索結果の信頼度α(n) (例えば第2フレームについて顔の検出が行われているとすれば、n=2)を算出する。
続いて画像解析装置2は、探索制御部116の制御の下、ステップS24において、トラッキングフラグをもとにトラッキングモード設定中か否かを判定する。そして、いまはトラッキングモード設定中なので、探索制御部116はステップS25に移行する。ステップS2において探索制御部116は、前フレームn−1の推定結果に対する現フレームnの推定結果の変化の状況が、予め設定された判定条件を満たしているか否かを判定する。
(a) 顔の特徴点の位置座標の変化量が所定の範囲内であること。
(b) 顔の向きの変化量が所定の角度の範囲内であること。
(c) 視線の方向の変化量が所定の範囲内であること。
をそれぞれ満足するか否かを判定する。
これに対し、上記ステップS25において、上記前フレームn−1の推定結果に対する現フレームnの推定結果の変化量が、上記3種類の判定条件(a) 〜(c) の全てを満たさないと判定されると、上記推定結果の変化量は許容範囲を超えていると判断される。この場合探索制御部116は、ステップS27において、トラッキングフラグをオフにリセットすると共に、トラッキング情報記憶部124に記憶されているトラッキング情報を削除する。従って、顔領域検出部112は、後続フレームにおいて、トラッキング情報を用いずに初期状態から顔領域を検出する処理を実行する。
以上詳述したように一実施形態では、トラッキングフラグがオンになっている状態で、探索制御部6が、前フレームに対し、現フレームの顔の特徴点の位置座標の変化量が所定の範囲内であるか、顔向きの変化量が所定の角度の範囲内であるか、視線の方向変化量が所定の範囲内であるかをそれぞれ判定する。そして、これらの全ての判定において条件が満たされれば、前フレームに対する現フレームの推定結果の変化は許容範囲内であると見なし、後続フレームにおいても引き続きトラッキング情報記憶部7に保存された顔画像領域に応じて、顔の状態を表す、特徴点の位置、顔向きおよび視線方向の推定結果をそれぞれ推定する処理を行うようにしている。
(1)一実施形態では、前フレームの推定結果に対する現フレームの推定結果の変化が、
(a) 顔の特徴点の座標の変化量が所定の範囲内であること。
(b) 顔の向きの変化量が所定の角度の範囲内であること。
(c) 視線の方向の変化量が所定の範囲内であること。
の全てを満たす場合に、フレームにおける推定結果の信頼度の低下は許容範囲内と見なし、トラッキングモードを維持するようにしている。
またこの場合、満足する判定条件に対応する推定結果のみを有効として外部装置へ出力可能とし、それ以外の推定結果は無効として外部装置へ出力しないようにしてもよい。
上記各実施形態の一部または全部は、特許請求の範囲のほか以下の付記に示すように記載することも可能であるが、これに限られない。
(付記1)
ハードウェアプロセッサ(11A)とメモリ(11B)とを有する画像解析装置であって、
前記ハードウェアプロセッサ(11A)が、前記メモリ(11B)に記憶されたプログラムを実行することにより、
時系列的に入力される画像からフレーム単位で検出対象物が含まれる画像領域を検出し(4a)、当該検出された画像領域に基づいて前記検出対象物の状態を推定する処理(4b)を行い、
前記推定された前記検出対象物の状態の確からしさを表す信頼度を検出し(5)、
前記検出された信頼度に基づいて前記探索部の処理を制御する(6)
ように構成され、かつ
前記画像の第1フレームにおいて前記検出された信頼度が、予め設定された信頼度条件を満たすか否かを判定し(6)、
前記第1フレームにおいて検出された信頼度が前記信頼度条件を満たすと判定された場合に、前記第1フレームにおいて前記検出された画像領域の位置をメモリ(7)に保存し、前記第1フレームに続く第2フレームにおける前記検出対象物の状態の推定が前記保存された画像領域の位置を基準にして行われるように前記探索部を制御し(6)、
前記第2フレームにおいて前記推定された前記検出対象物の状態の前記第1フレームからの変化が、予め設定された判定条件を満たしているか否かを判定し(6)、
前記検出対象物の状態の前記第1フレームからの変化が前記判定条件を満たしていると判定された場合に、前記第2フレームに続く第3フレームにおける前記検出対象物の状態の推定処理が前記保存された画像領域の位置を基準にして行われるように、前記検出対象物が含まれる画像領域の検出および前記検出対象物の状態の推定を制御し(6)、
前記検出対象物の状態の前記第1フレームからの変化が前記判定条件を満たさないと判定された場合に、前記メモリに保存されている前記画像領域の位置を消去し、前記第2フレームに続く第3フレームにおける前記探索部の処理が前記画像領域の検出処理から行われるように、前記検出対象物が含まれる画像領域の検出および前記検出対象物の状態の推定を制御する(6)
ように構成される、画像解析装置。
ハードウェアプロセッサ(11A)と、当該ハードウェアプロセッサ(11A)を実行させるプログラムを格納したメモリ(11B)とを有する装置が実行する画像解析方法であって、
前記ハードウェアプロセッサ(11A)が、前記時系列的に入力される画像からフレーム単位で検出対象物が含まれる画像領域を検出し、当該検出された画像領域に基づいて前記検出対象物の状態を推定する処理を行う探索過程と(S22)、
前記ハードウェアプロセッサ(11A)が、前記探索過程により推定された前記検出対象物の状態の確からしさを表す信頼度を検出する信頼度検出過程と(23)、
前記ハードウェアプロセッサ(11A)が、前記画像の第1フレームにおいて前記信頼度検出過程により検出された信頼度が、予め設定された信頼度条件を満たすか否かを判定する第1の判定過程(S25)と、
前記ハードウェアプロセッサ(11A)が、前記第1フレームにおいて検出された信頼度が前記信頼度条件を満たすと判定された場合に、前記第1フレームにおいて前記探索過程により検出された画像領域の位置をメモリ(7)に保存し、前記第1フレームに続く第2フレームにおける前記検出対象物の状態の推定が前記保存された画像領域の位置を基準にして行われるように前記探索過程の処理を制御する第1の制御過程と(S31)、
前記ハードウェアプロセッサ(11A)が、前記第2フレームにおいて前記探索過程(S22)により推定された前記検出対象物の状態の前記第1フレームからの変化が、予め設定された判定条件を満たしているか否かを判定する第2の判定過程と(S25)、
前記ハードウェアプロセッサ(11A)が、前記検出対象物の状態の前記第1フレームからの変化が前記判定条件を満たしていると判定された場合に、前記第2フレームに続く第3フレームにおける前記検出対象物の状態の推定処理が前記保存された画像領域の位置を基準にして行われるように前記探索過程(S22)の処理を制御する第2の制御過程と(S26)、
前記ハードウェアプロセッサ(11A)が、前記検出対象物の状態の前記第1フレームからの変化が前記判定条件を満たさないと判定された場合に、前記メモリ(7)に保存されている前記画像領域の位置を消去し、前記第2フレームに続く第3フレームにおける前記探索過程の処理が前記画像領域の検出処理から行われるように前記探索過程(S22)を制御する第3の制御過程と(S27)
を具備する画像解析方法。
4a…顔領域検出部、4b…探索部、5…信頼度検出部、6…探索制御部、
7…トラッキング情報記憶部、11…制御ユニット、
11A…ハードウェアプロセッサ、11B…プログラムメモリ、
12…データメモリ、13…カメラI/F、14…外部I/F、
111…画像取得制御部、112…顔領域検出部、113…探索部、
115…信頼度検出部、116…探索制御部、117…出力制御部、
121…画像記憶部、122…テンプレート記憶部、123…検出結果記憶部、
124…トラッキング情報記憶部、1131…位置検出部、
1132…顔向き検出部、1133…視線検出部。
Claims (7)
- 時系列的に入力される画像からフレーム単位で検出対象物が含まれる画像領域を検出し、当該検出された画像領域に基づいて前記検出対象物の状態を推定する処理を行う探索部と、
前記探索部により推定された前記検出対象物の状態の確からしさを表す信頼度を検出する信頼度検出部と、
前記信頼度検出部により検出された信頼度に基づいて前記探索部の処理を制御する探索制御部と
を具備し、
前記探索制御部は、
前記画像の第1フレームにおいて前記信頼度検出部により検出された信頼度が、予め設定された信頼度条件を満たすか否かを判定する第1の判定部と、
前記第1フレームにおいて検出された信頼度が前記信頼度条件を満たすと判定された場合に、前記第1フレームにおいて前記探索部により検出された画像領域の位置をメモリに保存し、前記第1フレームに続く第2フレームにおける前記検出対象物の状態の推定処理が前記保存された画像領域の位置を基準にして行われるように前記探索部を制御する第1の制御部と、
前記第2フレームにおいて、前記探索部により推定された前記検出対象物の状態の前記第1フレームからの変化が、予め設定された判定条件を満たしているか否かを判定する第2の判定部と、
前記検出対象物の状態の前記第1フレームからの変化が前記判定条件を満たしていると判定された場合に、前記第2フレームに続く第3フレームにおける前記検出対象物の状態の推定処理が前記保存された画像領域の位置を基準にして行われるように前記探索部を制御する第2の制御部と、
前記検出対象物の状態の前記第1フレームからの変化が前記判定条件を満たさないと判定された場合に、前記メモリに保存されている前記画像領域の位置を消去し、前記第2フレームに続く第3フレームにおける前記探索部の処理が前記画像領域の検出処理から行われるように前記探索部の処理を制御する第3の制御部と
を備える画像解析装置。 - 前記探索部は、前記検出対象物を人の顔とし、当該人の顔を構成する複数の器官に対応して予め設定された複数の特徴点の位置、前記顔の向きおよび前記顔の視線方向の少なくとも1つを推定する請求項1記載の画像解析装置。
- 前記探索部は、前記画像領域における、前記人の顔を構成する複数の器官に対応して予め設定された複数の特徴点の位置を推定する処理を行い、
前記第2の判定部は、前記判定条件として、前記特徴点の位置のフレーム間変化の許容量を定義した第1の閾値を有し、前記探索部により推定された前記特徴点の位置の前記第1フレームと前記第2フレームとの間の変化量が、前記第1の閾値を超えているか否かを判定する、請求項2に記載の画像解析装置。 - 前記探索部は、前記画像領域から、前記人の顔の基準方向に対する向きを推定する処理を行い、
前記第2の判定部は、前記判定条件として、前記人の顔の向きのフレーム間変化の許容量を定義した第2の閾値を有し、前記探索部により推定された前記人の顔の向きの前記第1フレームと第2フレームとの間における変化量が、前記第2の閾値を超えているか否かを判定する、請求項2に記載の画像解析装置。 - 前記探索部は、前記画像領域から、前記人の顔の視線を推定する処理を行い、
前記第2の判定部は、前記判定条件として、前記検出対象物の視線方向のフレーム間変化の許容量を定義した第3の閾値を有し、前記探索部により推定された前記人の顔の視線方向の前記第1フレームと前記第2フレームとの間の変化量が、前記第3の閾値を超えているか否かを判定する、請求項2に記載の画像解析装置。 - 時系列的に入力される画像をもとに検出対象物の状態を推定する装置が実行する画像解析方法であって、
前記時系列的に入力される画像からフレーム単位で検出対象物が含まれる画像領域を検出し、当該検出された画像領域に基づいて前記検出対象物の状態を推定する処理を行う探索過程と、
前記探索過程により推定された前記検出対象物の状態の確からしさを表す信頼度を検出する信頼度検出過程と、
前記画像の第1フレームにおいて前記信頼度検出過程により検出された信頼度が、予め設定された信頼度条件を満たすか否かを判定する第1の判定過程と、
前記第1フレームにおいて検出された信頼度が前記信頼度条件を満たすと判定された場合に、前記第1フレームにおいて前記探索過程により検出された画像領域の位置をメモリに保存し、前記第1フレームに続く第2フレームにおける前記検出対象物の状態の推定が前記保存された画像領域の位置を基準にして行われるように前記探索過程の処理を制御する第1の制御過程と、
前記第2フレームにおいて、前記探索過程により推定された前記検出対象物の状態の前記第1フレームからの変化が、予め設定された判定条件を満たしているか否かを判定する第2の判定過程と、
前記検出対象物の状態の前記第1フレームからの変化が前記判定条件を満たしていると判定された場合に、前記第2フレームに続く第3フレームにおける前記検出対象物の状態の推定処理が前記保存された画像領域の位置を基準にして行われるように前記探索過程の処理を制御する第2の制御過程と、
前記検出対象物の状態の前記第1フレームからの変化が前記判定条件を満たさないと判定された場合に、前記メモリに保存されている前記画像領域の位置を消去し、前記第2フレームに続く第3フレームにおける前記探索過程の処理が前記画像領域の検出処理から行われるように前記探索過程を制御する第3の制御過程と
を具備する画像解析方法。 - 請求項1乃至5のいずれかに記載の画像解析装置が備える前記各部による処理を、前記画像解析装置が備えるハードウェアプログラムに実行させるプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018077885A JP6973258B2 (ja) | 2018-04-13 | 2018-04-13 | 画像解析装置、方法およびプログラム |
CN201910179600.1A CN110378181B (zh) | 2018-04-13 | 2019-03-11 | 图像解析装置、图像解析方法及记录介质 |
DE102019106277.2A DE102019106277A1 (de) | 2018-04-13 | 2019-03-12 | Bildanalysevorrichtung, -verfahren und -programm |
US16/358,765 US20190318151A1 (en) | 2018-04-13 | 2019-03-20 | Image analysis apparatus, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018077885A JP6973258B2 (ja) | 2018-04-13 | 2018-04-13 | 画像解析装置、方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019185557A true JP2019185557A (ja) | 2019-10-24 |
JP6973258B2 JP6973258B2 (ja) | 2021-11-24 |
Family
ID=68053176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018077885A Active JP6973258B2 (ja) | 2018-04-13 | 2018-04-13 | 画像解析装置、方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20190318151A1 (ja) |
JP (1) | JP6973258B2 (ja) |
CN (1) | CN110378181B (ja) |
DE (1) | DE102019106277A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021210041A1 (ja) * | 2020-04-13 | 2021-10-21 | 三菱電機株式会社 | 顔検出装置および顔検出方法 |
JP2022077281A (ja) * | 2020-11-11 | 2022-05-23 | 株式会社コムテック | 検出システム |
JP2022077282A (ja) * | 2020-11-11 | 2022-05-23 | 株式会社コムテック | 警報システム |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11100615B2 (en) * | 2018-06-15 | 2021-08-24 | Casio Computer Co., Ltd. | Image processing device, image processing method, and image processing program |
CN111460871B (zh) * | 2019-01-18 | 2023-12-22 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、存储介质 |
CN111104846B (zh) * | 2019-10-16 | 2022-08-30 | 平安科技(深圳)有限公司 | 数据检测方法、装置、计算机设备和存储介质 |
US11023730B1 (en) * | 2020-01-02 | 2021-06-01 | International Business Machines Corporation | Fine-grained visual recognition in mobile augmented reality |
CN112541434B (zh) * | 2020-12-14 | 2022-04-12 | 无锡锡商银行股份有限公司 | 一种基于中心点跟踪模型的人脸识别方法 |
CN112668553B (zh) * | 2021-01-18 | 2022-05-13 | 东莞先知大数据有限公司 | 一种司机间断瞭望行为检测方法、装置、介质及设备 |
CN112837340B (zh) * | 2021-02-05 | 2023-09-29 | Oppo广东移动通信有限公司 | 属性的跟踪方法、装置、电子设备以及存储介质 |
WO2022185436A1 (ja) * | 2021-03-03 | 2022-09-09 | 日本電気株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003216951A (ja) * | 2001-12-03 | 2003-07-31 | Microsoft Corp | 複数のキューを使用する複数の個人の自動検出および追跡の方法、システムおよびコンピュータ可読媒体 |
JP2008199549A (ja) * | 2007-02-15 | 2008-08-28 | Hitachi Ltd | 監視画像処理方法、監視システム及び監視画像処理プログラム |
JP2016201756A (ja) * | 2015-04-14 | 2016-12-01 | ソニー株式会社 | 画像処理装置、画像処理方法、および画像処理システム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6545706B1 (en) * | 1999-07-30 | 2003-04-08 | Electric Planet, Inc. | System, method and article of manufacture for tracking a head of a camera-generated image of a person |
CA2359269A1 (en) * | 2001-10-17 | 2003-04-17 | Biodentity Systems Corporation | Face imaging system for recordal and automated identity confirmation |
JP4093273B2 (ja) | 2006-03-13 | 2008-06-04 | オムロン株式会社 | 特徴点検出装置、特徴点検出方法および特徴点検出プログラム |
JP4789825B2 (ja) * | 2007-02-20 | 2011-10-12 | キヤノン株式会社 | 撮像装置及びその制御方法 |
US8139817B2 (en) * | 2007-04-27 | 2012-03-20 | Telewatch Inc. | Face image log creation |
JP4863937B2 (ja) * | 2007-06-25 | 2012-01-25 | 株式会社ソニー・コンピュータエンタテインメント | 符号化処理装置および符号化処理方法 |
US20090290791A1 (en) * | 2008-05-20 | 2009-11-26 | Holub Alex David | Automatic tracking of people and bodies in video |
TWI401963B (zh) * | 2009-06-25 | 2013-07-11 | Pixart Imaging Inc | Dynamic image compression method for face detection |
JP5488076B2 (ja) * | 2010-03-15 | 2014-05-14 | オムロン株式会社 | 対象物追跡装置、対象物追跡方法、および制御プログラム |
EP2712541B1 (en) * | 2012-09-27 | 2015-12-30 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Tiled image based scanning for head and/or eye position for eye tracking |
EP2790126B1 (en) * | 2013-04-08 | 2016-06-01 | Cogisen SRL | Method for gaze tracking |
US9892315B2 (en) * | 2013-05-10 | 2018-02-13 | Sension, Inc. | Systems and methods for detection of behavior correlated with outside distractions in examinations |
CN104036250B (zh) * | 2014-06-16 | 2017-11-10 | 上海大学 | 视频行人检测与跟踪方法 |
JP2016009453A (ja) * | 2014-06-26 | 2016-01-18 | オムロン株式会社 | 顔認証装置および顔認証方法 |
US9442564B1 (en) * | 2015-02-12 | 2016-09-13 | Amazon Technologies, Inc. | Motion sensor-based head location estimation and updating |
JP2018077885A (ja) | 2017-11-29 | 2018-05-17 | 利仁 曽根 | ショッピングカート投入ボタン方法 |
-
2018
- 2018-04-13 JP JP2018077885A patent/JP6973258B2/ja active Active
-
2019
- 2019-03-11 CN CN201910179600.1A patent/CN110378181B/zh active Active
- 2019-03-12 DE DE102019106277.2A patent/DE102019106277A1/de active Pending
- 2019-03-20 US US16/358,765 patent/US20190318151A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003216951A (ja) * | 2001-12-03 | 2003-07-31 | Microsoft Corp | 複数のキューを使用する複数の個人の自動検出および追跡の方法、システムおよびコンピュータ可読媒体 |
JP2008199549A (ja) * | 2007-02-15 | 2008-08-28 | Hitachi Ltd | 監視画像処理方法、監視システム及び監視画像処理プログラム |
JP2016201756A (ja) * | 2015-04-14 | 2016-12-01 | ソニー株式会社 | 画像処理装置、画像処理方法、および画像処理システム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021210041A1 (ja) * | 2020-04-13 | 2021-10-21 | 三菱電機株式会社 | 顔検出装置および顔検出方法 |
JP2022077281A (ja) * | 2020-11-11 | 2022-05-23 | 株式会社コムテック | 検出システム |
JP2022077282A (ja) * | 2020-11-11 | 2022-05-23 | 株式会社コムテック | 警報システム |
JP7081844B2 (ja) | 2020-11-11 | 2022-06-07 | 株式会社コムテック | 検出システム |
Also Published As
Publication number | Publication date |
---|---|
CN110378181B (zh) | 2023-06-02 |
JP6973258B2 (ja) | 2021-11-24 |
CN110378181A (zh) | 2019-10-25 |
US20190318151A1 (en) | 2019-10-17 |
DE102019106277A1 (de) | 2019-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6973258B2 (ja) | 画像解析装置、方法およびプログラム | |
JP4093273B2 (ja) | 特徴点検出装置、特徴点検出方法および特徴点検出プログラム | |
JP6695503B2 (ja) | 車両の運転者の状態を監視するための方法及びシステム | |
JP6919619B2 (ja) | 画像解析装置、方法およびプログラム | |
JP4501937B2 (ja) | 顔特徴点検出装置、特徴点検出装置 | |
JP4728432B2 (ja) | 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム | |
US11298050B2 (en) | Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method | |
JP2007310707A (ja) | 姿勢推定装置及びその方法 | |
WO2019137215A1 (en) | Head pose and distraction estimation | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
EP3154407B1 (en) | A gaze estimation method and apparatus | |
JP2016173313A (ja) | 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム | |
EP3506149A1 (en) | Method, system and computer program product for eye gaze direction estimation | |
JP2013156680A (ja) | フェーストラッキング方法、フェーストラッカおよび車両 | |
JP2020513629A (ja) | 被験者の頭部の追跡 | |
JP6922821B2 (ja) | 画像解析装置、方法およびプログラム | |
JP6288770B2 (ja) | 顔検出方法、顔検出システム、および顔検出プログラム | |
JP2006215743A (ja) | 画像処理装置及び画像処理方法 | |
US20220084244A1 (en) | Information processing apparatus, information processing method, and program | |
WO2020261403A1 (ja) | 身長推定装置、身長推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体 | |
JP2006227739A (ja) | 画像処理装置及び画像処理方法 | |
JP2020035290A (ja) | 検出器生成装置、モニタリング装置、検出器生成方法及び検出器生成プログラム | |
US20240087353A1 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program | |
JP2020173504A (ja) | 位置推定システム、位置推定装置、位置推定方法、及びプログラム | |
JP2021022185A (ja) | 画像処理装置、画像処理プログラム、及び画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210820 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6973258 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |