JP2018147240A - Image processing device, image processing method, and image processing program - Google Patents
Image processing device, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2018147240A JP2018147240A JP2017041837A JP2017041837A JP2018147240A JP 2018147240 A JP2018147240 A JP 2018147240A JP 2017041837 A JP2017041837 A JP 2017041837A JP 2017041837 A JP2017041837 A JP 2017041837A JP 2018147240 A JP2018147240 A JP 2018147240A
- Authority
- JP
- Japan
- Prior art keywords
- stage
- feature point
- model data
- learning model
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、所定のオブジェクトの特徴点を検出する画像処理装置、画像処理方法、及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program that detect feature points of a predetermined object.
近年、入力画像内のオブジェクト(例えば、人間の顔)の特徴点を、形状回帰モデルを使用して検出する手法が提案されている。形状回帰モデルは、初期の特徴点を複数ステージの修正処理により正解の特徴点に逐次的に近似させていくモデルであり、複数ステージ分の学習モデルデータを必要とする。 In recent years, methods have been proposed for detecting feature points of an object (for example, a human face) in an input image using a shape regression model. The shape regression model is a model in which initial feature points are sequentially approximated to correct feature points by a correction process of a plurality of stages, and requires learning model data for a plurality of stages.
従来の形状回帰モデルを使用した特徴点検出では、起動時に容量の大きい学習モデルデータをワークエリアにロードする際、全ての学習データのロードが完了しなければオブジェクトの検知処理を開始することができず、起動から検知開始までに時間がかかっていた。 In the feature point detection using the conventional shape regression model, when loading large-capacity learning model data to the work area at startup, the object detection process can be started if all the learning data has not been loaded. It took a long time from startup to detection start.
本発明はこうした状況に鑑みなされたものであり、その目的は、複数ステージの学習モデルデータを用いたオブジェクト検知処理において、精度低下を抑制しつつ、検知開始タイミングを早める技術を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for accelerating detection start timing while suppressing deterioration in accuracy in object detection processing using learning model data of a plurality of stages. .
上記課題を解決するために、本発明のある態様の画像処理装置は、それぞれが特徴点の修正ベクトルの導出に寄与するN(Nは2以上の整数)ステージの学習モデルデータを用いて、入力画像内の初期の特徴点を段階的に修正してオブジェクトの特徴点を検出する画像処理装置であって、前記Nステージの学習モデルデータをロードするためのワークエリア部と、入力画像内の初期の各特徴点の周辺の特徴量または1つ前のステージにおいて修正された各特徴点の周辺の特徴量をもとに、前記ワークエリア部に保持される、対応するステージの学習モデルデータを参照して各特徴点の修正ベクトルを導出する修正ベクトル導出部と、前記入力画像内の各特徴点を、導出された各修正ベクトルをもとに修正する特徴点修正部と、を備える。少なくとも本画像処理装置の起動時において、前記Nステージの学習モデルデータを記録している記録部から前記ワークエリア部への前記Nステージの学習モデルデータのロードが完了する前から、前記修正ベクトル導出部および前記特徴点修正部は、特徴点の修正処理を開始し、前記修正ベクトル導出部は、ステージt(1≦t≦N)の修正ベクトルを導出する際に、前記ワークエリア部にステージtの学習モデルデータがロードされていない場合、他のステージの学習モデルデータを代用して修正ベクトルを導出する。 In order to solve the above problems, an image processing apparatus according to an aspect of the present invention uses N (N is an integer of 2 or more) stages of learning model data, each of which contributes to the derivation of a feature point correction vector. An image processing apparatus for detecting feature points of an object by correcting initial feature points in an image stepwise, a work area unit for loading the N-stage learning model data, and an initial stage in an input image Refer to the learning model data of the corresponding stage held in the work area based on the feature quantity around each feature point or the feature quantity around each feature point modified in the previous stage. Then, a correction vector deriving unit for deriving a correction vector of each feature point, and a feature point correcting unit for correcting each feature point in the input image based on each derived correction vector. At least when the image processing apparatus is activated, the correction vector derivation is performed before the loading of the N stage learning model data from the recording unit recording the N stage learning model data to the work area unit is completed. And the feature point correction unit start the feature point correction process, and the correction vector deriving unit determines the stage t in the work area unit when deriving the correction vector of the stage t (1 ≦ t ≦ N). If the learning model data is not loaded, the correction vector is derived by substituting the learning model data of the other stages.
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。 Note that any combination of the above-described constituent elements and the expression of the present invention converted between a method, an apparatus, a system, a computer program, a recording medium recording the computer program, etc. are also effective as an aspect of the present invention. .
本発明によれば、複数ステージの学習モデルデータを用いたオブジェクト検知処理において、精度低下を抑制しつつ、検知開始タイミングを早めることができる。 According to the present invention, in object detection processing using learning model data of a plurality of stages, it is possible to advance detection start timing while suppressing a decrease in accuracy.
図1は、本発明の実施の形態に係る撮像システム1の構成を示すブロック図である。以下、本明細書では撮像システム1として、車両内の運転者の顔を撮影するためのカメラシステムを想定する。撮像システム1は、撮像部20及び画像処理装置10を備える。撮像部20は車両内において運転席の前方上部に、運転者の顔を画角に収める向きに設置される。撮像部20が実装される基板と、画像処理装置10が実装される基板は1つの筐体に一体的に収納されてもよいし、別々の筐体に分離されて収納されてもよい。後者の場合、撮像部20と画像処理装置10間は有線または無線で接続される。
FIG. 1 is a block diagram showing a configuration of an
撮像部20は、固体撮像素子及び信号処理回路を含む。固体撮像素子には例えば、CMOSイメージセンサ又はCCDイメージセンサを使用することができる。固体撮像素子は入射光を電気的な画像信号に変換し、信号処理回路に出力する。信号処理回路は、固体撮像素子から入力される画像信号に対して、A/D変換、ノイズ除去などの信号処理を実行し、画像処理装置10に出力する。なお当該信号処理回路で、歪み補正、フレーム/画素の間引き等の所定の前処理を実行してもよい。
The
画像処理装置10は、処理部11、ワークエリア部15及び不揮発性記録部16を含む。ワークエリア部15は、DRAM、SDRAM等の揮発性メモリで構成される記憶領域を含む。不揮発性記録部16は、NAND型/NOR型フラッシュメモリ等で構成される大容量の不揮発性メモリを備える。なお不揮発性記録部16は、着脱可能な記録媒体を備える構成でもよく、半導体メモリカード、光ディスク、リムーバブルハードディスク等が装着される構成でもよい。不揮発性記録部16には、特徴点検出部13による特徴点修正処理で使用するN(Nは2以上の整数)ステージ分の学習モデルデータが記録されている。
The
処理部11は、オブジェクト検出部12、特徴点検出部13及びアプリケーション処理部14を含む。処理部11の構成は、ハードウェア資源とソフトウェア資源の協働、またはハードウェア資源のみにより実現できる。ハードウェア資源として、CPU、GPU、DSP、FPGA、その他のLSIを利用できる。ソフトウェア資源としてオペレーティングシステム、ファームウェア、アプリケーション等のプログラムを利用できる。
The
オブジェクト検出部12は、入力画像内から所定のオブジェクトの識別器を用いて、所定のオブジェクトの大凡の位置と大きさを検出する。以下、本明細書では所定のオブジェクトとして運転者の顔を想定する。特徴点検出部13は、検知対象のオブジェクトを含む入力画像に設定された初期の特徴点座標を、複数のステージで逐次修正し、当該オブジェクトの真の特徴点と推定される特徴点を検出する。アプリケーション処理部14は、特徴点検出部13により検出されたオブジェクトの特徴点をもとに所定のアプリケーション処理を実行する。本実施の形態では例えば、運転者の個人認証、顔向き判定、わき見判定などのアプリケーション処理を実行する。
The
図2(a)−(c)は、特徴点検出部13による特徴点修正処理で使用されるNステージ分の学習モデルデータの生成アルゴリズムを説明するための図である。図2(a)−(c)に示す例では、顔の特徴点として、左右の眉頭、左右の目頭、左右の目尻、鼻の穴の間、口の両端に合計9点を設定している。ステージ1では入力画像内に平均的な顔の特徴点(濃い点)を初期特徴点として設定する(図2(a)参照)。
FIGS. 2A to 2C are diagrams for explaining an algorithm for generating learning model data for N stages used in the feature point correction process by the feature
学習アルゴリズムは、ステージ1における初期特徴点の周囲の特徴量を特徴点ごとに算出し、各特徴点の周囲のパターンを分類する。当該特徴量には輝度の勾配やHOG(Histgrams of Oriented Gradients)特徴量、あるいはその他の任意の特徴量を用いることができる。なお、抽出した特徴量をさらにK−means法などによるクラスタリング、あるいは主成分分析などにより次元圧縮をするなどしたものを当該特徴量としてもよい。学習アルゴリズムは、設定された初期特徴点(濃い点)と、正解特徴点(薄い丸)との差分を修正ベクトルとして算出する。ここで、正解特徴点は、例えばあらかじめ人間が目視で判断して座標を定義する。学習アルゴリズムは、特徴点の周囲のパターンと修正ベクトルを関連付けてステージ1の学習モデルデータとして保存する。例えば、各特徴点の分類パターンごとにルックアップテーブルを用意して、当該ルックアップテーブルに、同一の当該パターンに分類された複数の学習画像から導出した修正ベクトルの平均値や中央値などで代表化した代表値を修正ベクトルとして書き込んでいく。あるいは、特徴量と修正ベクトルとの関係が数式で近似可能な場合はその数式に含まれる係数パラメータなどを学習モデルデータとして保存してもよい。
The learning algorithm calculates the feature amount around the initial feature point in
また学習アルゴリズムは、ステージ1において構築した学習モデルデータを用いて、ステージ1の初期特徴点に対して特徴点の周囲のパターンに対応する学習済みの修正ベクトルを用いて当該初期特徴点を修正することで、ステージ1での検出特徴点を導出し、これをステージ2の初期特徴点として設定する。例えば学習アルゴリズムは、9個の特徴点に対する9本の修正ベクトルをルックアップテーブルから読み込み、9個の特徴点に9本の修正ベクトルをそれぞれ加算して、ステージ2の9個の初期特徴点を導出する(図2(a)および図2(b)参照)。
In addition, the learning algorithm uses the learning model data constructed in
学習アルゴリズムは、ステージ2においてステージ1と同様に、ステージ2の初期特徴点の周囲の特徴量を特徴点ごとに算出し、各特徴点の周囲のパターンを分類する。学習アルゴリズムは、設定された初期特徴点(濃い点)と、正解特徴点(薄い丸)との差分を修正ベクトルとして算出する。学習アルゴリズムは、特徴点の周囲のパターンと修正ベクトルを関連付けてステージ2の学習モデルデータとして保存する。以下、同様の処理をステージNまで繰り返す。ステージが進むにつれて検出特徴点の修正量が小さくなっていき、それに従い検出特徴点と正解特徴点とのずれも小さくなっていく(図2(c)参照)。この学習を多数の顔画像に対して実行することにより、Nステージ分の学習モデルデータが生成される。
The learning algorithm calculates the feature amount around the initial feature point of
図3は、図1のオブジェクト検出部12及び特徴点検出部13の構成を詳細に示したブロック図である。オブジェクト検出部12は、オブジェクト領域検出部121及び初期特徴点出力部122を含む。特徴点検出部13は、ロード順序決定部131、学習モデルデータロード部132、使用ステージ決定部133、修正ベクトル導出部134、特徴点修正部135、信頼度判定部136及び特徴点出力部137を含む。
FIG. 3 is a block diagram showing in detail the configuration of the
オブジェクト領域検出部121は、入力画像内においてオブジェクトの探索窓をラスタスキャンして、オブジェクトが写っている領域を探索する。1度のラスタスキャンが終了すると、探索窓の大きさを変更して再度ラスタスキャンを実行する。この探索には例えば、Haar-Like特徴量を用いたCascade構造の識別器を用いることができる。オブジェクト領域検出部121による検出処理では、オブジェクトの大小や、画像のぼけ具合に関わらず、オブジェクトの大凡の位置と大きさを検出することができる。初期特徴点出力部122は、オブジェクト領域検出部121により検出されたオブジェクトの検出窓をもとに、その検出窓内の大凡の特徴点座標を修正ベクトル導出部134に初期座標として出力する。
The object
ロード順序決定部131は、不揮発性記録部16に保存されたNステージ分の学習モデルデータのワークエリア部15へのロード順序を決定する。学習モデルデータロード部132は、ロード順序決定部131により決定されたロード順序に基づいて、学習モデルデータを不揮発性記録部16からステージ単位でワークエリア部15に順次ロードする。
The load
使用ステージ決定部133は、Nステージ分の学習モデルデータがワークエリア部15にどのステージまでロードされたかに基づいて、各検知ステージにおいて、どのステージの学習モデルデータを使用するかを決定する。修正ベクトル導出部134は各検知ステージにおいて、入力画像内の複数の特徴点の各修正ベクトルを、使用ステージ決定部133により決定されたステージの学習モデルデータから導出する。特徴点修正部135は各検知ステージにおいて、入力画像内の複数の特徴点を、使用ステージ決定部133により導出された各修正ベクトルを用いてそれぞれ修正する。
The use
信頼度判定部136は検知ステージごとに、特徴点修正の信頼度を判定する。信頼度判定部136は、ある検知ステージで導出された修正ベクトルの信頼度が基準値に満たない場合、当該検知ステージで導出された修正ベクトルの信頼度が低いと判定する。
The
特徴点出力部137は、Nステージにわたる修正後の特徴点を、特徴点検出部13の検出結果としてアプリケーション処理部14に出力する。特徴点出力部137は特徴点の修正過程において、信頼度判定部136により信頼度が低いと判定された検知ステージが発生した場合、その検知ステージにおける特徴点の修正をキャンセルし、直前の検知ステージの特徴点の状態に戻す。なお信頼度判定部136により信頼度が低いと判定された検知ステージが発生した場合、そのフレームの特徴点検出を無効としてもよい。また所定の回数以上、信頼度判定部136により信頼度が低いと判定された検知ステージが発生した場合に、そのフレームの特徴点検出を無効としてもよい。
The feature
以上の構成において、撮像システム1の起動時にNステージ分の学習モデルデータを不揮発性記録部16からワークエリア部15にロードするために長い時間を要する。ステージの数、特徴点の数、特徴点の周囲のパターン分類の数が多くなるほど、学習モデルデータの量が大きくなる。安価な組み込み型のシステムでは、バスのバンド幅が狭く、不揮発性記録部16からワークエリア部15に学習モデルデータを全てロードするのに、数秒以上を要する場合もある。例えば撮像システム1を、運転開始時の個人認証に使用する場合、イグニッションオンしてから実際に車両を動かせる状態になるまで数秒以上の時間がかかることになる。以下、このロードの待ち時間を短縮する仕組みを導入する。
In the above configuration, it takes a long time to load learning model data for N stages from the
まず実施例1を説明する。実施例1では、Nステージ分の学習モデルデータを途中までワークエリア部15にロードした段階で、ワークエリア部15にロード済みの学習モデルデータを使用して検知を開始する。即ち、一部のステージのロードが完了した時点で検知を開始し、学習モデルデータが未ロードの検知ステージでは、ロード済みの学習モデルデータで代替して検知を行う。
Example 1 will be described first. In the first embodiment, when learning model data for N stages is loaded into the
図4は、実施例1に係る、各検知ステージと使用する学習モデルデータの関係を示す図である。比較例は、Nステージ分の学習モデルデータのワークエリア部15へのロードが全て完了してから検知を開始する例である。比較例では、各検知ステージと、各検知ステージで使用する学習モデルデータのステージは常に一致する。これに対して実施例1では、ステージkまでのロードが完了した段階で検知を開始する。実施例1ではステージk以降のステージk〜Nでは、ステージkの学習モデルデータを使用して特徴点を修正する。
FIG. 4 is a diagram illustrating a relationship between each detection stage and learning model data to be used according to the first embodiment. The comparative example is an example in which detection is started after the loading of learning model data for N stages to the
次に実施例2を説明する。実施例2では、学習モデルデータのロード順序を変えることで、より実際のステージに近いデータを使用可能とするものであり、実施例1と比較して修正精度が向上する。例えば、ロード順序は、ステージ1を含み一部のステージを含まないステージ群を昇順に順次ロードした後に、残りのステージをロードする。なお、当該残りのステージのロード順序は、当該残りのステージの全部または一部をさらに昇順に順次ロードする順序に設定してもよい。
Next, Example 2 will be described. In the second embodiment, data closer to the actual stage can be used by changing the loading order of the learning model data, and the correction accuracy is improved as compared with the first embodiment. For example, the loading order is to sequentially load a stage
図5は、実施例2に係る、各検知ステージと使用する学習モデルデータの関係を示す図である。図5に示す例では、7ステージ分の学習モデルデータを使用する例を示しており、その学習モデルデータのロード順序は、1、2、4、6、3、5、7に設定されている。ステージ1の学習モデルデータしかロードされていない段階で検知を開始すると、全ての検知ステージでステージ1の学習モデルデータを使用することになり、誤差が大きくなる。従って、全検知ステージの数(図5では7)に対して、約半分の数(図5では、3または4)のステージの学習モデルデータのロードが完了した段階から検知を開始することが好ましい。ステージ1、2、4、6の学習モデルデータのロードが完了した段階で検知を開始すると、各検知ステージにおいて、自ステージまたは直前のステージの学習モデルデータを使用することができ、誤差を最小限に抑えることができる。
FIG. 5 is a diagram illustrating a relationship between each detection stage and learning model data to be used according to the second embodiment. The example shown in FIG. 5 shows an example in which learning model data for seven stages is used, and the loading order of the learning model data is set to 1, 2, 4, 6, 3, 5, 7 . If detection is started at the stage where only the learning model data of
このように学習モデルデータのロード順序は、基本的に1つ飛ばして2回ループする「1、2、4、6、3、5、7」か「1、3、5、7、2、4、6」が好ましいことが分かる。以下、最適な学習モデルデータのロード順序と、最適なステージ選択ルールを導出する方法を説明する。 As described above, the learning model data is basically loaded in the order of “1, 2, 4, 6, 3, 5, 7” or “1, 3, 5, 7, 2, 4” which skips one and loops twice. , 6 "is preferred. Hereinafter, an optimal learning model data loading order and a method for deriving an optimal stage selection rule will be described.
複数のテスト画像を用いて、修正された特徴点と正解特徴点との平均誤差が最小となるステージ選択ルールを決定する。まず、ステージ選択ルールの複数の候補を用意する。最終ステージであるステージ7において、選択した学習モデルデータの修正ベクトルによる修正後の特徴点と正解特徴点との誤差を特徴点ごとに算出し、それらの誤差の平均を算出する。その際、修正後の特徴点と正解特徴点との誤差を示す値として、生のピクセル数ではなく、右眼と左眼の間の距離で正規化したピクセル数を使用する。これにより、テスト画像内の顔の大きさの違いにより、平均誤差の値が影響を受けることを防止することができる。なお、上記以外の任意の正規化を行ってもよい。
A stage selection rule that minimizes the average error between the corrected feature point and the correct feature point is determined using a plurality of test images. First, a plurality of candidates for stage selection rules are prepared. In
次に各テスト画像における平均誤差を全テスト画像で平均化して、テスト画像全体に対する平均誤差を算出する。最後に平均誤差が最小となるステージ選択ルールを採用する。なお、全てのテスト画像の平均誤差ではなく、例えばワースト2割のテスト画像の平均誤差を使用してもよい。この場合、大きく外れた修正を行ったステージ選択候補の評価が下がり、どの画像に対しても安定した修正を行ったステージ選択候補が採用されやすくなる。なお、上記以外の方法により誤差の代表値を導出してもよい。 Next, the average error in each test image is averaged over all test images, and the average error for the entire test image is calculated. Finally, a stage selection rule that minimizes the average error is adopted. Instead of the average error of all test images, for example, the average error of the worst 20% test images may be used. In this case, the evaluation of stage selection candidates that have undergone significant corrections is reduced, and it becomes easier to employ stage selection candidates that have been stably corrected for any image. Note that the error representative value may be derived by a method other than the above.
図6は、実施例2に係るステージ選択ルールの決定処理の一例を示す図である。図6に示す例は、ワークエリア部15に4つのステージの学習モデルデータがロードされた段階において、各検知ステージで使用する学習モデルデータの選択ルールとして、最適なものを決定するための例である。図6では4つのステージ選択ルールの候補についてテストが実行され、候補3が最も平均誤差が小さくなったことを示している。候補3のステージ選択ルールを実現するには、ワークエリア部15に4つのステージの学習モデルデータがロードされた段階において、ステージ1、2、4、6の学習モデルデータがロードされていることが必要となる。従って、学習モデルデータのロード順序は、「1、2、4、6、3、5、7」が適切であると決定することができる。
FIG. 6 is a diagram illustrating an example of a stage selection rule determination process according to the second embodiment. The example shown in FIG. 6 is an example for determining an optimum learning model data selection rule to be used in each detection stage at the stage where learning model data of four stages is loaded in the
実施例1、2では、検知ステージと、使用する学習モデルデータのステージが一致しない状態が発生する。このステージが一致しないことによる悪影響を軽減するため信頼度判定部136を設けている。信頼度判定部136は、ある検知ステージで導出された修正ベクトルの信頼度が基準値に満たない場合、当該修正ベクトルの信頼度が低いと判定する。例えば、ステージt(tは1〜Nの整数)で導出された複数の修正ベクトルの平均長が、ステージ(t−1)で導出された複数の修正ベクトルの平均長より所定値以上大きい場合、ステージtで導出された修正ベクトルの信頼度が低いと判定する。修正ベクトルの長さは、修正ベクトルのX、Y成分の二乗和の平方根などで求めることができる。
In the first and second embodiments, a state occurs in which the detection stage does not match the stage of the learning model data to be used. A
また信頼度判定部136は、例えば初期特徴点をあらかじめ複数用意する、あるいは1つの初期特徴点に乱数を加えるなどして生成した複数の初期特徴点に対して複数の検知を行い、ステージtの複数の修正ベクトルを導出した場合に、当該複数の修正ベクトルの分散または修正後の複数の特徴点の分散が、ステージ(t−1)で導出された複数の修正ベクトルの分散または修正後の複数の特徴点の分散より所定値以上大きい場合、ステージtで導出された修正ベクトルの信頼度が低いと判定してもよい。特徴点の修正が正解に向けて正しく行われている場合、ステージが進むにつれて修正量が減少して収束していく筈であり、直前のステージより修正ベクトルの長さや分散、特徴点同士の分散が増加している場合は修正が成功していないことを示唆している。
In addition, the
図7(a)、(b)は、比較例に係る画像処理装置10の動作例を示すフローチャートである。図7(a)はメインルーチンを示し、図7(b)は顔特徴点検出のサブルーチンを示している。図8(a)−(c)は、図7(a)、(b)の動作例により検出される特徴点の具体例を示す図である。
FIGS. 7A and 7B are flowcharts illustrating an operation example of the
図7(a)において、オブジェクト検出部12は、撮像部20から入力された入力画像において顔領域Rfを検出する(S10、図8(a)参照)。学習モデルデータロード部132は、不揮発性記録部16に記録されているNステージ分の学習モデルデータをステージ順にワークエリア部15にロードしていく(S12)。Nステージ分の学習モデルデータの全てのロードが完了すると顔特徴点検出処理が開始する(S13)。
In FIG. 7A, the
図7(b)において、初期特徴点出力部122は顔領域Rfに初期の特徴点を設定する(S130)。使用ステージ決定部133は、ステージtの学習モデルデータを選択する(S132)。修正ベクトル導出部134は、ステージtの学習モデルデータを使用して、検知ステージtの特徴点の修正ベクトルを導出する(S133)。特徴点修正部135は、導出された修正ベクトルを用いて検知ステージtの特徴点を修正する(S134)。ステップS132からステップS134までの処理が、N回繰り返し実行される。図8(b)は初期の特徴点の位置を示しており、図8(b)は修正完了後の特徴点の位置を示している。
In FIG. 7B, the initial feature
図7(a)において、アプリケーション処理部14は、顔特徴点検出処理において検出された特徴点をもとに顔向きを推定し(S14)、わき見の有無を判定する(S15)。アプリケーション処理部14は、運転者がわき見をしていると判定すると、アラート信号を出力する。図7(a)に示した処理がフレーム毎に実行される。アプリケーション処理部14は、複数のフレーム間の各特徴点の移動量および移動方向を検出することにより、わき見の有無を判定してもよい。
In FIG. 7A, the
図9(a)、(b)は、実施例2に係る画像処理装置10の動作例を示すフローチャートである。図9(a)において、オブジェクト検出部12は、撮像部20から入力された入力画像において顔領域Rfを検出する(S10)。ロード順序決定部131は、Nステージ分の学習モデルデータの不揮発性記録部16からワークエリア部15へのロード順序を決定する(S11)。学習モデルデータロード部132は、決定されたロード順序に従い、学習モデルデータをワークエリア部15にロードしていく(S12a)。実施例2ではNステージ分の学習モデルデータの全てのロードが完了する前に、顔特徴点検出処理が開始する(S13)。
FIGS. 9A and 9B are flowcharts illustrating an operation example of the
図9(b)において、初期特徴点出力部122は顔領域Rfに初期の特徴点を設定する(S130)。使用ステージ決定部133は、予め設定されたステージ選択ルールに従い、検知ステージtで使用する学習モデルデータのステージmを決定する(S131)。使用ステージ決定部133は、決定したステージmの学習モデルデータを選択する(S132a)。修正ベクトル導出部134は、ステージmの学習モデルデータを使用して、検知ステージtの特徴点の修正ベクトルを導出する(S133)。特徴点修正部135は、導出された修正ベクトルを用いて検知ステージtの特徴点を修正する(S134)。
In FIG. 9B, the initial feature
信頼度判定部136は、検知ステージtの修正ベクトルの信頼度を算出する(S135)。算出された信頼度が基準値未満の場合(S136のN)、特徴点出力部137は、検知ステージtの修正をキャンセルし、検知ステージ(t−1)の特徴点を検知ステージ(t+1)に出力する(S137)。算出された信頼度が基準値以上の場合(S136のY)、ステップS137の処理はスキップされる。ステップS131からステップS137までの処理が、N回繰り返し実行される。
The
図9(a)において、アプリケーション処理部14は、顔特徴点検出処理において検出された特徴点をもとに顔向きを推定し(S14)、わき見の有無を判定する(S15)。
In FIG. 9A, the
以上説明したように本実施の形態によれば、学習モデルデータを不揮発性記録部16からワークエリア部15へロードする際、Nステージ分の学習モデルデータを予め決定した順序でステージ単位で順次ロードする。一部のステージのロードが完了した時点から検知を開始し、未ロードのステージの検知を行う際は、予め決定した選択ルールに従い、現在の検知ステージに最も近いロード済みステージの学習モデルデータを代替して使用する。代替時の精度低下が最小となるようにロード順序を決定しておくことにより、検知開始までの時間を短縮しつつ、精度低下を抑えた検知が可能となる。
As described above, according to the present embodiment, when learning model data is loaded from the
また、各検知ステージにおいて信頼度を算出し、信頼度が低いと判断した場合は、1つ前のステージの特徴点を検知結果として出力する。これにより、精度低下を抑えた検知が可能となる。 If the reliability is calculated at each detection stage and it is determined that the reliability is low, the feature point of the previous stage is output as the detection result. As a result, detection with reduced accuracy can be performed.
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素または各処理プロセスの組み合わせに、いろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described based on the embodiments. The embodiments are exemplifications, and it is understood by those skilled in the art that various modifications can be made to the respective components or combinations of the respective treatment processes, and such modifications are also within the scope of the present invention. is there.
上述の実施の形態では、検知対象のオブジェクトが単一の例を説明した。この点、検知対象のオブジェクトが複数の場合、Nステージ分の学習モデルデータがオブジェクトごとに不揮発性記録部16に保存される。例えば、ノーマルの顔検知用の学習モデルデータA、マスクをした顔検知用の学習モデルデータB、サングラスをした顔検知用の学習モデルデータCが不揮発性記録部16内に保存される。
In the above-described embodiment, the example in which the object to be detected is single has been described. In this regard, when there are a plurality of objects to be detected, learning model data for N stages is stored in the
オブジェクト検出部12は、入力画像内で検出されたオブジェクトを示すオブジェクトIDを特徴点検出部13に出力する。特徴点検出部13の学習モデルデータロード部132は、オブジェクトIDに対応する学習モデルデータを、不揮発性記録部16からワークエリア部15に上述した実施例1または実施例2に係る方法でロードする。
The
以下、オブジェクト切り替え前の学習モデルデータ(ノーマル顔の学習モデルデータ)を学習モデルデータAとし、オブジェクト切り替え後の学習モデルデータ(マスクをした顔の学習モデルデータ)を学習モデルデータBとする。学習モデルデータBを使用した検知ステージの信頼度が基準値未満であり、学習モデルデータAがワークエリア部15に残存している場合、学習モデルデータAを使用した場合の信頼度を算出し、基準値以上の場合、学習モデルデータAを使用した検知に復帰してもよい。この場合、ワークエリア部15の学習モデルデータAが上書きされることを防止し、学習モデルデータAの再ロードを回避することができる。
Hereinafter, learning model data before switching objects (learning model data for normal faces) is referred to as learning model data A, and learning model data after switching objects (masked face learning model data) is referred to as learning model data B. When the reliability of the detection stage using the learning model data B is less than the reference value and the learning model data A remains in the
アプリケーション処理部14は、複数のアプリケーション処理のそれぞれの開始タイミングを、ワークエリア部15への学習モデルデータのロード済みのステージ数に応じて決定してもよい。例えば、顔の表情から感情を推定するアプリケーションの場合、精通な特徴点の検出が必要となるため、全てのステージの学習モデルデータのロードが完了してから処理を開始する。一方、顔向き推定のアプリケーションは大凡の特徴点から検出できるため、一部のステージの学習モデルデータのロードが完了した時点で処理を開始する。アプリケーション処理部14は、ワークエリア部15へのロード済みステージ数が増えるにつれて、複数のアプリケーションの内、処理可能なアプリケーションを順次有効化していく。
The
上述の実施の形態では、特徴点検出部13における初期の特徴点座標を、オブジェクト検出部12により検出されたオブジェクトの大凡の特徴点座標から設定する例を説明した。この点、画像内のオブジェクトの大きさと位置が概ね決まっている用途(例えば、証明写真)の場合、予め決まった位置に平均顔の特徴点を初期の特徴点として設定してもよい。
In the above-described embodiment, the example in which the initial feature point coordinates in the feature
上述の実施の形態では画像処理装置10として、車内に設置される撮像システム1内に組み込まれる画像処理装置10を想定した。この点、画像処理装置10はスマートフォン、PCなど情報処理機器全般のいずれの機器に搭載されるものであってもよい。例えば、PCであっても低スペックの機種であれば、ハードディスク内の学習モデルデータをRAMにロードするのに長い時間を要するものもある。このような場合、上述の実施の形態で説明した手法が有効に機能する。
In the above-described embodiment, the
なお、実施の形態は、以下の項目によって特定されてもよい。 The embodiment may be specified by the following items.
[項目1]
それぞれが特徴点の修正ベクトルの導出に寄与するN(Nは2以上の整数)ステージの学習モデルデータを用いて、入力画像内の初期の特徴点を段階的に修正してオブジェクトの特徴点を検出する画像処理装置(10)であって、
前記Nステージの学習モデルデータをロードするためのワークエリア部(15)と、
入力画像内の初期の各特徴点の周辺の特徴量または1つ前のステージにおいて修正された各特徴点の周辺の特徴量をもとに、前記ワークエリア部(15)に保持される、対応するステージの学習モデルデータを参照して各特徴点の修正ベクトルを導出する修正ベクトル導出部(134)と、
前記入力画像内の各特徴点を、導出された各修正ベクトルをもとに修正する特徴点修正部(135)と、を備え、
少なくとも本画像処理装置(10)の起動時において、前記Nステージの学習モデルデータを記録している記録部(16)から前記ワークエリア部(15)への前記Nステージの学習モデルデータのロードが完了する前から、前記修正ベクトル導出部(134)および前記特徴点修正部(135)は、特徴点の修正処理を開始し、
前記修正ベクトル導出部(134)は、ステージt(1≦t≦N)の修正ベクトルを導出する際に、前記ワークエリア部(15)にステージtの学習モデルデータがロードされていない場合、他のステージの学習モデルデータを代用して修正ベクトルを導出することを特徴とする画像処理装置(10)。
これによれば、特徴点の修正処理の開始タイミングを早めることができる。
[項目2]
前記修正ベクトル導出部(134)は、ステージt(1≦t≦N)の修正ベクトルを導出する際に、前記ワークエリア部(15)にステージtの学習モデルデータがロードされていない場合、前記ワークエリア部(15)に既にロードされている学習モデルデータの内、最も近いステージの学習モデルデータを代用して修正ベクトルを導出することを特徴とする項目1に記載の画像処理装置(10)。
これによれば、特徴点の修正精度の低下を抑制しつつ、修正処理の開始タイミングを早めることができる。
[項目3]
前記記録部(16)から前記ワークエリア部(15)への前記Nステージの学習モデルデータのロード順序は、ステージ1を含み一部のステージを飛ばしたステージ群を昇順に順次ロードした後、飛ばしたステージを順次ロードする順序であることを特徴とする項目1または2に記載の画像処理装置(10)。
これによれば、学習モデルデータの代用が必要なステージにおいて、近いステージの学習モデルデータを代用することができ、特徴点の修正精度の低下を抑制することができる。
[項目4]
前記Nステージの学習モデルデータの前記ワークエリア部(15)へのロード順序を決定するロード順序決定部(131)と、
前記ロード順序決定部(131)で決定されたロード順序に基づいて、前記Nステージの学習モデルデータをステージ単位で順次ロードする学習モデルデータロード部(132)と、をさらに備え、
前記ロード順序決定部(131)は、複数のロード順序候補の中から、テストデータに対する特徴点の修正処理において正解特徴点との誤差の平均が最小となるロード順序候補を、使用するロード順序に決定することを特徴とする項目1から3のいずれかに記載の画像処理装置(10)。
これによれば、特徴点の修正精度の低下をさらに抑制することができる。
[項目5]
各ステージで導出される特徴点の修正ベクトルの信頼度を判定する信頼度判定部(136)をさらに備え、
前記信頼度判定部(136)は、ステージtで導出された修正ベクトルの信頼度が基準値に満たない場合、ステージtの特徴点の修正を無効にすることを特徴とする項目1から4のいずれかに記載の画像処理装置(10)。
これによれば、信頼度の低い特徴点の修正を無効にすることにより、修正精度の低下を抑制することができる。
[項目6]
前記信頼度判定部(136)は、ステージtで導出された複数の修正ベクトルの長さの平均値が、ステージ(t−1)で導出された複数の修正ベクトルの長さの平均値より所定値以上大きい場合、ステージtの複数の特徴点の修正を無効にすることを特徴とする項目5に記載の画像処理装置(10)。
これによれば、直前のステージの修正と現在のステージの修正とを比較することにより、修正精度を的確に評価することができる。
[項目7]
前記記録部(16)には、前記Nステージの学習モデルデータが検知対象のオブジェクトごとに記録されており、
検知対象が第1オブジェクトから第2オブジェクトに切り替わる際、前記記録部(16)から前記ワークエリア部(15)への前記第2オブジェクトのNステージの学習モデルデータのロードが完了する前から、前記修正ベクトル導出部(134)および前記特徴点修正部(135)は、前記第2オブジェクトの特徴点の修正処理を開始し、
前記修正ベクトル導出部(134)は、前記第2オブジェクトの特徴点の修正処理において、ステージt(1≦t≦N)の修正ベクトルを導出する際に、前記ワークエリア部(15)にステージtの学習モデルデータがロードされていない場合、他のステージの学習モデルデータを代用して修正ベクトルを導出することを特徴とする項目1から4のいずれかに記載の画像処理装置(10)。
これによれば、第1オブジェクトから第2オブジェクトへの切り替え時において、第2オブジェクトの特徴点の修正処理の開始タイミングを早めることができる。
[項目8]
各ステージで導出される特徴点の修正ベクトルの信頼度を判定する信頼度判定部(136)をさらに備え、
前記信頼度判定部(136)は、前記第2オブジェクトの学習モデルデータを使用した修正ベクトルの信頼度が基準値に満たない場合であり、かつ前記ワークエリア部(15)に残存している前記第1オブジェクトの学習モデルデータを使用した修正ベクトルの信頼度が基準値を満たす場合、第1オブジェクトの検知処理に切り替えることを特徴とする項目7に記載の画像処理装置(10)。
これによれば、ワークエリア部(15)に残存している第1オブジェクトの学習モデルデータを有効活用することができる。
[項目9]
前記入力画像内において特定のオブジェクトを探索し、検出した特定のオブジェクトの検出枠を設定するオブジェクト領域検出部(121)と、
前記検出枠内のオブジェクトの特徴点を、前記初期の特徴点に設定する初期特徴点設定部(122)と、
をさらに備えることを特徴とする項目1から8のいずれかに記載の画像処理装置(10)。
これによれば、初期の特徴点を、正解の特徴点に比較的に近い位置に設定することができる。
[項目10]
前記初期の特徴点の段階的な修正が完了した後の特徴点をもとに、複数のアプリケーション処理を実行するアプリケーション処理部(14)をさらに備え、
前記アプリケーション処理部(14)は、前記複数のアプリケーション処理のそれぞれの開始タイミングを、前記ワークエリア部(15)への前記学習モデルデータのロード済みのステージ数に応じて決定することを特徴とする項目1から9のいずれかに記載の画像処理装置(10)。
これによれば、アプリケーション処理の開始タイミングを最適化することができる。
[項目11]
前記入力画像は、車両内に設置された運転者の顔を撮影するための撮像部(20)から入力された画像であり、
検知対象のオブジェクトは、運転者の顔であることを特徴とする項目1から10のいずれかに記載の画像処理装置(10)。
これによれば、運転者の顔検出システムにおいて、特徴点の修正処理の開始タイミングを早めることができる。
[項目12]
それぞれが特徴点の修正ベクトルの導出に寄与するN(Nは2以上の整数)ステージの学習モデルデータを用いて、入力画像内の初期の特徴点を段階的に修正してオブジェクトの特徴点を検出する画像処理方法であって、
前記Nステージの学習モデルデータをワークエリア部(15)にロードするステップと、
入力画像内の初期の各特徴点の周辺の特徴量または1つ前のステージにおいて修正された各特徴点の周辺の特徴量をもとに、前記ワークエリア部(15)に保持される、対応するステージの学習モデルデータを参照して各特徴点の修正ベクトルを導出するステップと、
前記入力画像内の各特徴点を、導出された各修正ベクトルをもとに修正するステップと、を有し、
少なくとも起動時において、前記Nステージの学習モデルデータを記録している記録部(16)から前記ワークエリア部(15)への前記Nステージの学習モデルデータのロードが完了する前から、前記修正ベクトルを導出する処理および前記特徴点を修正する処理は、特徴点の修正処理を開始し、
前記修正ベクトルを導出するステップは、ステージt(1≦t≦N)の修正ベクトルを導出する際に、前記ワークエリア部(15)にステージtの学習モデルデータがロードされていない場合、他のステージの学習モデルデータを代用して修正ベクトルを導出することを特徴とする画像処理方法。
これによれば、特徴点の修正処理の開始タイミングを早めることができる。
[項目13]
それぞれが特徴点の修正ベクトルの導出に寄与するN(Nは2以上の整数)ステージの学習モデルデータを用いて、入力画像内の初期の特徴点を段階的に修正してオブジェクトの特徴点を検出する画像処理プログラムであって、
前記Nステージの学習モデルデータをワークエリア部(15)にロードする処理と、
入力画像内の初期の各特徴点の周辺の特徴量または1つ前のステージにおいて修正された各特徴点の周辺の特徴量をもとに、前記ワークエリア部(15)に保持される、対応するステージの学習モデルデータを参照して各特徴点の修正ベクトルを導出する処理と、
前記入力画像内の各特徴点を、導出された各修正ベクトルをもとに修正する処理と、をコンピュータに実行させ、
少なくとも起動時において、前記Nステージの学習モデルデータを記録している記録部(16)から前記ワークエリア部(15)への前記Nステージの学習モデルデータのロードが完了する前から、前記修正ベクトルを導出する処理および前記特徴点を修正する処理は、特徴点の修正処理を開始し、
前記修正ベクトルを導出する処理は、ステージt(1≦t≦N)の修正ベクトルを導出する際に、前記ワークエリア部(15)にステージtの学習モデルデータがロードされていない場合、他のステージの学習モデルデータを代用して修正ベクトルを導出することを特徴とする画像処理プログラム。
これによれば、特徴点の修正処理の開始タイミングを早めることができる。
[Item 1]
Using the learning model data of N (N is an integer of 2 or more) stages, each of which contributes to the derivation of the correction vector of the feature point, the initial feature point in the input image is corrected step by step to obtain the feature point of the object. An image processing device (10) to detect,
A work area section (15) for loading the N-stage learning model data;
Correspondence stored in the work area unit (15) based on the feature amount around each initial feature point in the input image or the feature amount around each feature point modified in the previous stage A correction vector deriving unit (134) for deriving a correction vector of each feature point with reference to the learning model data of the stage to perform;
A feature point correction unit (135) that corrects each feature point in the input image based on each derived correction vector;
At least when the image processing apparatus (10) is activated, the N stage learning model data is loaded from the recording unit (16) recording the N stage learning model data to the work area unit (15). Before completion, the correction vector deriving unit (134) and the feature point correcting unit (135) start the feature point correcting process,
When the correction vector deriving unit (134) derives the correction vector of the stage t (1 ≦ t ≦ N), if the learning model data of the stage t is not loaded in the work area unit (15), the other An image processing apparatus (10), wherein a correction vector is derived by substituting the learning model data of the stage.
According to this, the start timing of the feature point correction processing can be advanced.
[Item 2]
When the correction vector deriving unit (134) derives the correction vector of the stage t (1 ≦ t ≦ N) and the learning model data of the stage t is not loaded in the work area unit (15), the correction vector deriving unit (134)
According to this, the start timing of the correction process can be advanced while suppressing a decrease in the correction accuracy of the feature points.
[Item 3]
The learning order data of the N stages from the recording unit (16) to the work area unit (15) is loaded after the stage
According to this, in the stage where learning model data needs to be substituted, the learning model data of the near stage can be substituted, and the reduction in the correction accuracy of the feature points can be suppressed.
[Item 4]
A load order determination unit (131) for determining a load order of the N-stage learning model data to the work area unit (15);
A learning model data loading unit (132) that sequentially loads the learning model data of the N stages in units of stages based on the loading order determined by the loading order determination unit (131);
The load order determination unit (131) selects a load order candidate that has the smallest average error from the correct feature point in the correction process of feature points for test data from among a plurality of load order candidates as a load order to use. The image processing apparatus (10) according to any one of
According to this, it is possible to further suppress a decrease in the correction accuracy of the feature points.
[Item 5]
A reliability determination unit (136) for determining the reliability of the correction vector of the feature point derived at each stage;
The reliability determination unit (136) invalidates the correction of the feature point of the stage t when the reliability of the correction vector derived at the stage t is less than a reference value. The image processing device (10) according to any one of the above.
According to this, it is possible to suppress a reduction in correction accuracy by invalidating correction of feature points with low reliability.
[Item 6]
The reliability determination unit (136) determines the average value of the lengths of the plurality of correction vectors derived at the stage t from the average value of the lengths of the plurality of correction vectors derived at the stage (t-1). The image processing apparatus (10) according to
According to this, the correction accuracy can be accurately evaluated by comparing the correction of the immediately preceding stage with the correction of the current stage.
[Item 7]
In the recording unit (16), the learning model data of the N stage is recorded for each object to be detected,
When the detection target is switched from the first object to the second object, the loading of the learning model data of the N stage of the second object from the recording unit (16) to the work area unit (15) is completed. The correction vector deriving unit (134) and the feature point correcting unit (135) start correction processing of the feature points of the second object,
When the correction vector deriving unit (134) derives the correction vector of the stage t (1 ≦ t ≦ N) in the correction process of the feature point of the second object, the correction vector deriving unit (134) outputs the stage t to the work area unit (15). 5. The image processing device (10) according to any one of
According to this, at the time of switching from the first object to the second object, it is possible to advance the start timing of the correction process of the feature point of the second object.
[Item 8]
A reliability determination unit (136) for determining the reliability of the correction vector of the feature point derived at each stage;
The reliability determination unit (136) is a case where the reliability of the correction vector using the learning model data of the second object is less than a reference value, and remains in the work area unit (15) 8. The image processing apparatus (10) according to
According to this, it is possible to effectively utilize the learning model data of the first object remaining in the work area part (15).
[Item 9]
An object area detection unit (121) for searching for a specific object in the input image and setting a detection frame of the detected specific object;
An initial feature point setting unit (122) for setting a feature point of an object in the detection frame as the initial feature point;
The image processing apparatus (10) according to any one of
According to this, the initial feature point can be set at a position relatively close to the correct feature point.
[Item 10]
An application processing unit (14) for executing a plurality of application processes based on the feature points after the stepwise correction of the initial feature points is completed;
The application processing unit (14) determines the start timing of each of the plurality of application processes according to the number of stages in which the learning model data has been loaded into the work area unit (15). The image processing apparatus (10) according to any one of
According to this, the start timing of application processing can be optimized.
[Item 11]
The input image is an image input from an imaging unit (20) for photographing a driver's face installed in a vehicle,
The image processing device (10) according to any one of
According to this, in the driver's face detection system, the start timing of the feature point correction process can be advanced.
[Item 12]
Using the learning model data of N (N is an integer of 2 or more) stages, each of which contributes to the derivation of the correction vector of the feature point, the initial feature point in the input image is corrected step by step to obtain the feature point of the object. An image processing method to detect,
Loading the N stage learning model data into the work area section (15);
Correspondence stored in the work area unit (15) based on the feature amount around each initial feature point in the input image or the feature amount around each feature point modified in the previous stage Deriving a correction vector of each feature point with reference to learning model data of the stage to be performed;
Correcting each feature point in the input image based on each derived correction vector,
At least at the time of activation, the correction vector is stored before the learning model data of the N stage is completely loaded from the recording unit (16) in which the learning model data of the N stage is recorded to the work area unit (15). The process of deriving and the process of correcting the feature point starts the process of correcting the feature point,
In the step of deriving the correction vector, if the learning model data of stage t is not loaded in the work area part (15) when deriving the correction vector of stage t (1 ≦ t ≦ N), An image processing method, wherein a correction vector is derived by substituting learning model data of a stage.
According to this, the start timing of the feature point correction processing can be advanced.
[Item 13]
Using the learning model data of N (N is an integer of 2 or more) stages, each of which contributes to the derivation of the correction vector of the feature point, the initial feature point in the input image is corrected step by step to obtain the feature point of the object. An image processing program to detect,
A process of loading the N-stage learning model data into the work area unit (15);
Correspondence stored in the work area unit (15) based on the feature amount around each initial feature point in the input image or the feature amount around each feature point modified in the previous stage A process for deriving a correction vector of each feature point with reference to the learning model data of the stage to be performed,
Processing for correcting each feature point in the input image based on each derived correction vector,
At least at the time of activation, the correction vector is stored before the learning model data of the N stage is completely loaded from the recording unit (16) in which the learning model data of the N stage is recorded to the work area unit (15). The process of deriving and the process of correcting the feature point starts the process of correcting the feature point,
In the process of deriving the correction vector, when deriving the correction vector of stage t (1 ≦ t ≦ N), if learning model data of stage t is not loaded in the work area part (15), An image processing program that derives a correction vector by substituting learning model data of a stage.
According to this, the start timing of the feature point correction processing can be advanced.
1 撮像システム、 10 画像処理装置、 11 処理部、 12 オブジェクト検出部、 13 特徴点検出部、 14 アプリケーション処理部、 15 ワークエリア部、 16 不揮発性記録部、 20 撮像部、 121 オブジェクト領域検出部、 122 初期特徴点出力部、 131 ロード順序決定部、 132 学習モデルデータロード部、 133 使用ステージ決定部、 134 修正ベクトル導出部、 135 特徴点修正部、 136 信頼度判定部、 137 特徴点出力部。
DESCRIPTION OF
Claims (13)
前記Nステージの学習モデルデータをロードするためのワークエリア部と、
入力画像内の初期の各特徴点の周辺の特徴量または1つ前のステージにおいて修正された各特徴点の周辺の特徴量をもとに、前記ワークエリア部に保持される、対応するステージの学習モデルデータを参照して各特徴点の修正ベクトルを導出する修正ベクトル導出部と、
前記入力画像内の各特徴点を、導出された各修正ベクトルをもとに修正する特徴点修正部と、を備え、
少なくとも本画像処理装置の起動時において、前記Nステージの学習モデルデータを記録している記録部から前記ワークエリア部への前記Nステージの学習モデルデータのロードが完了する前から、前記修正ベクトル導出部および前記特徴点修正部は、特徴点の修正処理を開始し、
前記修正ベクトル導出部は、ステージt(1≦t≦N)の修正ベクトルを導出する際に、前記ワークエリア部にステージtの学習モデルデータがロードされていない場合、他のステージの学習モデルデータを代用して修正ベクトルを導出することを特徴とする画像処理装置。 Using the learning model data of N (N is an integer of 2 or more) stages, each of which contributes to the derivation of the correction vector of the feature point, the initial feature point in the input image is corrected step by step to obtain the feature point of the object. An image processing device to detect,
A work area section for loading the N-stage learning model data;
Based on the feature amount around each initial feature point in the input image or the feature amount around each feature point modified in the previous stage, the corresponding stage held in the work area unit A correction vector deriving unit for deriving a correction vector of each feature point with reference to the learning model data;
A feature point correction unit that corrects each feature point in the input image based on each derived correction vector;
At least when the image processing apparatus is activated, the correction vector derivation is performed before the loading of the N stage learning model data from the recording unit recording the N stage learning model data to the work area unit is completed. And the feature point correction unit start a feature point correction process,
When the correction vector deriving unit derives the correction vector of the stage t (1 ≦ t ≦ N), if the learning model data of the stage t is not loaded in the work area unit, the learning model data of another stage An image processing apparatus that derives a correction vector by substituting.
前記ロード順序決定部で決定されたロード順序に基づいて、前記Nステージの学習モデルデータをステージ単位で順次ロードする学習モデルデータロード部と、をさらに備え、
前記ロード順序決定部は、複数のロード順序候補の中から、テストデータに対する特徴点の修正処理において正解特徴点との誤差の平均が最小となるロード順序候補を、使用するロード順序に決定することを特徴とする請求項1から3のいずれかに記載の画像処理装置。 A load order determination unit for determining a load order of the learning model data of the N stages to the work area unit;
A learning model data loading unit that sequentially loads the learning model data of the N stages in units of stages based on the loading order determined by the loading order determination unit;
The load order determination unit determines, from among a plurality of load order candidates, a load order candidate that minimizes an average error from the correct feature point in the correction process of the feature points for the test data as a load order to be used. The image processing apparatus according to claim 1, wherein:
前記信頼度判定部は、ステージtで導出された修正ベクトルの信頼度が基準値に満たない場合、ステージtの特徴点の修正を無効にすることを特徴とする請求項1から4のいずれかに記載の画像処理装置。 A reliability determination unit that determines the reliability of the correction vector of the feature point derived at each stage;
The reliability determination unit invalidates the correction of the feature point of the stage t when the reliability of the correction vector derived at the stage t is less than a reference value. An image processing apparatus according to 1.
検知対象が第1オブジェクトから第2オブジェクトに切り替わる際、前記記録部から前記ワークエリア部への前記第2オブジェクトのNステージの学習モデルデータのロードが完了する前から、前記修正ベクトル導出部および前記特徴点修正部は、前記第2オブジェクトの特徴点の修正処理を開始し、
前記修正ベクトル導出部は、前記第2オブジェクトの特徴点の修正処理において、ステージt(1≦t≦N)の修正ベクトルを導出する際に、前記ワークエリア部にステージtの学習モデルデータがロードされていない場合、他のステージの学習モデルデータを代用して修正ベクトルを導出することを特徴とする請求項1から4のいずれかに記載の画像処理装置。 In the recording unit, the learning model data of the N stage is recorded for each object to be detected,
When the detection target is switched from the first object to the second object, before the loading of the learning model data of the N stage of the second object from the recording unit to the work area unit is completed, the correction vector deriving unit and the The feature point correction unit starts correction processing of the feature points of the second object,
When the correction vector deriving unit derives a correction vector of the stage t (1 ≦ t ≦ N) in the correction process of the feature point of the second object, the learning model data of the stage t is loaded into the work area unit 5. If not, the image processing apparatus according to claim 1, wherein the correction vector is derived by substituting the learning model data of another stage.
前記信頼度判定部は、前記第2オブジェクトの学習モデルデータを使用した修正ベクトルの信頼度が基準値に満たない場合であり、かつ前記ワークエリア部に残存している前記第1オブジェクトの学習モデルデータを使用した修正ベクトルの信頼度が基準値を満たす場合、第1オブジェクトの検知処理に切り替えることを特徴とする請求項7に記載の画像処理装置。 A reliability determination unit that determines the reliability of the correction vector of the feature point derived at each stage;
The reliability determination unit is a case where the reliability of the correction vector using the learning model data of the second object is less than a reference value, and the learning model of the first object remaining in the work area unit The image processing apparatus according to claim 7, wherein when the reliability of the correction vector using data satisfies a reference value, the processing is switched to the first object detection process.
前記検出枠内のオブジェクトの特徴点を、前記初期の特徴点に設定する初期特徴点設定部と、
をさらに備えることを特徴とする請求項1から8のいずれかに記載の画像処理装置。 Searching for a specific object in the input image, an object area detection unit for setting a detection frame of the detected specific object;
An initial feature point setting unit for setting a feature point of the object in the detection frame as the initial feature point;
The image processing apparatus according to claim 1, further comprising:
前記アプリケーション処理部は、前記複数のアプリケーション処理のそれぞれの開始タイミングを、前記ワークエリア部への前記学習モデルデータのロード済みのステージ数に応じて決定することを特徴とする請求項1から9のいずれかに記載の画像処理装置。 Based on the feature point after completion of the stepwise correction of the initial feature point, further comprising an application processing unit that executes a plurality of application processes,
The said application process part determines the start timing of each of these application processes according to the number of stages by which the said learning model data was loaded to the said work area part. The image processing apparatus according to any one of the above.
検知対象のオブジェクトは、運転者の顔であることを特徴とする請求項1から10のいずれかに記載の画像処理装置。 The input image is an image input from an imaging unit for photographing a driver's face installed in a vehicle,
The image processing apparatus according to claim 1, wherein the object to be detected is a driver's face.
前記Nステージの学習モデルデータをワークエリア部にロードするステップと、
入力画像内の初期の各特徴点の周辺の特徴量または1つ前のステージにおいて修正された各特徴点の周辺の特徴量をもとに、前記ワークエリア部に保持される、対応するステージの学習モデルデータを参照して各特徴点の修正ベクトルを導出するステップと、
前記入力画像内の各特徴点を、導出された各修正ベクトルをもとに修正するステップと、を有し、
少なくとも起動時において、前記Nステージの学習モデルデータを記録している記録部から前記ワークエリア部への前記Nステージの学習モデルデータのロードが完了する前から、前記修正ベクトルを導出する処理および前記特徴点を修正する処理は、特徴点の修正処理を開始し、
前記修正ベクトルを導出するステップは、ステージt(1≦t≦N)の修正ベクトルを導出する際に、前記ワークエリア部にステージtの学習モデルデータがロードされていない場合、他のステージの学習モデルデータを代用して修正ベクトルを導出することを特徴とする画像処理方法。 Using the learning model data of N (N is an integer of 2 or more) stages, each of which contributes to the derivation of the correction vector of the feature point, the initial feature point in the input image is corrected step by step to obtain the feature point of the object. An image processing method to detect,
Loading the N stage learning model data into a work area;
Based on the feature amount around each initial feature point in the input image or the feature amount around each feature point modified in the previous stage, the corresponding stage held in the work area unit Deriving a correction vector of each feature point with reference to the learning model data;
Correcting each feature point in the input image based on each derived correction vector,
The process of deriving the correction vector before the completion of the loading of the learning model data of the N stage from the recording unit recording the learning model data of the N stage to the work area at least at the time of start-up The process of correcting the feature point starts the correction process of the feature point,
In the step of deriving the correction vector, when the learning model data of the stage t is not loaded in the work area part when deriving the correction vector of the stage t (1 ≦ t ≦ N), learning of another stage is performed. An image processing method characterized by deriving a correction vector by substituting model data.
前記Nステージの学習モデルデータをワークエリア部にロードする処理と、
入力画像内の初期の各特徴点の周辺の特徴量または1つ前のステージにおいて修正された各特徴点の周辺の特徴量をもとに、前記ワークエリア部に保持される、対応するステージの学習モデルデータを参照して各特徴点の修正ベクトルを導出する処理と、
前記入力画像内の各特徴点を、導出された各修正ベクトルをもとに修正する処理と、をコンピュータに実行させ、
少なくとも起動時において、前記Nステージの学習モデルデータを記録している記録部から前記ワークエリア部への前記Nステージの学習モデルデータのロードが完了する前から、前記修正ベクトルを導出する処理および前記特徴点を修正する処理は、特徴点の修正処理を開始し、
前記修正ベクトルを導出する処理は、ステージt(1≦t≦N)の修正ベクトルを導出する際に、前記ワークエリア部にステージtの学習モデルデータがロードされていない場合、他のステージの学習モデルデータを代用して修正ベクトルを導出することを特徴とする画像処理プログラム。 Using the learning model data of N (N is an integer of 2 or more) stages, each of which contributes to the derivation of the correction vector of the feature point, the initial feature point in the input image is corrected step by step to obtain the feature point of the object. An image processing program to detect,
A process of loading the N-stage learning model data into a work area part;
Based on the feature amount around each initial feature point in the input image or the feature amount around each feature point modified in the previous stage, the corresponding stage held in the work area unit A process for deriving a correction vector of each feature point with reference to the learning model data;
Processing for correcting each feature point in the input image based on each derived correction vector,
The process of deriving the correction vector before the completion of the loading of the learning model data of the N stage from the recording unit recording the learning model data of the N stage to the work area at least at the time of start-up The process of correcting the feature point starts the correction process of the feature point,
In the process of deriving the correction vector, when the learning model data of stage t is not loaded in the work area when deriving the correction vector of stage t (1 ≦ t ≦ N), learning of another stage is performed. An image processing program that derives a correction vector by substituting model data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017041837A JP2018147240A (en) | 2017-03-06 | 2017-03-06 | Image processing device, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017041837A JP2018147240A (en) | 2017-03-06 | 2017-03-06 | Image processing device, image processing method, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018147240A true JP2018147240A (en) | 2018-09-20 |
Family
ID=63591289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017041837A Pending JP2018147240A (en) | 2017-03-06 | 2017-03-06 | Image processing device, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018147240A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022250063A1 (en) * | 2021-05-26 | 2022-12-01 | キヤノン株式会社 | Image processing device and image processing method for performing facial authentication |
JP2022182960A (en) * | 2021-05-26 | 2022-12-08 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
KR20230081911A (en) * | 2021-11-30 | 2023-06-08 | (주)자비스 | Method, apparatus and system for non-constructive inspection of object based on selective artificial intelligence engine |
WO2023238365A1 (en) * | 2022-06-10 | 2023-12-14 | 富士通株式会社 | Facial feature information extraction method, facial feature information extraction device, and facial feature information extraction program |
JP7524824B2 (en) | 2021-05-13 | 2024-07-30 | 株式会社明電舎 | Inference Device |
-
2017
- 2017-03-06 JP JP2017041837A patent/JP2018147240A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7524824B2 (en) | 2021-05-13 | 2024-07-30 | 株式会社明電舎 | Inference Device |
WO2022250063A1 (en) * | 2021-05-26 | 2022-12-01 | キヤノン株式会社 | Image processing device and image processing method for performing facial authentication |
JP2022182960A (en) * | 2021-05-26 | 2022-12-08 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP7346528B2 (en) | 2021-05-26 | 2023-09-19 | キヤノン株式会社 | Image processing device, image processing method and program |
KR20230081911A (en) * | 2021-11-30 | 2023-06-08 | (주)자비스 | Method, apparatus and system for non-constructive inspection of object based on selective artificial intelligence engine |
WO2023101375A1 (en) * | 2021-11-30 | 2023-06-08 | (주)자비스 | Method, device, and system for optional artificial intelligence engine-based nondestructive inspection of object |
KR102602559B1 (en) * | 2021-11-30 | 2023-11-16 | (주)자비스 | Method, apparatus and system for non-constructive inspection of object based on selective artificial intelligence engine |
WO2023238365A1 (en) * | 2022-06-10 | 2023-12-14 | 富士通株式会社 | Facial feature information extraction method, facial feature information extraction device, and facial feature information extraction program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018147240A (en) | Image processing device, image processing method, and image processing program | |
US10733477B2 (en) | Image recognition apparatus, image recognition method, and program | |
US8213690B2 (en) | Image processing apparatus including similarity calculating unit, image pickup apparatus, and processing method for the apparatuses | |
US11055564B2 (en) | Image processing apparatus, image processing method, and storage medium | |
CN107633237B (en) | Image background segmentation method, device, equipment and medium | |
JP2007140823A (en) | Face collation device, face collation method and program | |
JPWO2019003973A1 (en) | Face authentication device, face authentication method and program | |
US20100027661A1 (en) | Image Processing Method, Image Processing Program, Image Processing Device, and Imaging Device | |
US20190266392A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US11462052B2 (en) | Image processing device, image processing method, and recording medium | |
US20220207904A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US10402693B2 (en) | Apparatus and method for classifying pattern in image | |
JP5653003B2 (en) | Object identification device and object identification method | |
US20230274398A1 (en) | Image processing apparatus for reducing influence of fine particle in an image, control method of same, and non-transitory computer-readable storage medium | |
JP2006133941A (en) | Image processing device, image processing method, image processing program, and portable terminal | |
JP6399122B2 (en) | Face detection apparatus and control method thereof | |
US9020211B2 (en) | Data processing apparatus, control method therefor, and non-transitory computer-readable storage medium | |
US8611599B2 (en) | Information processing apparatus, information processing method, and storage medium | |
WO2015022208A1 (en) | Method and apparatus for generating temporally consistent superpixels | |
CN114549646A (en) | Method and device for determining key point position | |
US10846548B2 (en) | Video recording apparatus and method therefor | |
US11275926B2 (en) | Face tracking method and device | |
Corcoran et al. | Detection and repair of flash-eye in handheld devices | |
KR102512435B1 (en) | Face identification method, and device and program using the same | |
JP7168192B2 (en) | Face image adequacy determination device, face image adequacy determination method, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180417 |