JP2009075926A - 動画像顔検出装置および動画像顔検出方法 - Google Patents
動画像顔検出装置および動画像顔検出方法 Download PDFInfo
- Publication number
- JP2009075926A JP2009075926A JP2007245277A JP2007245277A JP2009075926A JP 2009075926 A JP2009075926 A JP 2009075926A JP 2007245277 A JP2007245277 A JP 2007245277A JP 2007245277 A JP2007245277 A JP 2007245277A JP 2009075926 A JP2009075926 A JP 2009075926A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- face
- motion vector
- face feature
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】 動画像データに対して、少ない演算量で顔検出を行う。
【解決手段】 連続するフレームから構成される動画像データに対して、あらかじめ設定したキーフレームにおいて顔の特徴点を検出し、その位置を出力する顔特徴点検出手段3と、キーフレーム以外のフレームにおいて前記顔特徴点検出手段から出力される顔の特徴点の位置を追跡する顔特徴点追跡手段6と、顔特徴点検出手段6から出力される顔の特徴点の位置に基づいて顔の位置情報を出力する顔位置検出手段5と、を備える。
【選択図】 図1
【解決手段】 連続するフレームから構成される動画像データに対して、あらかじめ設定したキーフレームにおいて顔の特徴点を検出し、その位置を出力する顔特徴点検出手段3と、キーフレーム以外のフレームにおいて前記顔特徴点検出手段から出力される顔の特徴点の位置を追跡する顔特徴点追跡手段6と、顔特徴点検出手段6から出力される顔の特徴点の位置に基づいて顔の位置情報を出力する顔位置検出手段5と、を備える。
【選択図】 図1
Description
本発明は、動画像から顔を検出する動画像顔検出装置に関するものである。
従来の動画像の顔検出においては、静止画像における顔検出の方法である「フレームから肌色領域を検出し顔の領域を特定する」あるいは「フレームから顔の構成要素を検出し顔の領域を特定する」等の処理を動画像データの全てのフレームで行っていた。
例えば、フレームから肌色領域を抽出して、肌色領域内に一定の面積比で暗い領域を抽出することで顔検出を行い、さらに、複数のフレームで連続的に顔検出を行うことにより、顔の移動を追跡している(例えば、特許文献1参照)。また、目や口といった顔の構成要素の形状特徴と輝度特徴と位置関係から顔を検出しているものもある(例えば、特許文献2参照)。
特開平11−15979号公報(第2頁)
特開平7−311833号公報(第3頁)
従来の動画像の顔検出では、動画像の全てのフレームで顔を検出するように構成されているため、演算量が膨大になり、処理時間がかかるという問題があった。そのため、リアルタイム処理が困難であった。本発明は、この課題を解決すべく、少ない演算量で動画像における顔検出を提供するものである。
本発明の動画像顔検出装置は、連続するフレームから構成される動画像データにおいて、キーフレームを設定するキーフレーム設定手段と、
前記キーフレーム設定手段によって設定されたキーフレームにおいて顔の特徴点を検出しその位置を出力する顔特徴点検出手段と、
キーフレーム以外のフレームにおいて前記顔特徴点検出手段から出力される顔の特徴点の位置を追跡する顔特徴点追跡手段と、
前記顔特徴点検出手段から出力される顔の特徴点の位置に基づき、顔の位置情報を出力する顔位置検出手段を備えるものである。
前記キーフレーム設定手段によって設定されたキーフレームにおいて顔の特徴点を検出しその位置を出力する顔特徴点検出手段と、
キーフレーム以外のフレームにおいて前記顔特徴点検出手段から出力される顔の特徴点の位置を追跡する顔特徴点追跡手段と、
前記顔特徴点検出手段から出力される顔の特徴点の位置に基づき、顔の位置情報を出力する顔位置検出手段を備えるものである。
本発明の効果として、顔特徴点の検出をキーフレームで行い、キーフレームではないフレームにおいては顔の特徴点の位置を追跡する処理のみでその位置を特定するので、少ない演算量で顔の位置を検出できるという効果がある。また、前記の追跡において、追跡する対象を顔の特徴点としているので、追跡対象の位置の誤検出が少ないという効果がある。
実施の形態1.
図1はこの発明装置の実施の形態1を用いた動画像顔検出装置を示すブロック図であって、1はキーフレームを設定するキーフレーム設定手段、2はキーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、入力された映像信号の出力先を切り替える第1の切替器、3は第1の切替器2が出力した映像信号から顔の特徴点の位置を検出する顔特徴点検出手段、4はキーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、顔特徴点検出手段3から出力される顔の特徴点の位置もしくは顔特徴点追跡手段6から出力される顔の特徴点の位置を顔位置検出手段5に入力する第2の切替器、
5は第2の切替器4から出力される顔の特徴点の位置に基づき、顔の位置情報を出力する顔位置検出手段、6は顔特徴点検出手段3から出力される顔の特徴点の位置を追跡する顔特徴点追跡手段である。
図1はこの発明装置の実施の形態1を用いた動画像顔検出装置を示すブロック図であって、1はキーフレームを設定するキーフレーム設定手段、2はキーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、入力された映像信号の出力先を切り替える第1の切替器、3は第1の切替器2が出力した映像信号から顔の特徴点の位置を検出する顔特徴点検出手段、4はキーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、顔特徴点検出手段3から出力される顔の特徴点の位置もしくは顔特徴点追跡手段6から出力される顔の特徴点の位置を顔位置検出手段5に入力する第2の切替器、
5は第2の切替器4から出力される顔の特徴点の位置に基づき、顔の位置情報を出力する顔位置検出手段、6は顔特徴点検出手段3から出力される顔の特徴点の位置を追跡する顔特徴点追跡手段である。
次に、図1に基づいて実施の形態1の動画像顔検出装置の動作について説明する。まず、映像信号が第1の切替器2に入力される。キーフレーム設定手段1にはあらかじめキーフレームか否かの情報を設定しておく。キーフレームは等間隔に設定してもいいし、等間隔でなくてもいい。シーンチェンジなど映像が大きく変化するフレームをキーフレームとしてもいい。第1の切替器2に入力された映像信号は、キーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、映像信号の出力先を切り替える。映像信号がキーフレームの信号である場合と、キーフレームの信号ではない場合のそれぞれについて説明する。
映像信号がキーフレームの信号である場合、第1の切替器2は映像信号を顔特徴検出手段3に入力する。顔特徴点検出手段3は映像信号から顔の特徴点を検出し、その位置を第2の切替器4と顔特徴点追跡手段6へ出力する。また、第2の切替器4は顔特徴点検出手段3が出力された顔の特徴点の位置を顔位置検出手段5に出力する。顔位置検出手段5は第2の切替器4から出力される顔の特徴点の位置に基づき、顔の位置情報を出力する。また、顔の特徴点が複数ある場合は同様の処理を繰り返す。
以下に、顔位置検出手段5の具体的な動作について説明する。顔位置検出手段5は、例えば、図2のように顔の特徴点として両目の位置が入力された場合、両目を結ぶ線21を特定する。ここで、両目を結ぶ線21の位置から顔の領域22の位置を特定し、両目を結ぶ線21の長さから、顔の領域22の大きさを特定する。このようにして決定された顔の領域22の情報を、顔位置検出手段5の出力情報として出力する。
また、図3のように両目を結ぶ線23が画面の左上に短い状態で検出された場合、それは、顔の領域24が画面の左上に位置し、さらに顔の領域そのものが小さいことを示している。
また、図4の様に左目の位置25と右目の位置26が斜めになっている場合、まず、上記と同様に両目を結ぶ線28を特定する。両目を結ぶ線28の位置と長さより顔の領域29の位置と大きさを特定するところまでは同じであるが、図4に示した事例においては、さらに、両目を結ぶ線と水平軸がなす角度27を特定し、これを顔の領域29の傾きとする。このように、両目を結ぶ線28の位置と長さと傾きから、顔の領域29の位置と大きさと傾きを求める。
映像信号がキーフレームの信号ではない場合、第1の切替器2は映像信号を顔特徴点追跡手段6に入力する。顔特徴点追跡手段6は、第1の切替器2から出力される映像信号より、顔の特徴点検出手段3から出力される顔の特徴点の位置を追跡し、顔の特徴点の位置を更新する。更新した顔の特徴点の位置を第2の切替器4へ出力する。第2の切替器4は顔特徴点追跡手段6から出力される顔の特徴点の位置に基づき、顔の特徴点の配置、間隔を求め、これらより顔の位置、傾き、大きさなどを特定して顔の位置情報として出力する。
また、図5は実施の形態1における動画像顔検出の説明図であって、キーフレームにおいて顔の特徴点の検出を行い、キーフレーム以外のフレームではキーフレームで検出された顔の特徴点の位置を追跡し、顔の特徴点の位置を検出していることを示す。
顔検出は、顔の位置を特定するために、フレームにおいて肌色領域などの顔の特徴となる部分を検出し、顔と顔以外のものを判別する処理が必要である。一方、顔追跡は、顔の特徴点の位置を入力すると、その位置を追跡する処理のみで顔の位置を特定できるので、顔検出に比べて演算量が少ない。
以上のように、実施の形態1の動画像顔検出装置によると、顔の特徴点の検出はキーフレームで行い、キーフレーム以外のフレームでは顔の特徴点を追跡するよう構成したので、全画面において顔検出を行う従来法に比べて、少ない演算量で顔検出ができる。また、前記の追跡において、追跡対象が顔の特徴点であるので、顔以外の画像部分と比較して形状や色・輝度の特徴が顕著で識別しやすく、追跡対象の位置の誤検出が少ないという効果がある。人の両目など、追跡対象となる顔の特徴点が複数ある場合は検出条件が増えるので、誤検出がさらに少なくなる。
実施の形態2.
図6はこの発明装置の実施の形態2を用いた動画像顔検出装置を示すブロック図であって、1はキーフレームを設定するキーフレーム設定手段、2はキーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、入力された映像信号の出力先を切り替える第1の切替器、3は第1の切替器2が出力した映像信号から顔の特徴点を検出しその位置を出力する顔特徴点検出手段、4はキーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、顔特徴点検出手段3から出力される顔の特徴点の位置もしくは顔特徴点更新手段9から出力される顔の特徴点の位置を顔位置検出手段5に入力する第2の切替器、5は第2の切替器4から出力される顔の特徴点の位置に基づき、顔の位置情報を特定し出力する顔位置検出手段である。6は顔特徴点追跡手段であり、以下の動きベクトル検出領域設定手段7、動きベクトル検出手段8、顔特徴点更新手段9で構成される。7は顔特徴点検出手段3から出力される顔の特徴点の位置に基づき、その位置を中心とする一定の大きさの領域を動きベクトル検出領域として設定する動きベクトル検出領域設定手段、8は第1の切替器2が出力した映像信号と、動きベクトル検出領域設定手段7から出力された領域の画像データを用いて動きベクトルを検出する動きベクトル検出手段、9は顔の特徴点の位置を動きベクトル検出手段8から出力された動きベクトルの分だけ移動させた位置を新しいフレームの顔特徴点の位置として保存するとともに、第2の切替器4に出力する顔特徴点更新手段である。
図6はこの発明装置の実施の形態2を用いた動画像顔検出装置を示すブロック図であって、1はキーフレームを設定するキーフレーム設定手段、2はキーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、入力された映像信号の出力先を切り替える第1の切替器、3は第1の切替器2が出力した映像信号から顔の特徴点を検出しその位置を出力する顔特徴点検出手段、4はキーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、顔特徴点検出手段3から出力される顔の特徴点の位置もしくは顔特徴点更新手段9から出力される顔の特徴点の位置を顔位置検出手段5に入力する第2の切替器、5は第2の切替器4から出力される顔の特徴点の位置に基づき、顔の位置情報を特定し出力する顔位置検出手段である。6は顔特徴点追跡手段であり、以下の動きベクトル検出領域設定手段7、動きベクトル検出手段8、顔特徴点更新手段9で構成される。7は顔特徴点検出手段3から出力される顔の特徴点の位置に基づき、その位置を中心とする一定の大きさの領域を動きベクトル検出領域として設定する動きベクトル検出領域設定手段、8は第1の切替器2が出力した映像信号と、動きベクトル検出領域設定手段7から出力された領域の画像データを用いて動きベクトルを検出する動きベクトル検出手段、9は顔の特徴点の位置を動きベクトル検出手段8から出力された動きベクトルの分だけ移動させた位置を新しいフレームの顔特徴点の位置として保存するとともに、第2の切替器4に出力する顔特徴点更新手段である。
実施の形態2は、顔特徴点追跡手段6が動きベクトル検出領域設定手段7、動きベクトル検出手段8、顔特徴点更新手段9から構成されている点が実施の形態1と異なる。図6に基づいて実施の形態2の動画像顔検出装置の動作について説明する。
まず、映像信号が第1の切替器2に入力される。あらかじめフレーム設定手段1にキーフレームか否かの情報を設定しておく。キーフレームは等間隔に設定してもいいし、等間隔でなくてもいい。シーンチェンジなど映像が大きく変化するフレームをキーフレームとしてもいい。第1の切替器2に入力された映像信号は、キーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、映像信号の出力先を切り替える。映像信号がキーフレームの信号である場合と、キーフレームの信号ではない場合のそれぞれについて説明する。
映像信号がキーフレームの信号である場合、第1の切替器2は映像信号を顔特徴点検出手段3に入力する。顔特徴点検出手段3は映像信号から顔の特徴点を検出しその位置を動きベクトル検出領域設定手段7と顔特徴点更新手段9と第2の切替器4に出力する。動きベクトル検出領域設定手段7は、顔特徴点検出手段3から出力された顔の特徴点の位置を中心とする一定の大きさの領域を動きベクトル検出領域に設定し、動きベクトル検出領域を動きベクトル検出手段8に入力する。顔特徴点更新手段9は、顔特徴点検出手段3から出力された顔の特徴点の位置を顔の特徴点の位置として保存する。第2の切替器4は顔特徴点検出手段3から出力された顔の特徴点の位置を顔位置検出手段5に出力する。顔位置検出手段5は、第2の切替器4から出力された顔の特徴点の位置に基づき、顔の特徴点の配置、間隔を求め、これらより顔の位置、傾き、大きさなどを特定して顔の位置情報として出力する。
映像信号がキーフレームの信号ではない場合、第1の切替器2は映像信号を動きベクトル検出手段8に入力する。動きベクトル検出手段8は、第1の切替器2から出力される映像信号と、動きベクトル検出領域設定手段7から出力された動きベクトル検出領域の画像データから、動きベクトルを検出する。前記画像データは、前記映像信号より前のフレームにおける顔の特徴点の位置を中心とする一定の大きさの領域のデータである。
動きベクトルの検出方法には、例えば、連続する2つのフレームのうち後のフレームと、連続する2つのフレームのうち前のフレームの動きベクトル検出領域との映像信号の差分絶対値和が最小となる位置を探索して求める方法がある。この場合、差分絶対値和が最小となる位置と顔の特徴点の位置とのベクトルが求める動きベクトルである。なお、動きベクトルの探索を高速化するため、探索する範囲は動きベクトル検出領域の周囲の一定の大きさの領域に限定してもよい。
動きベクトル検出手段8は動きベクトルを顔特徴点更新手段9に出力する。顔特徴点更新手段9は、顔特徴点更新手段9が保存している顔の特徴点の位置を、動きベクトル検出手段8が出力した動きベクトルの分だけ移動させた位置を、新しいフレームの顔特徴点の位置として保存するとともに、更新した顔の特徴点の位置を動きベクトル検出領域設定手段7と第2の切替器4へ出力する。第2の切替器4は顔特徴点更新手段9から出力された顔の特徴点の位置を顔位置検出手段5に出力する。顔位置検出手段5は顔特徴点更新手段9が出力する顔の特徴点の位置に基づき、顔の特徴点の配置、間隔を求め、これらより顔の位置、傾き、大きさなどを特定して顔の位置情報として出力する。動きベクトル検出領域設定手段7は、顔特徴点更新手段9が出力した顔の特徴点の位置を中心とする一定の大きさの領域を動きベクトル検出領域と設定して、動きベクトル検出手段8に出力する。
また、図7は、実施の形態2における動きベクトル検出領域設定手段7の動作を説明する説明図であって、n番目のフレームにおいて顔の特徴点12を検出したとき、顔の特徴点12を中心とする一定の大きさの領域を動きベクトル検出領域13とする。
また、図8は、実施の形態2における顔特徴点更新手段8の動作を説明する説明図であって、まず(n+1)番目のフレームにおいて、図7に示したn番目のフレームの動きベクトル検出領域13と映像信号が似通った領域を探し動きベクトル14を求める。つづいてn番目のフレームの特徴点12を動きベクトル14の分だけ移動させて、(n+1)番目のフレームの顔の特徴点15とする。
以上のように、実施の形態2の動画像顔検出装置によると、顔の特徴点の検出をキーフレームで行い、キーフレーム以外のフレームでは顔の特徴点の位置を中心とする一定の大きさの領域に対して顔特徴点を追跡するよう構成したので、少ない演算量で精度良く顔の位置を検出することができるという効果がある。
実施の形態3.
図9はこの発明装置の実施の形態3を用いた動画像顔検出装置を示すブロック図であって、
1はキーフレームを設定するキーフレーム設定手段、
2はキーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、入力された映像信号の出力先を切り替える第1の切替器、
3は第1の切替器2が出力した映像信号から顔の特徴点を検出しその位置を出力する顔特徴点検出手段、
4はキーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、顔特徴点検出手段3から出力される顔の特徴点の位置もしくは顔特徴点更新手段9から出力される顔の特徴点の位置を顔位置検出手段5に入力する第2の切替器、
5は第2の切替器4から出力される顔の特徴点の位置に基づき、顔の位置情報を特定し出力する顔位置検出手段である。6は顔特徴点追跡手段6であり、以下の動きベクトル検出手段8、顔特徴点更新手段9、動きベクトル検出ブロック検出手段10で構成される。8は第1の切替器2が出力した映像信号と、動きベクトル検出ブロック検出手段10から出力されたブロックの画像データを用いて動きベクトルを検出する動きベクトル検出手段、9は顔の特徴点の位置を動きベクトル検出手段8から出力された動きベクトルの分だけ移動させた位置を新しいフレームの顔特徴点の位置として保存するとともに、第2の切替器4に出力する顔特徴点更新手段、10は顔特徴点検出手段3から出力される顔の特徴点の位置に基づき、その位置がフレーム分割手段11によって設定された複数の領域のうちどの領域に含まれるのかを検出する動きベクトル検出ブロック検出手段、11は入力された映像信号を複数の領域に分割するフレーム分割手段である。
図9はこの発明装置の実施の形態3を用いた動画像顔検出装置を示すブロック図であって、
1はキーフレームを設定するキーフレーム設定手段、
2はキーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、入力された映像信号の出力先を切り替える第1の切替器、
3は第1の切替器2が出力した映像信号から顔の特徴点を検出しその位置を出力する顔特徴点検出手段、
4はキーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、顔特徴点検出手段3から出力される顔の特徴点の位置もしくは顔特徴点更新手段9から出力される顔の特徴点の位置を顔位置検出手段5に入力する第2の切替器、
5は第2の切替器4から出力される顔の特徴点の位置に基づき、顔の位置情報を特定し出力する顔位置検出手段である。6は顔特徴点追跡手段6であり、以下の動きベクトル検出手段8、顔特徴点更新手段9、動きベクトル検出ブロック検出手段10で構成される。8は第1の切替器2が出力した映像信号と、動きベクトル検出ブロック検出手段10から出力されたブロックの画像データを用いて動きベクトルを検出する動きベクトル検出手段、9は顔の特徴点の位置を動きベクトル検出手段8から出力された動きベクトルの分だけ移動させた位置を新しいフレームの顔特徴点の位置として保存するとともに、第2の切替器4に出力する顔特徴点更新手段、10は顔特徴点検出手段3から出力される顔の特徴点の位置に基づき、その位置がフレーム分割手段11によって設定された複数の領域のうちどの領域に含まれるのかを検出する動きベクトル検出ブロック検出手段、11は入力された映像信号を複数の領域に分割するフレーム分割手段である。
実施の形態3は、フレーム分割手段11を備え、動きベクトル検出領域設定手段7の代わりに動きベクトル検出ブロック検出手段10を持つ点が実施の形態2と異なる。図9に基づいて実施の形態3の動画像顔検出装置の動作を説明する。
まず、映像信号がフレーム分割手段11に入力される。フレーム分割手段11は映像信号をあらかじめ設定された複数の領域であるブロックに分割し、分割された全ブロックの映像信号を第1の切替器2に出力する。第1の切替器2に入力された映像信号は、キーフレーム設定手段1から出力されるキーフレームか否かの情報に基づき、映像信号の出力先を切り替える。映像信号がキーフレームの信号である場合と、キーフレームの信号ではない場合のそれぞれについて説明する。
映像信号がキーフレームの信号である場合、第1の切替器2は映像信号を顔特徴点検出手段3に入力する。顔特徴点検出手段3は映像信号から顔の特徴点を検出しその位置を第2の切替器4と顔特徴点更新手段9と動きベクトル検出ブロック検出手段10とに出力する。動きベクトル検出ブロック検出手段10は、顔特徴点検出手段3から出力された顔の特徴点の位置がフレーム分割手段11で分割されたどのブロックに含まれるのかを検出して動きベクトル検出ブロックと設定し、動きベクトル検出ブロックを動きベクトル検出手段8へ出力する。顔特徴点更新手段9は、顔特徴点検出手段3から出力された顔の特徴点の位置を顔の特徴点の位置として保存する。第2の切替器4は顔特徴点検出手段3から出力された顔の特徴点の位置を顔位置検出手段5に出力する。顔位置検出手段5は、第2の切替器4から出力された顔の特徴点の位置に基づき、顔の特徴点の配置、間隔を求め、これらより顔の位置、傾き、大きさなどを特定して顔の位置情報として出力する。
映像信号がキーフレームの信号ではない場合、第1の切替器2は映像信号を動きベクトル検出手段8に入力する。動きベクトル検出手段8は、第1の切替器2から出力される映像信号と、動きベクトル検出ブロック検出手段10から出力された動きベクトル検出ブロックの画像データから、動きベクトルを検出する。前記画像データは、前記映像信号より前のフレームにおける顔の特徴点の位置を含むブロックの画像データである。
動きベクトル検出手段8は動きベクトルを顔特徴点更新手段9に出力する。顔特徴点更新手段9は、顔特徴点更新手段9が保存している顔の特徴点の位置を、動きベクトル検出手段8が出力した動きベクトルの分だけ移動させた位置を、新しいフレームの顔特徴点の位置として保存するとともに、更新した顔の特徴点の位置を動きベクトル検出ブロック検出手段10と第2の切替器4へ出力する。第2の切替器4は顔特徴点更新手段9から出力された顔の特徴点の位置を顔位置検出手段5に出力する。顔位置検出手段5は第2の切替器4が出力する顔の特徴点の位置に基づき、顔の特徴点の配置、間隔を求め、これらより顔の位置、傾き、大きさなどを特定して顔の位置情報として出力する。動きベクトル検出ブロック検出手段10は、顔特徴点更新手段9が出力した顔の特徴点の位置が、フレーム分割手段11によって分割されたどのブロックに含まれるのかを検出して動きベクトル検出ブロックと設定し、動きベクトル検出ブロックを動きベクトル検出手段8へ出力する。
また、図10は、実施の形態3における動きベクトル検出ブロック検出手段10の動作を説明する説明図であって、n番目のフレームにおいて顔の特徴点12を検出したとき、あらかじめ分割された複数のブロックから顔の特徴点12を含むブロックを検出し動きベクトル検出ブロック16とする。
また、図11は、実施の形態3における顔特徴点更新手段9の動作を説明する説明図であって、まず(n+1)番目のフレームにおいて、図10に示したn番目のフレームの動きベクトル検出ブロック16と映像信号が似通った領域を探し動きベクトルを求める。つづいてn番目のフレームの特徴点12を動きベクトル14の分だけ移動させて、(n+1)番目のフレームの顔の特徴点15とする。
以上のように、実施の形態3の動画像顔検出装置によると、顔の特徴点の検出をキーフレームで行い、キーフレーム以外のフレームではあらかじめ設定された複数の領域のうち、顔の特徴点の位置を含む領域の動きベクトルを検出して顔の特徴点を追跡するので、動きベクトル検出部の作成が容易であり、動画像において少ない演算量で顔の位置を検出できる。
1 キーフレーム設定手段
2 第1の切替器
3 顔特徴点検出手段
4 第2の切替器
5 顔位置検出手段
6 顔特徴点追跡手段
7 動きベクトル検出領域設定手段
8 動きベクトル検出手段
9 顔特徴点更新手段
10 動きベクトル検出ブロック検出手段
11 フレーム分割手段
12 n番目のフレームの顔の特徴点
13 動きベクトル検出領域
14 動きベクトル
15 (n+1)番目のフレームの特徴点
16 動きベクトル検出ブロック
2 第1の切替器
3 顔特徴点検出手段
4 第2の切替器
5 顔位置検出手段
6 顔特徴点追跡手段
7 動きベクトル検出領域設定手段
8 動きベクトル検出手段
9 顔特徴点更新手段
10 動きベクトル検出ブロック検出手段
11 フレーム分割手段
12 n番目のフレームの顔の特徴点
13 動きベクトル検出領域
14 動きベクトル
15 (n+1)番目のフレームの特徴点
16 動きベクトル検出ブロック
Claims (6)
- 動画像データを構成する連続したフレームの中からキーフレームを設定するキーフレーム設定手段と、
前記キーフレーム設定手段によって設定されたキーフレームにおいて顔の特徴点を検出しその位置を出力する顔特徴点検出手段と、
キーフレーム以外のフレームにおいて前記顔特徴点検出手段から出力される顔の特徴点の位置を追跡する顔特徴点追跡手段と、
前記顔特徴点検出手段から出力される顔の特徴点の位置に基づき、顔の位置情報を出力する顔位置検出手段
を備えたことを特徴とする動画像顔検出装置。 - 前記顔特徴点追跡手段は、
前記顔特徴点検出手段から出力される顔の特徴点の位置を中心とする一定の大きさの領域を動きベクトル検出領域として設定する動きベクトル検出領域設定手段と、
前記動きベクトル検出領域設定手段によって指定された領域の画像データを用いて2つのフレームの画像データより動きベクトルを検出する動きベクトル検出手段と、
前記顔特徴点検出手段の出力である顔特徴点の位置を前記動きベクトル検出手段から出力された動きベクトルの分だけ移動させた位置を新しいフレームの顔特徴点の位置として出力する顔特徴点更新手段
から構成されることを特徴とする請求項1に記載の動画像顔検出装置。 - 前記顔特徴点追跡手段は、
前記顔特徴点検出手段から出力される顔の特徴点の位置があらかじめ設定された複数の動きベクトル検出領域のうちのどの領域に含まれるのかを検出する動きベクトル検出ブロック検出手段と、
前記動きベクトル検出ブロック検出手段によって指定された領域の画像データを用いて2つのフレームの画像データより動きベクトルを検出する動きベクトル検出手段と、
前記顔特徴点検出手段の出力である顔特徴点の位置を前記動きベクトル検出手段から出力された動きベクトルの分だけ移動させた位置を新しいフレームの顔特徴点の位置として出力する顔特徴点更新手段
から構成されることを特徴とする請求項1に記載の動画像顔検出装置。 - 動画像データを構成する連続したフレームの中からキーフレームを設定するキーフレーム設定ステップと、
前記キーフレーム設定ステップによって設定されたキーフレームにおいて顔の特徴点を検出しその位置を出力する顔特徴点検出ステップと、
キーフレーム以外のフレームにおいて前記顔特徴点検出ステップから出力される顔の特徴点の位置を追跡する顔特徴点追跡ステップと、
前記顔特徴点検出ステップから出力される顔の特徴点の位置に基づき、顔の位置情報を出力する顔位置検出ステップ
を備えたことを特徴とする動画像顔検出方法。 - 前記顔特徴点追跡ステップは、
前記顔特徴点検出ステップから出力される顔の特徴点の位置を中心とする一定の大きさの領域を動きベクトル検出領域として設定する動きベクトル検出領域設定ステップと、
前記動きベクトル検出領域設定ステップによって指定された領域の画像データを用いて2つのフレームの画像データより動きベクトルを検出する動きベクトル検出ステップと、
前記顔特徴点検出ステップの出力である顔特徴点の位置を前記動きベクトル検出ステップから出力された動きベクトルの分だけ移動させた位置を新しいフレームの顔特徴点の位置として出力する顔特徴点更新ステップ
から構成されることを特徴とする請求項4に記載の動画像顔検出方法。 - 前記顔特徴点追跡ステップは、
前記顔特徴点検出ステップから出力される顔の特徴点の位置があらかじめ設定された複数の動きベクトル検出領域のうちのどの領域に含まれるのかを検出する動きベクトル検出ブロック検出ステップと、
前記動きベクトル検出ブロック検出ステップによって指定された領域の画像データを用いて2つのフレームの画像データより動きベクトルを検出する動きベクトル検出ステップと、
前記顔特徴点検出ステップの出力である顔特徴点の位置を前記動きベクトル検出ステップから出力された動きベクトルの分だけ移動させた位置を新しいフレームの顔特徴点の位置として出力する顔特徴点更新ステップ
から構成されることを特徴とする請求項4に記載の動画像顔検出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007245277A JP2009075926A (ja) | 2007-09-21 | 2007-09-21 | 動画像顔検出装置および動画像顔検出方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007245277A JP2009075926A (ja) | 2007-09-21 | 2007-09-21 | 動画像顔検出装置および動画像顔検出方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009075926A true JP2009075926A (ja) | 2009-04-09 |
Family
ID=40610820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007245277A Pending JP2009075926A (ja) | 2007-09-21 | 2007-09-21 | 動画像顔検出装置および動画像顔検出方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009075926A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013048482A1 (en) * | 2011-09-30 | 2013-04-04 | Intel Corporation | Mechanism for facilitating enhanced viewing perspective of video images at computing devices |
JP2014191695A (ja) * | 2013-03-28 | 2014-10-06 | Dainippon Printing Co Ltd | 対応点決定装置、対応点決定方法、及びプログラム |
WO2014205715A1 (en) | 2013-06-27 | 2014-12-31 | Intel Corporation | Face recognition with parallel detection and tracking, and/or grouped feature motion shift tracking |
JP2017167727A (ja) * | 2016-03-15 | 2017-09-21 | Kddi株式会社 | 動画の処理装置、処理方法及びプログラム |
-
2007
- 2007-09-21 JP JP2007245277A patent/JP2009075926A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013048482A1 (en) * | 2011-09-30 | 2013-04-04 | Intel Corporation | Mechanism for facilitating enhanced viewing perspective of video images at computing devices |
US9060093B2 (en) | 2011-09-30 | 2015-06-16 | Intel Corporation | Mechanism for facilitating enhanced viewing perspective of video images at computing devices |
JP2014191695A (ja) * | 2013-03-28 | 2014-10-06 | Dainippon Printing Co Ltd | 対応点決定装置、対応点決定方法、及びプログラム |
WO2014205715A1 (en) | 2013-06-27 | 2014-12-31 | Intel Corporation | Face recognition with parallel detection and tracking, and/or grouped feature motion shift tracking |
KR20150138374A (ko) * | 2013-06-27 | 2015-12-09 | 인텔 코포레이션 | 병렬 검출과 추적, 및/또는 그룹화된 피처 모션 시프트 추적을 이용한 얼굴 인식 |
CN105308618A (zh) * | 2013-06-27 | 2016-02-03 | 英特尔公司 | 借助于并行检测和跟踪和/或分组特征运动移位跟踪的人脸识别 |
EP3014519A4 (en) * | 2013-06-27 | 2017-02-15 | Intel Corporation | Face recognition with parallel detection and tracking, and/or grouped feature motion shift tracking |
KR101969623B1 (ko) * | 2013-06-27 | 2019-04-16 | 인텔 코포레이션 | 병렬 검출과 추적, 및/또는 그룹화된 피처 모션 시프트 추적을 이용한 얼굴 인식 |
JP2017167727A (ja) * | 2016-03-15 | 2017-09-21 | Kddi株式会社 | 動画の処理装置、処理方法及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3084577B1 (en) | Selection and tracking of objects for display partitioning and clustering of video frames | |
RU2613038C2 (ru) | Способ управления оконечным устройством с использованием жеста и устройство | |
US20170053156A1 (en) | Human face recognition method, apparatus and terminal | |
US10916019B2 (en) | Moving object detection in image frames based on optical flow maps | |
CN103688292A (zh) | 图像显示装置和图像显示方法 | |
EP3879530B1 (en) | Video processing method, video processing device, and storage medium | |
CN109656457B (zh) | 多指触控方法、装置、设备及计算机可读存储介质 | |
JP2010021943A (ja) | 撮像装置 | |
JP5066497B2 (ja) | 顔検出装置及び方法 | |
JP2008009849A (ja) | 人物追跡装置 | |
US20220004748A1 (en) | Video display method, device and system, and video camera | |
GB2499427A (en) | Video tracking apparatus having two cameras mounted on a moveable unit | |
CN111126108A (zh) | 图像检测模型的训练和图像检测方法及装置 | |
CN116134483A (zh) | 时空再循环网络 | |
JP2009075926A (ja) | 動画像顔検出装置および動画像顔検出方法 | |
EP2793190A1 (en) | Method and device for detecting face, and non-transitory computer-readable recording medium for executing the method | |
US9842260B2 (en) | Image processing apparatus and image processing method of performing image segmentation | |
JP2004171490A (ja) | 画像検出装置及び画像検出方法 | |
JP5924977B2 (ja) | 画像処理装置および画像処理方法 | |
US20230177705A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP2001243476A (ja) | 移動体の監視方法および装置 | |
JP2014048949A (ja) | 動画像前景切抜き装置、方法、およびプログラム | |
JP2007011696A (ja) | 映像検索装置及び映像検索方法 | |
JP6350331B2 (ja) | 追尾装置、追尾方法及び追尾プログラム | |
JP2007036782A (ja) | 移動物体検出装置 |