JP2008252296A - 動画像の顔インデックス作成装置およびその顔画像追跡方法 - Google Patents

動画像の顔インデックス作成装置およびその顔画像追跡方法 Download PDF

Info

Publication number
JP2008252296A
JP2008252296A JP2007088738A JP2007088738A JP2008252296A JP 2008252296 A JP2008252296 A JP 2008252296A JP 2007088738 A JP2007088738 A JP 2007088738A JP 2007088738 A JP2007088738 A JP 2007088738A JP 2008252296 A JP2008252296 A JP 2008252296A
Authority
JP
Japan
Prior art keywords
face
image
face image
frame
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007088738A
Other languages
English (en)
Other versions
JP4831623B2 (ja
Inventor
Kenji Matsuo
賢治 松尾
Masaki Naito
正樹 内藤
Kazunori Matsumoto
一則 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2007088738A priority Critical patent/JP4831623B2/ja
Publication of JP2008252296A publication Critical patent/JP2008252296A/ja
Application granted granted Critical
Publication of JP4831623B2 publication Critical patent/JP4831623B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

【課題】同一人物が連続して登場する期間を、各登場人物の顔画像と対応付けて表示できる動画像の顔インデックス作成装置およびその顔画像追跡方法を提供する。
【解決手段】顔インデックス作成装置1において、顔画像追跡部10は、動画像蓄積部2から動画像をフレーム単位で順次に読み込み、複数のフレームにわたって連続的に登場する同一人物の顔画像を追跡し、その連続表示期間を検出する。代表顔決定部11は、
登場人物の連続表示期間ごとに、その代表顔として例えば正面顔を抽出する。顔インデックス構築部12は、各連続表示期間およびその代表顔が対応付けられた顔インデックスを構築して出力する。各代表顔には、これがクリックされたときにジャンプするリンク先として、その登場人物が連続して表示される期間の最初から映像を再生させるコマンドを対応付けることができる。
【選択図】図1

Description

本発明は、動画像の映像信号から登場人物の顔を連続的に検出して顔インデックスを作成する動画像の顔インデックス作成方法、および複数フレームにわたって連続的に表示される同一人物の顔画像を追跡する顔画像追跡方法に係り、特に、登場人物ごとに、その登場期間を顔画像と対応付けて表示できる動画像の顔インデックス作成装置およびその顔画像追跡方法に関する。
近年、ハードディスクレコーダの普及により、テレビ映像を手軽に録画して視聴できる環境が整ってきた。一方で、音楽番組から自分の好みのアーティストの登場場面だけを視聴したいという要求がある。しかしながら、映像が長時間にわたる場合、映像の内容を目で確認しながら所望のアーティストの登場場面を検索する既知の検索方法では膨大な時間がかかるため、これに代わる効率的な検索方法が求められている。
これまで、顔の認識技術を利用して映像から人物検索を実現する取り組みがいくつかあった。非特許文献1、2には、顔の検出技術を用いて番組映像から顔を検出し、検出された顔を特徴空間上でクラスタリングすることにより、各番組の出演者情報を容易に把握できる番組一覧を出演頻度順に表示する技術が開示されている。
また、映像からの人物検索を実現するためには顔検出技術が必須であり、非特許文献3,4では、AdaBoostと呼ばれるカスケード型の識別器によって、顔以外であればカスケードの初期の段階で候補から外し、ラスタースキャン順で着目する矩形領域が顔であるか否かを高速に識別し、実時間で画像内の顔を検出する技術が開示されている。
さらに、特許文献1には、CCDカメラにより撮影された画像信号を対象に今回フレームと前回フレームとの差分を取り、その差分がある程度以上であるときに、その部分を動き物体と認識し、その認識した動き物体の最上部を基準として顔画像のあるべき画像エリアを特定し、この特定された画像エリアで、顔特徴である眉毛、目、口などの横エッジが検出された場合に顔と特定する人物認識装置が開示されている。
奥村真澄、平田恭二、"出演者の代表顔に基づく番組一覧による番組選択方法、"電子情報通信学会総合大会D-12-37、P.169、2006 奥村真澄、大網亮磨、平田恭二、"番組の出演者一覧生成のための顔画像クラスタリング手法、"FIT2006、PP.29-30、2006 P. Viola and M. Jones,"Rapid object detection using a boosted cascade of simple features,"Computer Vision and Pattern Recognition,Vol.1,pp511-518,2001. P. Viola and M. Jones,"Robust Real-time Object Detection,"2nd International Workshop on Statistical and Computational Theories of vision,Vancouver,Canada,pp.1-25,2001. 特許第3088880号公報
非特許文献1,2に開示された技術では、番組に登場する出演者とその頻度は容易に把握できるものの、番組内における人物の登場場面に関する情報を表示できないため、所望の人物の登場場面のみを簡単に検索することができなかった。
非特許文献3,4に開示された顔検出技術は、映像の時間的な前後関係を全く考慮せずに単一フレーム内で顔検出を行うので、単純に動画映像に適用しただけでは、誤検出により連続性が途絶え、ショット内において検出された人物の顔の同一性をフレーム間の連続性からは正しく識別できなかった。なお、ショットとはカメラの切り替わり点等の編集点で囲まれた1つまたは複数のフレームからなる映像の区間と定義する。ショットの切り替わりでは連続性が途絶える。
また、特許文献1に開示された顔検出装置は、人物以外の背景の動きに左右され動き領域が過剰検出される場合があり、顔検出対象が広がるため顔の検出に時間がかかり、顔検出率が劣化する問題があった。また人物の緩やかな動きおよび隠蔽により人物全体が抽出されずに顔領域の一部が欠ける場合があり、顔を特定できなくなるという問題があった。また、人物が静止している状態では動領域自体が消滅するため、顔の認識が困難であった。
本発明の第1の目的は、同一人物の顔画像が複数フレームにわたって連続的に表示される場合でも、各顔画像の同一性を正確に認識できる顔画像追跡方法を提供することにある。
本発明の第2の目的は、同一人物が連続して登場する期間を、各登場人物の顔画像と対応付けて表示できる動画像の顔インデックス作成装置を提供することにある。
本発明の第3の目的は、所望の人物が登場する期間の映像のみを簡単に再生できるようにした動画像の顔インデックス作成装置を提供することにある。
上記した目的を達成するために、本発明は、以下のような手段を講じた点に特徴がある。
(1)本発明の顔インデックスの作成装置は、複数フレームにわたって連続表示される同一人物の顔画像を追跡し、その連続表示期間を検出する顔画像追跡手段と、人物ごとに、その連続表示期間および顔画像を対応付けて表示する顔インデックスを構築する顔インデックス構築手段とを含むことを特徴とする。
(2)本発明の顔インデックスの作成装置では、インデックスの顔画像にリンク先が設定されており、このリンク先には、各顔画像の連続表示期間の最初から映像を再生させるコマンドが対応付けられていることを特徴とする。
(3)本発明の顔画像追跡方法は、動画像の各フレームから少なくとも一つの顔画像を検出する手順と、前回フレームで検出された各顔画像の位置と今回フレームで検出された各顔画像の位置とを比較する手順と、位置の距離が所定の基準値を下回る顔画像同士を同一人物の顔画像として対応付ける手順とを含むことを特徴とする。
本発明によれば、以下のような効果が達成される。
(1)本発明のインデックス作成装置によれば、各登場人物の時間軸上での連続表示期間を、それぞれの顔画像と対応付けて表示できるので、長い映像の中から所望の人物の登場期間を簡単に認識できるようになる。
(2)本発明のインデックス作成装置によれば、各登場人物の顔画像がクリックされたときにジャンプするリンク先として、その人物の登場場面の最初から映像を再生させるコマンドが対応付けられるので、所望の人物が登場する期間の映像のみを簡単に再生できるようになる。
(3)本発明の顔画像追跡方法によれば、同一人物の顔画像が複数フレームにわたって連続的に表示される場合でも、各顔画像の同一性を正確に認識できるので、登場人物が連続して表示される期間を正確に認識できるようになる。
以下、図面を参照して本発明の最良の実施の形態について詳細に説明する。図1は、本発明に係る動画像の顔インデックス作成装置1の主要部の構成を示したブロック図であり、動画像蓄積部2から動画像をフレーム単位で順次に読み込み、複数フレームにわたって連続的に登場する同一人物の顔画像を追跡し、その連続表示期間を検出する顔画像追跡部10と、連続表示期間ごとに代表顔を決定する代表顔決定部11と、各顔画像の連続表示期間およびその代表顔が対応付けられた顔インデックスを構築して出力する顔インデックス構築部12とを主要な構成としている。
図2は、本発明の顔インデックス作成装置1により作成される顔インデックスの一例を示した図であり、時刻t0〜t3の最初のショットでは2人の人物が登場し、時刻t0〜t2には、一人目の連続表示期間を示す目印21と共にその代表顔22が表示されており、この期間に一人目の人物が連続して登場していることが判る。同様に、時刻t1〜t3には、二人目の連続表示期間を示す目印23と共にその代表顔24が表示され、この期間に二人目の人物が連続して登場していることが判る。
図3は、前記顔画像追跡部10の構成を機能的に表現したブロック図である。フレーム読み込み部51は、動画像蓄積部2に蓄積された映像信号から1フレーム分の静止画像を任意の時間間隔で読み込む。読み込まれた静止画像は、今回フレームの静止画像として今回フレームバッファ52に蓄積される。前回フレームバッファ53には、前回フレームの静止画像が蓄積される。ショットチェンジ判定部54は、各フレームバッファ52,53に蓄積されている静止画像同士を比較し、その類似度に基づいてショット間のカメラ編集点の有無を判定する。
顔検出部55は、今回フレームバッファ52に蓄積された今回フレームの静止画像から顔画像を検出し、検出された顔画像ごとに、その表示範囲の位置座標、幅、高さ等の空間的な位置情報を今回検出結果バッファ56に蓄積する。なお、本実施形態では顔検出部55で検出された直後の顔画像は未確定の「顔候補」に過ぎず、次のフレームでも同じ位置で顔画像が検出されたときに「確定顔」として取り扱われる。前回検出結果バッファ57には、前回フレームで検出された顔候補および確定顔の表示範囲の位置座標、幅、高さ等の空間的な位置情報が蓄積される。
顔間距離算出部58は、今回検出結果バッファ56に蓄積されている今回フレームの各顔画像の位置と前回検出結果バッファ57に蓄積されている前回フレームの各顔画像の位置との距離(以下、顔間距離と表現する)Δdを、例えば各顔画像の左上座標の距離として算出する。
距離依存対応付部59は、前記顔間距離算出部58で算出された顔間距離Δdが所定の閾値Δdrefを下回る顔画像(顔候補および確定顔)の組み合わせに対して、今回フレームで検出された顔候補の状態を今回検出結果バッファ56上で「確定顔」に更新するのと同時に、前回フレームで検出された顔候補の状態を前回検出結果バッファ57上で「確定顔」に更新し、さらに各顔画像を顔画像シリーズとして相互に対応付ける。ここで、所定の閾値Δdrefは、前回フレームで検出された顔画像の大きさに比例した値に設定される。
類似度依存対応付部60は、前回検出結果バッファ57に蓄積された前回フレームの確定顔の中で、今回フレームのいずれの顔画像とも対応が取れなかった確定顔をテンプレートとして今回フレームの画像内でテンプレートマッチングを行い、類似度が所定の閾値を超える領域の画像を新たな顔画像(確定顔)として今回検出結果バッファ56に追加し、さらに各顔画像を顔画像シリーズとして相互に対応付ける。
テンプレートマッチングの適用領域は今回フレームの画像全体ではなく、テンプレートとして使用する確定顔の顔前フレームにおける位置と対応した位置およびその近傍に限定される。これにより、誤検出を減らし、かつ計算量を減らすことができるようになる。
次いで、図4,5,6のフローチャートおよび図7,8の模式図を参照して、前記顔画像追跡部10の動作を詳細に説明する。
図4において、ステップS1では、今回の注目フレームとしてt番目のフレーム(以下、第tフレーム)の静止画が、動画像蓄積部2に蓄積された映像信号から読み込まれて今回フレームバッファ52に蓄積される。ステップS2では、前記ショットチェンジ判定部54により、今回フレームバッファ52に蓄積されている今回フレームの静止画像と前回フレームバッファ53に蓄積されている前回の第(t-1)フレームの静止画像とが比較され、両者の類似度に基づいてショットチェンジの有無が判定される。
ショットチェンジが検出されなければステップS3へ進み、前記顔検出部55において、今回フレームバッファ52に蓄積されている今回のt番目のフレームの静止画像を対象に顔検出が行われる。本実施形態では、図7(a)、(b)に示した3人の登場人物A男、B子、C男のうち、B子の顔画像(j=1)およびC男の顔画像(j=2)が認識されたものの、A男の顔画像が認識されず、顔画像(j=3)が誤検出されたものとして説明を続ける。
ステップS4では距離依存対応付け処理が実行される。この距離依存対応付け処理では、今回フレームで検出された各顔画像と前回フレームで検出された各顔画像との同一性が各顔画像の位置の相対距離に基づいて判定され、同一の顔画像同士が、複数のフレームにわたって連続表示される同一の顔画像、すなわち「顔画像シリーズ」として対応付けられる。
図5は、前記距離依存対応付け処理の手順を示したフローチャートであり、ステップS401では、前回の第(t-1)フレームで検出されている顔画像の一つが、今回の注目画像として選択される。本実施形態では、図7(a),(b)に示したように、前回フレームではA男の顔画像(i=1)およびB子の顔画像(i=2)が確定顔として登録されており、始めにA男の顔画像(i=1)が選択されたものとして説明を続ける。
ステップS402では、前回フレームにおけるA男の顔画像(i=1)の位置と今回フレームの3つの顔画像(j=1,2,3)の各位置との距離が顔間距離Δdとしてそれぞれ計算される。ステップS403では、各顔間距離Δdと閾値Δdrefとが比較される。本実施形態では、図7(c)に示したように、前回フレームにおけるA男の顔画像(i=1)との顔間距離Δdが閾値Δdrefを下回る顔画像が今回フレームでは検出されていないのでステップS406へ進む。ステップS406では、前回フレームに顔画像が他にもあるか否かが判定され、本実施形態では、B子の顔画像(i=2)があるのでステップS401へ戻る。
ステップS401では、前回フレームのB子の顔画像(i=2)が今回の注目画像として選択される。ステップS402では、B子の顔画像(i=2)の位置と今回フレームの3つの顔画像(j=1,2,3)の各位置との顔間距離Δdがそれぞれ計算される。本実施形態では、図7(d)に示したように、前回フレームにおけるB子の顔画像(i=2)と今回フレームにおける第1顔画像(j=1)との顔間距離Δdが閾値Δdrefを下回ると判定されるのでステップS404へ進む。ステップS404では、今回フレームの第1顔画像(j=1)が今回検出結果バッファ56上で顔候補から確定顔に変更される。
ステップS405では、前回フレームのB子の顔画像(i=2)と今回フレームの第1顔画像(j=1)とが顔画像シリーズとして対応付けられる。ステップS406では、前回フレームに顔画像が無いと判定されるのでステップS407へ進む。ステップS407では、前回フレームで未確定のままの顔候補(ここでは、該当無し)が登録を抹消される。
図4へ戻り、ステップS5では類似度依存対応付け処理が実行される。この類似度依存対応付け処理では、今回フレームで検出された各顔画像と前回フレームで検出された各顔画像との同一性が各顔画像のテンプレートマッチングによる類似度に基づいて判定され、同一の顔画像同士が顔画像シリーズとして対応付けられる。
図6は、前記類似度依存対応付け処理の手順を示したフローチャートである。ステップS501では、今回フレームのいずれの顔画像とも顔画像シリーズとして対応付けられていない未対応付けの確定顔が前回フレームに登録されているか否かが判定される。本実施形態では、前回フレームにおけるA男の顔画像(i=1)が未対応なのでステップS502へ進む。ステップS502では、未対応の確定顔の一つとしてA男の顔画像(i=1)が今回の注目画像として選択される。ステップS503では、図7(e)に示したように、前回フレームにおけるA男の顔画像(i=1)の位置と今回フレームで対応する位置およびその近傍を対象に、A男の顔画像(i=1)をテンプレートとしてテンプレートマッチングが行われ、その類似度Sが算出される。
ステップS504では、前記類似度Sが所定の基準類似度Srefと比較される。図7(f)に示したように、S≧Srefとなる領域が見つかればステップS505へ進み、当該領域の画像が今回フレームの確定顔(j=4)として今回検出結果バッファ56に追加登録される。ステップS506では、前回フレームの顔画像(i=1)と今回フレームの顔画像(j=4)とが顔画像シリーズとして対応付けられる。ステップS507では、他にも前回フレームに未対応の確定顔があるか否か判定され、ここでは未対応の確定顔が無いと判定されるので当該処理を終了する。
図4へ戻り、ステップS6では前回フレームバッファ53がクリアされ、今回フレームバッファ52に蓄積されていた静止画像が前回フレームバッファ53へ移動される。ステップS7では、前回検出結果バッファ57がクリアされ、今回検出結果バッファ56に蓄積されていた検出結果が前回検出結果バッファ57へ移動される。
続くステップS1では、第(t+1)番目のフレームの静止画像が今回フレームの静止画像として読み込まれて今回フレームバッファ52に蓄積される。ステップS2では前記ショットチェンジ判定部54においてショットチェンジの有無が判定され、ショットチェンジが検出されなければステップS3へ進み、前記顔検出部55において、今回フレームバッファ52に蓄積されている今回フレームの静止画像を対象に顔検出が行われる。本実施形態では、図8(a)、(b)に示したように、3つの顔画像(k=1,2,3)が検出されたものとして説明を続ける。ステップS4では、今回フレームで検出された各顔画像および前回の第tフレームで検出された各顔画像を対象に、前記図5に関して説明した距離依存対応付け処理が実行される。
図5において、ステップS401では、前回の第tフレームで検出されている4つの顔画像(j=1,2,3,4)の一つが、今回の注目画像として選択される。本実施形態では、始めにB子の顔画像(j=1)が選択されたものとして説明を続ける。
ステップS402では、前回フレームにおけるB子の顔画像(j=1)の位置と今回フレームにおける3つの顔画像(k=1,2,3)の位置との顔間距離Δdがそれぞれ計算される。ステップS403では、各顔間距離Δdと閾値drefとが比較される。本実施形態では、図8(c)に示したように、前回フレームにおけるB子の顔画像(j=1)と今回フレームにおける第2顔画像(k=2)との顔間距離Δdが閾値drefを下回ると判定されてステップS404へ進む。ステップS404では、今回フレームの第2顔画像(k=2)が未確定顔から確定顔へ変更される。ステップS405では、前回フレームのB子の顔画像(j=1)と今回フレームの第2顔画像(k=2)とがB子の顔画像シリーズとして対応付けられる。
ステップS406では、顔画像が他にもあるか否かが判定され、本実施形態では、他にも有ると判定されるのでステップS401へ戻り、他の顔画像(j=2,3,4)に関しても同様に距離依存対応付け処理が実行される。本実施形態では、図8(d)に示したように、前回フレームのA男の顔画像(j=4)が今回フレームの第1顔画像(k=1)と対応付けられる。さらに、図8(e)に示したように、前回フレームのC男の顔画像(j=2)が今回フレームの第3顔画像(k=3)と対応付けられる。但し、前回フレームで誤検出された顔画像(j=3)に関しては、図8(f)に示したように、今回フレームのいずれの顔画像とも対応付けられておらず、顔候補のままなので、ステップS407において前回検出結果バッファ57から登録を抹消される。
一方、図4のステップS2においてショットチェンジが検出されると、ステップS8へ進んで前回検出結果バッファ57から未確定の顔画像の登録が抹消される。ステップS9では、顔画像シリーズごとに、タイムコード等のフレームを識別するフレームIDおよびフレームごとの顔情報の位置座標とが代表顔決定部11に出力される。ステップS10では、次フレームが存在するか否かが判定され、存在すればステップS1へ戻って上記した各処理が繰り返される。存在しなければ当該処理を終了する。この時点では、各ショットにおいて顔画像シリーズごとに、対応付けられているフレームのIDおよびフレームごとの顔情報の位置座標が代表顔決定部11に出力されていることになる。
図9は、前記代表顔決定部11の動作を示したフローチャートであり、ステップS601では、顔画像シリーズの一つが選択される。ステップS602では、この顔画像シリーズにおいて対応付けられた各フレームから顔画像が決定される。ステップS603では、この顔画像が左右反転される。ステップS604では、左右反転前の顔画像と左右反転後の顔画像との相関が計算される。ステップS605では、相関計算の完了していない顔画像が他にもあるか否かが判定され、今回の顔画像シリーズに関して全ての顔画像の相関計算が完了するまで、ステップS602へ戻って上記した各処理が繰り返される。
全ての顔画像に関して相関計算が完了するとステップS606へ進み、相関が最も高い顔画像が当該顔画像シリーズの代表顔として決定される。ステップS607では、代表顔が決定されていない顔画像シリーズがあるか否かが判定され、全ての顔画像シリーズに関して代表顔が決定されるまで、ステップS601へ戻って上記した各処理が繰り返される。
以上のようにして、ショットごとに各顔画像シリーズの表示期間および代表顔が決定されると、前記顔インデックス構築部12は、動画像の全期間の中で各顔画像シリーズの表示期間およびその代表顔が視覚的に容易に認識できる表示形態で顔インデックスを構築する。
なお、上記した実施形態では、以上のようにして求められた各顔画像シリーズが、前記図2に関して説明したように、連続表示期間を表す目印21,23およびその代表顔22,24で示されるものとして説明したが、図10に一例を示したように、代表顔とその登場期間の具体的な時刻情報と共に示されるようにしても良い。
さらに、図11は顔インデックスの他の実施形態を示した図であり、ここでは、各顔画像シリーズの作成が映像の再生と並行して行われ、表示画面80が上下に動画領域81とインデックス領域82とに分割される。そして、動画領域81に人物が登場するごとに、その顔画像と登場時刻とがインデックス領域82に表示されるようにしている。
同図(a)は、人物Aが登場したタイミングでの表示例を示しており、人物Aの顔画像と登場時刻[0:00:03]とが表示される。同図(b)は、人物Bがさらに登場したタイミングでの表示例を示しており、人物Bの顔画像と登場時刻[0:00:13]とが追加的に表示される。同図(c)は、人物Bが去って人物Cが登場したタイミングでの表示例を示しており、人物Bの顔画像と登場時刻[0:00:13]とを残したまま、人物Cの顔画像と登場時刻[0:00:18]とが追加的に表示されている。
また、各登場人物の顔画像には、その登場タイミングの映像にジャンプするためのリンク先が対応付けられており、例えば人物Aの顔画像をクリックすると、再生位置が時刻[0:00:03]へジャンプする。
本発明に係る動画像の顔インデックス作成装置の構成を示したブロック図である。 顔インデックスの一例を示した図である。 顔画像追跡部(10)の機能ブロック図である。 顔画像追跡部(10)の動作を示したフローチャートである。 距離依存対応付け処理の手順を示したフローチャートである。 類似度依存対応付け処理の手順を示したフローチャートである。 顔画像追跡部(10)の動作を模式的に表現した図(その1)である。 顔画像追跡部(10)の動作を模式的に表現した図(その2)である。 代表顔決定部(11)の動作を示したフローチャートである。 顔インデックスの他の表示例を示した図である。 顔インデックスのさらに他の表示例を示した図である。
符号の説明
1…顔インデックス作成装置,10…顔画像追跡部,11…代表顔決定部,12…顔インデックス構築部,51…フレーム読み込み部,52…今回フレームバッファ,53…前回フレームバッファ,54…ショットチェンジ判定部,55…顔検出部,56…今回検出結果バッファ,57…前回検出結果バッファ,58…顔間距離算出部,59…距離依存対応付部,60…類似度依存対応付部

Claims (13)

  1. 動画像において登場人物の顔画像をインデックス表示する顔インデックスの作成装置において、
    複数フレームにわたって連続表示される同一人物の顔画像を追跡し、その連続表示期間を検出する顔画像追跡手段と、
    各登場人物の連続表示期間およびその顔画像を対応付けて表示する顔インデックスを構築する顔インデックス構築手段とを含むことを特徴とする動画像の顔インデックス作成装置。
  2. 前記連続表示期間ごとに代表顔を決定する代表顔決定手段を具備し、
    前記顔インデックス表示手段は、各連続表示期間をその代表顔と対応付けて表示することを特徴とする請求項1に記載の動画像の顔インデックス作成装置。
  3. 前記顔画像追跡手段が、
    動画像の各フレームから少なくとも一つの顔画像を検出する顔検出手段と、
    前回のフレームで検出された各顔画像の位置と今回のフレームで検出された各顔画像の位置とを比較する位置比較手段と、
    位置の距離が所定の基準値を下回る顔画像同士を同一人物の顔画像と判定し、各顔画像を顔画像シリーズとして対応付ける距離依存対応付け手段とを含み、
    前記顔画像シリーズのフレーム期間が連続表示期間とされることを特徴とする請求項1または2に記載の動画像の顔インデックス作成装置。
  4. 前回のフレームで検出された各顔画像をテンプレートとして、今回のフレームの対応位置近傍で類似画像を検索する画像検索手段と、
    類似度が所定の基準値を上回る顔画像同士を同一人物の顔画像と判定し、各顔画像を顔画像シリーズとして対応付ける類似度依存対応付け手段とを含み、
    前記各対応付け手段で対応付けられた顔画像シリーズのフレーム期間が連続表示期間とされることを特徴とする請求項3に記載の動画像の顔インデックス作成装置。
  5. 前回フレームの画像と今回フレームの画像との類似度に基づいて、前回フレームと今回フレームとの間でショットチェンジがあったか否かを判定するショットチェンジ判定手段を具備し、
    前記顔画像追跡手段は、ショット間の動画像ごとに連続表示期間を検出することを特徴とする請求項1ないし4のいずれかに記載の動画像の顔インデックス作成装置。
  6. 前記代表顔決定手段は、
    顔画像シリーズごとに、各顔画像の左右反転画像を生成する画像反転部と、
    各顔画像の左右反転画像と左右非反転画像との類似度を算出する手段とを含み、
    前記類似度の高い顔画像を代表顔とすることを特徴とする請求項2に記載の動画像の顔インデックス作成装置。
  7. 前記顔インデックス構築手段は、顔画像シリーズごとに、その表示時刻帯を示す目印と顔画像とを対応付けて表示することを特徴とする請求項3または4に記載の動画像の顔インデックス作成装置。
  8. 前記顔インデックス構築手段は、顔画像シリーズごとに、その表示時刻と顔画像とを対応付けて表示することを特徴とする請求項3または4に記載の動画像の顔インデックス作成装置。
  9. 前記各顔画像シリーズの顔画像に、当該顔画像がクリックされたときにジャンプするリンク先が設定されていることを特徴とする請求項3または4に記載の動画像の顔インデックス作成装置。
  10. 前記顔画像のリンク先には、各顔画像シリーズの連続表示期間の最初から映像を再生させるコマンドが対応付けられていることを特徴とする請求項9に記載の動画像の顔インデックス作成装置。
  11. 複数フレームにわたって連続表示される同一人物の顔画像を追跡する顔画像追跡方法において、
    動画像の各フレームから少なくとも一つの顔画像を検出する手順と、
    前回のフレームで検出された各顔画像の位置と今回のフレームで検出された各顔画像の位置とを比較する手順と、
    位置の距離が所定の基準値を下回る顔画像同士を同一人物の顔画像として対応付ける手順とを含むことを特徴とする顔画像追跡方法。
  12. 前回のフレームで検出された各顔画像をテンプレートとして、今回のフレームの対応位置近傍で類似画像を検索する手順と、
    類似度が所定の基準値を上回る顔画像同士を同一人物の顔画像として対応付ける手順とをさらに含むことを特徴とする請求項11に記載の顔画像追跡方法。
  13. 前回フレームの画像と今回フレームの画像との類似度に基づいて、前回フレームと今回フレームとの間でショットチェンジがあったか否かを判定する手順をさらに含み、
    前記顔画像追跡がショット単位で行われることを特徴とする11または12に記載の顔画像追跡方法。
JP2007088738A 2007-03-29 2007-03-29 動画像の顔インデックス作成装置およびその顔画像追跡方法 Active JP4831623B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007088738A JP4831623B2 (ja) 2007-03-29 2007-03-29 動画像の顔インデックス作成装置およびその顔画像追跡方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007088738A JP4831623B2 (ja) 2007-03-29 2007-03-29 動画像の顔インデックス作成装置およびその顔画像追跡方法

Publications (2)

Publication Number Publication Date
JP2008252296A true JP2008252296A (ja) 2008-10-16
JP4831623B2 JP4831623B2 (ja) 2011-12-07

Family

ID=39976766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007088738A Active JP4831623B2 (ja) 2007-03-29 2007-03-29 動画像の顔インデックス作成装置およびその顔画像追跡方法

Country Status (1)

Country Link
JP (1) JP4831623B2 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009253798A (ja) * 2008-04-09 2009-10-29 Nippon Hoso Kyokai <Nhk> 番組登場人物抽出装置及び番組登場人物抽出プログラム
JP2010146522A (ja) * 2008-12-22 2010-07-01 Nec Software Kyushu Ltd 顔画像追跡装置及び顔画像追跡方法並びにプログラム
JP2010147509A (ja) * 2008-12-16 2010-07-01 Hitachi Ltd 映像処理装置及び映像配信システム
JP2010257265A (ja) * 2009-04-27 2010-11-11 Fujifilm Corp 表示制御装置およびその動作制御方法
JP2011087104A (ja) * 2009-10-15 2011-04-28 Canon Inc 画像処理装置、画像処理方法、プログラム、及び媒体
WO2011102416A1 (ja) * 2010-02-19 2011-08-25 株式会社 東芝 移動物体追跡システムおよび移動物体追跡方法
JP2011170711A (ja) * 2010-02-19 2011-09-01 Toshiba Corp 移動物体追跡システムおよび移動物体追跡方法
JP2011199525A (ja) * 2010-03-18 2011-10-06 Canon Inc チャプタ情報作成装置及びその制御方法
JP2011244155A (ja) * 2010-05-17 2011-12-01 Toshiba Corp 電子機器及び画像処理プログラム
JP2012137861A (ja) * 2010-12-24 2012-07-19 Jvc Kenwood Corp 映像処理装置および映像処理方法
JP2012249156A (ja) * 2011-05-30 2012-12-13 Sony Corp 情報処理装置、情報処理方法、及びプログラム
US8471944B2 (en) 2009-08-21 2013-06-25 Olympus Imaging Corp. Camera and display control method of the same
JP2013142930A (ja) * 2012-01-06 2013-07-22 Canon Inc 画像処理装置、その制御方法、及びプログラム
JP2013162337A (ja) * 2012-02-06 2013-08-19 Jcc Kk 録画装置
JP2014017852A (ja) * 2013-09-11 2014-01-30 Sony Corp 情報処理装置、情報処理方法、撮像装置、及び情報処理システム
US8724960B2 (en) 2009-07-09 2014-05-13 Sony Corporation Imaging device, image processing method, and program thereof
JP2014123991A (ja) * 2014-03-20 2014-07-03 Casio Comput Co Ltd 被写体検出装置、被写体検出方法及びプログラム
WO2015107775A1 (ja) * 2014-01-17 2015-07-23 株式会社日立製作所 映像情報処理システム
JP2017022733A (ja) * 2013-02-22 2017-01-26 富士ゼロックス株式会社 ビデオ再生方法及びシステム
JP7497223B2 (ja) 2020-06-16 2024-06-10 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004094491A (ja) * 2002-08-30 2004-03-25 Nec Corp 顔向き推定装置および顔向き推定方法ならびに顔向き推定プログラム
JP2005277726A (ja) * 2004-03-24 2005-10-06 Toshiba Corp 画像監視装置
JP2006133946A (ja) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd 動体認識装置
JP2006343791A (ja) * 2005-06-07 2006-12-21 Hitachi Ltd 顔画像データベース作成方法
JP2007072520A (ja) * 2005-09-02 2007-03-22 Sony Corp 映像処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004094491A (ja) * 2002-08-30 2004-03-25 Nec Corp 顔向き推定装置および顔向き推定方法ならびに顔向き推定プログラム
JP2005277726A (ja) * 2004-03-24 2005-10-06 Toshiba Corp 画像監視装置
JP2006133946A (ja) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd 動体認識装置
JP2006343791A (ja) * 2005-06-07 2006-12-21 Hitachi Ltd 顔画像データベース作成方法
JP2007072520A (ja) * 2005-09-02 2007-03-22 Sony Corp 映像処理装置

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009253798A (ja) * 2008-04-09 2009-10-29 Nippon Hoso Kyokai <Nhk> 番組登場人物抽出装置及び番組登場人物抽出プログラム
JP2010147509A (ja) * 2008-12-16 2010-07-01 Hitachi Ltd 映像処理装置及び映像配信システム
JP2010146522A (ja) * 2008-12-22 2010-07-01 Nec Software Kyushu Ltd 顔画像追跡装置及び顔画像追跡方法並びにプログラム
JP2010257265A (ja) * 2009-04-27 2010-11-11 Fujifilm Corp 表示制御装置およびその動作制御方法
US8724960B2 (en) 2009-07-09 2014-05-13 Sony Corporation Imaging device, image processing method, and program thereof
US9361010B2 (en) 2009-07-09 2016-06-07 Sony Corporation Imaging device, image processing method, and program thereof
US8471944B2 (en) 2009-08-21 2013-06-25 Olympus Imaging Corp. Camera and display control method of the same
JP2011087104A (ja) * 2009-10-15 2011-04-28 Canon Inc 画像処理装置、画像処理方法、プログラム、及び媒体
JP2011170711A (ja) * 2010-02-19 2011-09-01 Toshiba Corp 移動物体追跡システムおよび移動物体追跡方法
WO2011102416A1 (ja) * 2010-02-19 2011-08-25 株式会社 東芝 移動物体追跡システムおよび移動物体追跡方法
KR101434768B1 (ko) * 2010-02-19 2014-08-27 가부시끼가이샤 도시바 이동 물체 추적 시스템 및 이동 물체 추적 방법
JP2011199525A (ja) * 2010-03-18 2011-10-06 Canon Inc チャプタ情報作成装置及びその制御方法
JP2011244155A (ja) * 2010-05-17 2011-12-01 Toshiba Corp 電子機器及び画像処理プログラム
JP2012137861A (ja) * 2010-12-24 2012-07-19 Jvc Kenwood Corp 映像処理装置および映像処理方法
JP2012249156A (ja) * 2011-05-30 2012-12-13 Sony Corp 情報処理装置、情報処理方法、及びプログラム
CN102857810A (zh) * 2011-05-30 2013-01-02 索尼公司 信息处理设备、信息处理方法和程序
JP2013142930A (ja) * 2012-01-06 2013-07-22 Canon Inc 画像処理装置、その制御方法、及びプログラム
JP2013162337A (ja) * 2012-02-06 2013-08-19 Jcc Kk 録画装置
JP2017022733A (ja) * 2013-02-22 2017-01-26 富士ゼロックス株式会社 ビデオ再生方法及びシステム
JP2014017852A (ja) * 2013-09-11 2014-01-30 Sony Corp 情報処理装置、情報処理方法、撮像装置、及び情報処理システム
WO2015107775A1 (ja) * 2014-01-17 2015-07-23 株式会社日立製作所 映像情報処理システム
JP2014123991A (ja) * 2014-03-20 2014-07-03 Casio Comput Co Ltd 被写体検出装置、被写体検出方法及びプログラム
JP7497223B2 (ja) 2020-06-16 2024-06-10 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP4831623B2 (ja) 2011-12-07

Similar Documents

Publication Publication Date Title
JP4831623B2 (ja) 動画像の顔インデックス作成装置およびその顔画像追跡方法
JP4973188B2 (ja) 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム
JP5371083B2 (ja) 顔識別特徴量登録装置、顔識別特徴量登録方法、顔識別特徴量登録プログラム及び記録媒体
JP4841553B2 (ja) 映像シーン分類装置、映像シーン分類方法、プログラム、記録媒体、集積回路およびサーバ−クライアントシステム
US8270806B2 (en) Information processing apparatus and method of controlling same
JP4765732B2 (ja) 動画編集装置
Yu et al. Trajectory-based ball detection and tracking in broadcast soccer video
JP5106271B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
Zhu et al. Human behavior analysis for highlight ranking in broadcast racket sports video
US20160148650A1 (en) Video processing system with custom chaptering and methods for use therewith
JP2007072520A (ja) 映像処理装置
JPWO2008078736A1 (ja) 同一性判定装置、同一性判定方法および同一性判定用プログラム
JP6649231B2 (ja) 検索装置、検索方法およびプログラム
JP5360979B2 (ja) 重要情報抽出方法および装置
JP2009201041A (ja) コンテンツ検索装置およびその表示方法
JP4504452B1 (ja) 映像視聴装置及び映像再生制御方法及び記録再生用プログラム
RU2609071C2 (ru) Навигация по видеопоследовательности через местоположение объекта
JP2007200249A (ja) 映像検索方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
JP2019101892A (ja) オブジェクト追跡装置及びそのプログラム
JP4546762B2 (ja) 映像イベント判別用学習データ生成装置及びそのプログラム、並びに、映像イベント判別装置及びそのプログラム
US10405065B2 (en) Video processing system and method
WO2012153747A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
Haller et al. Audiovisual anchorperson detection for topic-oriented navigation in broadcast news
US20230162499A1 (en) Image analysis system, image analysis method, and program
US20230162501A1 (en) Image analysis system, image analysis method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110622

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110914

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110914

R150 Certificate of patent or registration of utility model

Ref document number: 4831623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3