JP2014170978A - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents

情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP2014170978A
JP2014170978A JP2011107102A JP2011107102A JP2014170978A JP 2014170978 A JP2014170978 A JP 2014170978A JP 2011107102 A JP2011107102 A JP 2011107102A JP 2011107102 A JP2011107102 A JP 2011107102A JP 2014170978 A JP2014170978 A JP 2014170978A
Authority
JP
Japan
Prior art keywords
target
area
follow
importance
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011107102A
Other languages
English (en)
Inventor
Masumi Ishikawa
真澄 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011107102A priority Critical patent/JP2014170978A/ja
Priority to PCT/JP2012/062570 priority patent/WO2012153868A1/ja
Publication of JP2014170978A publication Critical patent/JP2014170978A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure

Abstract

【課題】撮影対象の重要度の算出精度を向上させること。
【解決手段】撮影動画に含まれる少なくとも1つのフレーム画像内において、あらかじめ登録された特定対象を含む領域としての対象領域を検出する対象領域検出手段と、撮影動画に含まれる少なくとも1つのフレーム画像内において、撮影動画の撮影者がフォロー撮影によって追ったと推定されるフォロー対象を含む領域としてのフォロー領域を検出するフォロー領域検出手段と、対象領域検出手段が検出した対象領域と、フォロー領域検出手段が検出したフォロー領域とを比較することにより、特定対象とフォロー対象とが対応するか否かを判定する判定手段と、判定手段による判定結果に基づいて撮影動画に含まれる特定対象の重要度を算出する重要度算出手段と、を含むことを特徴とする。
【選択図】 図1

Description

本発明は、撮影された対象物に対する重要度を算出するための技術に関する。
上記技術分野に属する技術が、特許文献1に開示されている。特許文献1では、映像中の顔画像を人物ごとにグループ分けし、グループに属する顔画像の枚数によって人物の登場時間を推定し、登場時間の長さをもとに人物の重要度を算出する。また、特許文献2では、映像を撮影する際のカメラ操作に、対象に対する撮影者の興味が反映されるとし、対象を追うようなカメラ操作(フォロー撮影)の行われた区間を検出する。さらに、フォロー撮影された対象(フォロー対象)の位置や照明条件等をもとにフレームの重要度を算出する。
特許第3315888公報 特許第3525493公報
しかしながら、上記従来技術では、撮影対象の重要度の算出精度が十分ではなかった。
例えば、特許文献1では、撮影者が興味を持っていない特定対象についても、その特定対象が映像中に長時間出現する場合には、高い重要度が付与される。また、特許文献2では、特定対象ではない撮影対象がたまたまカメラの動きと似た動きをした場合に、その撮影対象に対して高い重要度が付与される。
本発明の目的は、上述の課題を解決する技術を提供することにある。
上記目的を達成するため、本発明に係る装置は、
撮影動画に含まれる少なくとも1つのフレーム画像内において、あらかじめ登録された特定対象を含む領域としての対象領域を検出する対象領域検出手段と、
前記撮影動画に含まれる少なくとも1つのフレーム画像内において、前記撮影動画の撮影者がフォロー撮影によって追ったと推定されるフォロー対象を含む領域としてのフォロー領域を検出するフォロー領域検出手段と、
前記対象領域検出手段が検出した前記対象領域と、前記フォロー領域検出手段が検出した前記フォロー領域とを比較することにより、前記特定対象と前記フォロー対象とが対応するか否かを判定する判定手段と、
前記判定手段による判定結果に基づいて前記撮影動画に含まれる前記特定対象の重要度を算出する重要度算出手段と、
を含むことを特徴とする。
上記目的を達成するため、本発明に係る方法は、
撮影動画に含まれる少なくとも1つのフレーム画像内において、あらかじめ登録された特定対象を含む領域としての対象領域を検出する対象領域検出ステップと、
前記撮影動画に含まれる少なくとも1つのフレーム画像内において、前記撮影動画の撮影者がフォロー撮影によって追ったと推定されるフォロー対象を含む領域としてのフォロー領域を検出するフォロー領域検出ステップと、
前記対象領域検出ステップで検出した前記対象領域と、前記フォロー領域検出ステップで検出した前記フォロー領域とを比較することにより、前記特定対象と前記フォロー対象とが対応するか否かを判定する判定ステップと、
前記判定ステップによる判定結果に基づいて前記撮影動画に含まれる前記特定対象の重要度を算出する重要度算出ステップと、
を含むことを特徴とする。
上記目的を達成するため、本発明に係るプログラムは、
撮影動画に含まれる少なくとも1つのフレーム画像内において、あらかじめ登録された特定対象を含む領域としての対象領域を検出する対象領域検出ステップと、
前記撮影動画に含まれる少なくとも1つのフレーム画像内において、前記撮影動画の撮影者がフォロー撮影によって追ったと推定されるフォロー対象を含む領域としてのフォロー領域を検出するフォロー領域検出ステップと、
前記対象領域検出ステップで検出した前記対象領域と、前記フォロー領域検出ステップで検出した前記フォロー領域とを比較することにより、前記特定対象と前記フォロー対象とが対応するか否かを判定する判定ステップと、
前記判定ステップによる判定結果に基づいて前記撮影動画に含まれる前記特定対象の重要度を算出する重要度算出ステップと、
をコンピュータに実行させることを特徴とする。
本発明によれば、撮影対象の重要度の算出精度を向上させることができる。
本発明の第1実施形態に係る情報処理装置の構成を示すブロック図である。 本発明の第2実施形態に係る情報処理システムの構成を示すブロック図である。 本発明の第2実施形態に係る情報処理システムの処理の流れを示すフローチャートである。 本発明の第2実施形態に係る情報処理システムの動作を説明する図である。 本発明の第2実施形態に係る情報処理システムにおけるフォロー対象と特定対象との対応関係の判定について説明する図である。 本発明の第2実施形態に係る情報処理システムにおけるフォロー対象と特定対象との対応関係の判定について説明する図である。 本発明の第2実施形態に係る情報処理システムにおけるフォロー対象と特定対象との対応関係の判定について説明する図である。 本発明の第2実施形態に係る情報処理システムにおけるフォロー対象と特定対象との対応関係の判定について説明する図である。 本発明の第2実施形態に係る情報処理システムにおけるフォロー対象と特定対象との対応関係の判定について説明する図である。 本発明の第3実施形態に係る情報処理システムにおけるフォロー対象と特定対象との対応関係の判定について説明する図である。 本発明の第3実施形態に係る情報処理システムにおけるフォロー対象と特定対象との対応関係の判定について説明する図である。 本発明の第3実施形態に係る情報処理システムにおけるフォロー対象と特定対象との対応関係の判定について説明する図である。 本発明の第3実施形態に係る情報処理システムにおけるフォロー対象と特定対象との対応関係の判定について説明する図である。 本発明の第3実施形態に係る情報処理システムにおけるフォロー対象と特定対象との対応関係の判定について説明する図である。 本発明の第3実施形態に係る情報処理システムにおけるフォロー対象と特定対象との対応関係の判定について説明する図である。
以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素はあくまで例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。
[第1実施形態]
本発明の第1実施形態としての情報処理装置100について、図1を用いて説明する。情報処理装置100は、撮影動画を解析して、そこに写る対象の重要性を算出するための装置である。
図1に示すように、情報処理装置100は、対象領域検出部101と、フォロー領域検出部102と判定部103と重要度算出部104とを含む。
対象領域検出部101は撮影動画110に含まれる少なくとも1つのフレーム画像内において、あらかじめ登録された特定対象を含む領域としての対象領域を検出する。
フォロー領域検出部102は、撮影動画に含まれる少なくとも1つのフレーム画像内において、撮影動画の撮影者がフォロー撮影によって追ったと推定されるフォロー対象を含む領域としてのフォロー領域を検出する。
判定部103は、対象領域検出部101が検出した対象領域と、フォロー領域検出部102が検出したフォロー領域とを比較することにより、特定対象とフォロー対象とが対応するか否かを判定する。
重要度算出部104は、判定部103による判定結果に基づいて撮影動画に含まれる特定対象の重要度を算出する。
以上の構成を有する情報処理装置によれば、撮影動画に含まれる撮影対象の重要度をより精度良く算出することができる。
[第2実施形態]
次に本発明の第2実施形態に係る情報処理システムについて、図2以降を用いて説明する。
(システム全体構成)
図2は、本実施形態に係る情報処理システム200の全体構成を説明するための図である。情報処理システム200は、動画を撮影する映像入力手段としてのビデオデバイス210と、プログラム制御により動作する情報処理装置220と、重要度を出力する出力手段としてのディスプレイ230とを含む。情報処理装置220は、対象領域検出部221と、フォロー領域検出部222と、対応関係判定部223と、重要度算出部224を含む。
ビデオデバイス210は、撮影動画を構成する各フレームについて、フレーム情報(ここでは時刻情報とフレーム画像データ)を対象領域検出部221とフォロー領域検出部222に入力する。時刻情報は、映像信号に記載された映像開始点からの時間的位置を示すフレーム番号やタイムコードであっても、映像を撮影した実際の時刻であってもよい。画像データは、フレームの画素情報とする。
対象領域検出部221は、ビデオデバイス210を用いて撮影された撮影動画に含まれる少なくとも1つのフレーム画像内において、特定対象を含む領域としての対象領域を検出する。この検出は、特定対象データベース225にあらかじめ登録された特定対象の登録データ(ここでは人の顔画像)に基づいて行なわれる。そして、その対象領域を表わす情報(対象領域ID・特定対象ID・時刻・座標位置・視覚的特徴量など)を対応関係判定部223に渡す。特定対象データベース225には、あらかじめ人物A,Bの正面顔が特定対象として登録されているものとする。
フォロー領域検出部222は、撮影動画に含まれる少なくとも1つのフレーム画像内において、撮影動画211の撮影者がフォロー撮影によって追ったと推定されるフォロー対象を含む領域としてのフォロー領域を検出する。そして検出したフォロー領域を表わす情報(フォロー領域ID・特定対象ID・時刻・座標位置・視覚的特徴量など)を対応関係判定部223に渡す。
対応関係判定部223は、対象領域検出部221が検出した対象領域と、フォロー領域検出部222が検出したフォロー領域とを比較して、特定対象とフォロー対象とが対応しているか否かを判定する。対象領域に含まれる特定対象とフォロー領域に含まれるフォロー対象とが対応するか否かを判定する。対応関係判定部223は、フォロー領域の特定対象IDに、フォロー領域と同一と判定した対象領域の関連情報である特定対象IDを設定する。そしてさらに、対応関係判定部223は、フォロー領域と対象領域の関連情報(フォロー領域ID・特定対象ID・時刻・座標位置・視覚的特徴量)を重要度算出部224に入力する。
重要度算出部224は、対応関係判定部223が判定した結果に基づいて、撮影動画に含まれる各特定対象の重要度を算出する。さらに、重要度算出部224は、特定対象の重要度をディスプレイ230に出力する。重要度算出部224は、特定対象の関連情報として、さらに、出現時刻・位置・視覚的特徴量をディスプレイ230に出力してもよい。出現時刻は、特定対象に対応づけられた対象領域もしくはフォロー領域の出現時刻とする。位置は、特定対象に対応づけられた対象領域もしくはフォロー領域の位置とする。視覚的特徴量は、特定対象に対応づけられた対象領域もしくはフォロー領域の視覚的特徴量とする。
ディスプレイ230は、各特定対象の関連情報を出力する。特定対象IDと重要度とを表形式で画面提示してもよいし、特定対象IDと重要度に加えて特定対象の関連情報である出現時刻や位置を提示してもよい。また、重要度が規定値以上の特定対象との出現時刻や位置をもとに、入力映像から、重要度の高い特定対象を含むフレームを抽出してもよい。さらには、入力映像から重要度の高い特定対象の領域を切り出し、表示してもよい。あるいは、重要度が規定値以上の特定対象の出現時刻をもとに、特定対象を含むフレームの属する映像区間を入力映像から切り出して連結し、編集映像を生成してもよい。
(システム全体動作)
図3を用いて、上記構成を有する情報処理システム200の処理の流れについて説明する。まずステップS301で、時刻情報およびフレーム画像データを入力する。次に、ステップS303において、特定対象データベース225を参照し、フレーム画像中に、特定対象の画像が含まれていれば、それを検出する。さらに、複数のフレーム画像を処理して、撮影者がフォロー撮影を行なったことをしめすフォロー領域を検出する。ステップS307では、全フレームについて処理が終了したか否か判定する。
ステップS309では、対象領域とフォロー領域の対応関係を判定する。つまり、対象領域とフォロー領域とが同一の対象を撮影した領域であるか否か判定する。言い換えれば、対象領域に含まれる特定対象とフォロー領域に含まれるフォロー対象とが対応するか否かをフレーム全体について判定する。
ステップS311では、特定対象データベース225にあらかじめ登録された各特定対象の重要度を出力する。
図4を用いて、上記構成および動作を有する情報処理システム200の用途および効果の具体例を簡単に説明する。まず、特定対象データベース225には、名前と顔画像とが紐付けられてあらかじめ登録されている。これは、撮影者が撮影対象としてあらかじめ登録しておく。例えば、二人の子供を持つ親の場合、長男のA君と次男のB君とをそれぞれの顔を撮影した静止画と共に登録することにより、特定対象データベース225が生成される。図4では名前と顔画像の関連を図示しているが、さらに顔画像から抽出した特徴量を名前に関連付けて記憶してもよい。
撮影動画420にフレーム421〜428が含まれているとする。フレーム421〜428の中で、背景の木が左から右上に動いているのに対し、真ん中の人物の一部の領域Xが静止していることから、フレーム421〜425を比較することで、真ん中の人物をフォロー撮影していることが分かる。つまりフォロー領域Xを検出できる。しかし、この時点では、顔部分が小さすぎて、特定対象か否かについて判別がつかない。
これに対し、フレーム426〜428では、人物の顔部分が大きく撮影されているため、特定対象データベース225を参照することにより、対象領域a、bを検出できる。検出された対象領域a、bは、それぞれA君およびB君を撮影したものと判断できる。
次に、フォロー領域Xと対象領域a、bとを比較して、それらの撮影対象の対応関係について判断する。具体的にはフレーム426、427において、フォロー領域Xと対象領域aとが重なり合っているため、これらの撮影対象は同一と判断できる。具体的には、フォロー対象がA君であることが分かる。
このため、特定対象データベース225に登録されたA君、B君、…のうち、A君の重要度が大きく判定される。結果として、ディスプレイ230の画面430に、動画における重要度に応じて、少なくとも1つの特定対象の画像を表示する。この例では、フォロー対象であって、A君を主役として取り上げる。
このように判定すれば、対象領域の登場数やフレーム数などで判断した場合(この場合、A君もB君も同数のため同じ重要度と判断されてしまう)に比べて、より正確に、動画中の登場物の重要度を判定することができる。
(対象領域検出部の詳細)
次に、対象領域検出部221について、詳細に説明する。対象領域検出部は、あらかじめ登録された特徴量を有する顔を含む領域として、対象領域を検出する。そして、対象領域を特定するデータとして、特定対象の位置、出現時刻および視覚的特徴量の少なくとも1つをフレーム画像から抽出する。
なお、登録データは、人物の識別番号と顔データとを組み合わせて表形式で保存してもよい。顔データとしては、目・鼻・口の形状や位置関係などを数値的に記述した特徴ベクトルや、各画素の濃淡値の2次元配列として表現される特徴ベクトルや、Gabor jetと呼ばれる特徴ベクトルなどが挙げられる。Gabor jetは、顔の各特徴点においてウェーブレット変換を施すことで得られるパターンの局所的な周期性とその方向性を表現したものである。顔の認識については、赤松茂、“コンピュータによる顔の認識―サーベイ―”、電子情報通信学会論文誌 Vol.J80−A No.8 pp.1215〜1230 1997.について詳しい記述がある。
対象領域は、フレーム内において、あらかじめ登録された特定対象を少なくとも一部含む領域である。特定対象は、ある画像的なパターンを持った対象であり、木や建物のような静止物体でもよく、あるいは、人間や動物のような動物体でもよい。また、特定対象は、「人間の顔」や「動物」のような大きなカテゴリーに属する対象であっても、人物Aの顔画像やペットAのように世の中に1つしかない対象であってもよい。
特定対象を登録した登録データは、特定対象を識別する特定対象IDと、特定対象の画像データもしくは特定対象の画像データから抽出された特徴量とを対応づけた表であればよい。対象領域は、対象領域ID・特定対象ID・出現時刻・位置・視覚的特徴量によって特定される。
対象領域IDは、対象領域を識別する番号である。特定対象IDは、対象領域が対応づけられた特定対象の特定対象IDである。出現時刻は、対象領域が検出されたフレームの時刻情報とする。位置は、フレーム上での対象領域の位置を表す座標情報であり、対象領域の外接矩形の座標であってもよいし、対象領域の重心座標であってもよい。視覚的特徴量は、例えば色・エッジ・テクスチャに基づく画像データから得られる特徴量である。対象領域の画像データから抽出してもよいし、対象領域を中心とした規定範囲内の画像データから抽出される特徴量であってもよい。また、対象領域を中心とした規定範囲の画像データから対象領域に近いほど重みを持たせて抽出した特徴量であってもよい。
まず画像データから顔領域を検出し、この顔領域から抽出される顔データ(またはその特徴量)とあらかじめ登録された顔データ(またはその特徴量)とを比較し、ある特定対象と規定値以上の類似度を持った顔領域を、特定対象と対応する対象領域とする。
顔の検出方法として、顔全体から得られる情報を利用する手法がある。例えば様々な顔の映っている画像をテンプレートとして記憶し、入力画像とテンプレートの差分がある閾値以下のとき顔が入力画像中に存在すると判定する手法が挙げられる。また、肌色などの色情報や、エッジの方向や密度を組み合わせたモデルをあらかじめ記憶しておき、入力フレームからモデルに類似した領域が検出された場合に顔が存在すると判定する手法が考えられる。また、顔(頭部)の輪郭を楕円、目や口を細長の形状をしていることを利用して作成したテンプレートを用いて顔検出を行う手法がある。これは、岩井儀雄、山口修、平山高嗣、“画像処理による顔検出と顔認識”、情報処理学会研究報告(CVIM−149)、2005年 pp.343〜368に開示がある。さらに頬や額の部分は輝度が高く、目や口の部分の輝度は低いという輝度分布の特性を利用した顔検出手法や、顔の対称性や肌色領域と位置を利用して顔検出を行う手法などを用いてもよい。また、大量の人物顔と非顔の学習サンプルから得られた特徴量分布を統計的に学習し、入力画像から得られる特徴量が顔と非顔のどちらの分布に属するかを判定する手法として、ニューラルネットやサポートベクターマシン、AdaBoost法などが挙げられる。顔の検出手法として、上記の例以外を適用しても構わない。
検出された顔と登録された顔の間の類似性は、例えば、顔の特徴ベクトルの差が小さいときに大きなスコアをもつ評価値によって表現できる。
(フォロー領域検出部の詳細)
フォロー領域検出部222は、撮影動画に含まれる複数フレーム画像に基づいて、フォロー領域を検出する。つまり、フォロー領域検出部222は、入力フレームの画像データから、動き特徴に基づいてフォロー領域を検出する。また、フォロー領域検出部222は、フォロー領域を特定するデータとして、フォロー対象の位置、出現時刻および視覚的特徴量の少なくとも1つをフレーム画像から抽出する。
フォロー領域の検出手法として、特開2007−19814号公報に記載のように、フォロー領域の動き特性を利用する手法がある。フォロー撮影では、フォロー対象の移動に合わせてカメラを動かす。そのため、フォロー対象のフレーム上での領域の見かけ上の動きは小さいが、フォロー対象の実際の動きは大きい。この点に着目し、フレーム上の領域のうち、固定時間後のフレームとの間で得られる見かけ上の動き(領域の移動ベクトル)が小さく、領域に対応する対象の実際の動き(領域の絶対ベクトル)が大きい領域を、フォロー領域として検出する。領域の絶対ベクトルは、領域の移動ベクトルにカメラの動きによる移動ベクトルを減算することで算出される。
また、特開2009−149374号公報に記載の技術は、カメラの実際の動き(カメラの絶対ベクトル)と領域に対応する対象の実際の動き(領域の絶対ベクトル)を利用する。領域の移動ベクトルをもとにカメラの絶対ベクトルを推定し、領域の移動ベクトルとカメラの絶対ベクトルから領域の絶対ベクトルを推定する。カメラの絶対ベクトルの遷移であるカメラの移動軌跡と、画像領域の絶対ベクトルの遷移である対象の移動軌跡とが類似する領域をフォロー領域として検出する。フォロー領域を判定する他の技術は、特開2011−9893号公報にも開示されている。
なお、領域は、類似する色やテクスチャをもつ単位領域の集合であっても、互いに類似した移動ベクトルをもつ単位領域の集合であってもかまわない。また、領域の移動ベクトルは、領域に属する複数の特徴点、もしくは領域を構成する局所領域の移動ベクトルの平均であってもよい。また、カメラの動きによる移動ベクトルは、フレーム上の全特徴点や全領域の移動ベクトルの平均としてもよいし、フレーム上の全特徴点や全領域の移動ベクトルの最頻値としてもよい。カメラの絶対ベクトルは、カメラの動きによる移動ベクトルの逆ベクトルとしてもよいし、カメラに搭載されたセンサから得たカメラの移動量としてもよい。また、特徴点の移動ベクトルは、例えば固定時間間隔で連続する2フレームの間に共通して存在するコーナー点を対応付け、対となるコーナー点のうち前フレーム上の座標から後フレーム上の座標を結ぶベクトルで表現できる。領域の移動量は、例えば連続する2フレームの間に共通して存在する均等色領域を対応付け、対となる均等色領域のうち前フレーム上の重心座標から後フレーム上の重心座標を結ぶベクトルで表現できる。フォロー領域の関連情報とは、フォロー領域ID・特定対象ID・出現時刻・位置・視覚的特徴量とする。フォロー領域IDは、フォロー領域を識別する番号である。特定対象IDは、対応関係判定部223によってフォロー領域と対応づけられる特定対象の特定対象IDであり、フォロー領域検出部222から対応関係判定部223に入力される際には、初期値が設定されているものとする。出現時刻は、フォロー領域が検出されたフレームの時刻情報とする。位置は、フレーム上でのフォロー領域の位置を表す座標情報であり、フォロー領域の外接矩形の座標であってもよいし、フォロー領域の重心座標であってもよい。
視覚的特徴量は、例えば色・エッジ・テクスチャに基づく画像データから得られる特徴量である。フォロー領域の画像データから抽出してもよいし、フォロー領域を中心とした規定範囲内の画像データから抽出される特徴量であっても、フォロー領域を中心とした規定範囲の画像データからフォロー領域に近いほど重みを持たせて抽出した特徴量であってもよい。
対象領域は画像情報に基づいて検出されるものであり、フォロー領域は動き情報に基づいて検出されるものであるため、対象領域とフォロー領域とは必ずしも同時には検出されない。対象領域については、特定対象の登録データと入力信号中の特定対象の画像データの間に類似性が小さい場合に、検出漏れが起こる場合がある。例えば、特定対象の登録情報が正面向きのとき、入力信号中で特定対象が横向きになると検出できない。また、入力信号中で特定対象の一部が他の物体によって隠された場合や、照明条件が登録情報と異なる場合に、特定対象と判定できない場合がある。フォロー領域については、対象の動き情報もしくはカメラの動き情報を正しく検出できない場合に、検出漏れする場合がある。例えば、空や雪のように特徴点の少ない背景の場合、固定間隔で連続する2フレーム間で特徴点もしくは領域の対応関係を正しく判定できず、カメラの動き情報が不正確になる。また、特定対象の動きに追従できず、カメラの動き情報と特定対象の動き情報とが異なる場合には、特定対象をフォロー領域として検出できない。
(対応関係判定部の詳細)
対象領域とフォロー領域がともに検出される場合であっても、同じ位置から検出されるとは限らない。例えば、特徴点の少ない特定対象については、特定対象の内部は対象領域として検出されるが、特定対象の輪郭がフォロー領域として検出される場合がある。そのように、同時かつ同一位置で検出されるとは限らない対象領域とフォロー領域の対象の対応関係を判定するため、対応関係判定部223は、対象領域とフォロー領域との空間的距離、時間的距離および視覚的類似性の少なくともいずれか一つを用いる。
例えば、同じフレームから検出されたフォロー領域と対象領域の間で、空間的な距離が近い領域を対応する特定対象のフレーム上での領域と判定する。空間的な距離が近いとは、重なった領域の面積が大きいこと、あるいは、領域の重心間の距離が近いこと、あるいは、領域間の最も近い特徴点間の距離が近いこと、あるいは、領域間の最も遠い特徴点間の距離が近いことを指す。
図5Aに、対象領域およびフォロー領域の位置情報を外接矩形で表現した場合に、空間的距離で対応関係判定を行う方法の一例を示す。時刻t1のフレームから対象領域511,512とフォロー領域501,502,503が検出されたとする。このとき、フォロー領域501は対象領域511と、フォロー領域502は対象領域512と重なりがあることから、フォロー領域501は対象領域511と同一、フォロー領域502は対象領域512と同一とする。一方、フォロー領域503は、いずれの対象領域ともの重なりがないことから、同一の対象領域はないと判定する。
これにより、対象領域とフォロー領域とがまったく同じ位置から検出されない場合であっても、領域間に重なりがある、もしくは、領域間距離が近い場合には特定対象とフォロー対象との対応関係を判断できる。
(重要度算出部の詳細)
重要度算出部224は、フォロー対象に対応すると判定された特定対象の重要度の値が、フォロー対象のいずれとも対応しない特定対象の重要度の値よりも大きくなるように、重要度を算出する。
重要度算出部224は、対応関係判定部223が対象領域に対応すると判定したフォロー領域の個数、位置、出現時刻および視覚的特徴量の少なくともいずれか1つに基づいて、対象領域に対応する特定対象の重要度を算出してもよい。
例えば、特定対象Aの重要度SAを、特定対象Aと対応づけられたフォロー領域の個数をもとに、式(1)によって算出することができる。
SA={(特定対象Aに対応付けられたフォロー領域数)/(全特定対象に対応付けられたフォロー領域数)}×100・・・(1)
図5Bに示す入力映像について説明する。この入力映像では、対象領域521〜524と特定対象A、Bとが、図6に示す表のように対応付けられているとする。また、フォロー領域501〜507と、対象領域521〜524とが、図7に示す表のように対応付けられているとする。このとき、フォロー領域501〜507と特定対象A、Bとの対応を図8のように纏めることができる。これによると、特定対象Aと対応づけられたフォロー領域は5個、特定対象Bと対応づけられたフォロー領域は1個のため、特定対象Aの重要度は83%(=100*5/6)、特定対象Bの重要度は17%(=100*1/6)となる。これにより、長くフォローされた特定対象に対して高い重要度を付与できる。
以上説明したように、本実施の形態では、長時間出現する特定対象であってもフォロー撮影されていない特定対象については重要度を算出しないため、撮影者が興味を持って撮影していない特定対象に対しては、低い重要度が付与される。また、本実施の形態では、特定対象でない被写体に対しては重要度を算出しないため、特定対象でない対象がたまたまカメラと似た動きをした場合に、その対象に対して重要度が付与されない。また、本実施の形態では、対象領域とフォロー領域とが対応していることを、対象領域とフォロー領域の関係性をもとに判定するため、特定対象が断続的に検出される場合であっても、特定対象の重要度を判定できる。また、本実施の形態では、各特定対象の識別IDと重要度が表示されるため、ユーザは所望の特定対象の重要度が高い映像を視聴するなど、重要度に応じて視聴映像を選択することができる。
[第3実施形態]
上記第2実施形態では、特定対象とフォロー対象との対応関係を、それらを含む対象領域とフォロー領域の空間的な距離で判定したが、本発明はそれに限定されるものではない。第2実施形態に記載の判定方法に代えて、または組み合わせて、以下の判定方法のいずれか少なくとも1つを用いてもよい。
〔時空間的距離に基づく対応判定方法〕
あるフレームから検出されたフォロー領域と、フォロー領域が検出されたフレームから時間的な距離が規定値以内であり、かつ、空間的な距離が近い領域を同一の対象のフレーム上の領域と判定する。
例えば、図9に、対象領域およびフォロー領域の位置情報を外接矩形で表現した場合に、時空間的距離をもとに対応関係判定を行う方法の一例を示す。フォロー領域901が時刻t2に検出され、規定時間以内の時刻t2+Δtのフレームから対象領域911が検出されたとする。このとき、対象領域911と時刻t1でのフォロー領域901の位置が重なりを持つことから、フォロー領域901は対象領域911と同一と判定する。
これにより、対象領域とフォロー領域が同じ時刻に検出されない場合であっても、対応関係を判別できる。
〔視覚的特徴量の類似性に基づく対応判定方法〕
あるフレームから検出されたフォロー領域と、フォロー領域が検出されたフレームから規定時間以内のフレームから検出された対象領域との視覚的特徴量の類似性をもとに対応関係を判定する。例えば、図10に、対象領域およびフォロー領域の位置情報を外接矩形で表現した場合に、視覚的特徴量の類似性をもとに対応関係判定を行う方法の一例を示す。フォロー領域1001が時刻t3に検出され、規定時間以内の時刻t3+Δtのフレームから対象領域1011と対象領域1012とが検出されたとする。このとき、フォロー領域1001および対象領域1011の視覚的特徴量が類似する場合には、フォロー領域1001と対象領域1011とを同一対象に関する領域と判定する。これにより、対象領域とフォロー領域が同じ時刻に検出されない場合であっても、視覚的特徴量が類似する場合には、同一の対象と判定できる。また、空間距離もしくは時空間距離の近い対象領域とフォロー領域について、視覚的特徴量の類似性が低いときには、同一の対象とみなさないことで、対象が重なった際の誤判定を抑制できる。
〔領域間対応関係に基づく対応判定方法〕
フォロー領域と対象領域の対応関係を、フォロー領域間の対応関係をもとに判定してもよい。なおフォロー領域間の対応関係判定についても、空間的距離や時空間的距離や視覚的特徴量の類似性をもとに判定できる。
例えば、図11に、対象領域およびフォロー領域の位置情報を外接矩形で表現した場合に、フォロー領域間の対応関係をもとに、対応関係判定を行う方法の一例を示す。フォロー領域1101〜1105が時刻t4、t4+Δt、t4+2Δtで検出されたとする。また、対象領域1111が時刻t4+2Δtで検出されたとする。このとき、フォロー領域1101とフォロー領域1102とフォロー領域1104とは、時空間的距離をもとに同一と判定される。フォロー領域1103とフォロー領域1105、時空間的距離をもとに同一と判定される。また、フォロー領域1104とフォロー領域1105は視覚的特徴量の類似性から同一と判定される。さらに、フォロー領域1104が示すフォロー対象と、対象領域1111が示す特定対象とが対応することを、それらの領域の空間的距離から判定できる。
よって、フォロー領域1103と対象領域1111とは、対象が対応すると判定できる。これにより、フォロー領域1103と対象領域1111の時空間的距離が離れている場合、または、視覚的特徴量が類似しない場合であっても、それらの対象を同一と判定できる。フォロー領域が、すべての対象領域との間で同一と判定されない場合には、フォロー領域は特定対象のフレーム上の領域でないと判定してもよい。あるいは、すべての各フォロー領域について、空間的距離が最小もしくは時空間的距離が最小もしくは視覚的類似性が最高である対象領域と同一と判定してもよい。
[第4実施形態]
上記第2実施形態では、各特定対象の重要度を、それらを含む対象領域に対応するフォロー領域の数から算出したが、本発明はそれに限定されるものではない。第2実施形態に記載の重要度算出方法に代えて、またはそれに組み合わせて、以下の重要度算出方法のいずれか少なくとも1つを用いてもよい。
〔フォロー領域を含むフレーム数に基づく重要度算出方法〕
特定対象Aの重要度SAを、特定対象Aと対応づけられたフォロー領域が検出されたフレーム数をもとに、式(2)によって算出する。
SA={(特定対象Aに対応付けられたフォロー領域を含むフレーム数)/(全特定対象に対応付けられたフォロー領域を含むフレーム数)}×100・・・(2)
例えば、図5Bに示す入力映像については、特定対象Aと対応づけられたフォロー領域を含むフレーム数は3枚、特定対象Bと対応づけられたフォロー領域を含むフレーム数は1枚である。このため、特定対象Aの重要度は75%(=100*3/4)、特定対象Bの重要度は25%(=100*1/4)となる。これにより、同じ特定対象に対して同時に複数のフォロー領域が検出される場合であっても、過剰に高い重要度を付与しない効果がある。
〔対象領域およびフォロー領域を含むフレーム数に基づく重要度算出方法〕
重要度算出部224は、対象領域に対応すると判定されたフォロー領域が複数フレーム画像に含まれる場合に、そのフレーム画像数に基づいて、対象領域に対応する特定対象の重要度を算出する。
特定対象Aの重要度SAを、特定対象Aと対応づけられた対象領域とフォロー領域との両方が検出されたフレーム数をもとに、式(3)によって算出する。
SA={(特定対象Aのフォロー領域と特定対象Aの対象領域との両方を含むフレーム数)/(対象領域に含まれる特定対象に対応付けられたフォロー領域および対象領域の両方を含むフレーム数)}×100・・・(3)
例えば、図5Bに示す入力映像については、特定対象Aと対応づけられたフォロー領域と対象領域の同時検出数は時刻t2とt3の2フレーム、特定対象Bと対応づけられたフォロー領域と対象領域の同時検出数は時刻t4の1フレームである。このため、特定対象Aの重要度は67%(=100*2/3)、特定対象Bの重要度は33%(=100*1/3)となる。これにより、登録データに近い状態でフォロー撮影された特定対象に対して高い重要度を算出できる。
〔フォロー領域の面積に基づく重要度算出方法〕
重要度算出部224は、対象領域に対応すると判定されたフォロー領域の面積に基づいて、対象領域に対応する特定対象の重要度を算出する。
例えば、特定対象Aの重要度SAを、特定対象Aと対応づけられたフォロー領域の面積をもとに、式(4)によって算出する。
SA={(特定対象Aに対応付けられたフォロー領域の総面積)/(いずれかの特定対象に対応付けられたフォロー領域の総面積)}×100・・・(4)
図5Bに示す入力映像については、フォロー領域iの面積をRiとした場合に、特定対象Aの重要度は100*(R501+R502+R503+R504+R505)/(R501+R502+R503+R504+R505+R507)、特定対象Bの重要度は100* R507/(R501+R502+R503+R504+R505+R507)となる。これにより、より広い領域をフォロー撮影されている特定対象に対して高い重要度を算出できる。
〔フォロー領域とフレーム中央との距離に基づく重要度算出方法〕
重要度算出部224は、対象領域に対応すると判定されたフォロー領域の位置に基づいて、対象領域に対応する特定対象の重要度を算出してもよい。例えば、重要度算出部224は、フォロー領域の重心座標とフレーム画像の中心座標との距離をもとに、対象領域に対応する特定対象の重要度を算出してもよい。
特定対象Aの重要度SAを、特定対象Aと対応づけられたフォロー領域の重心座標とフレームの中心との距離である中心をもとに、式(5)によって算出する。
SA={(特定対象Aに対応付けられたフォロー領域のフレーム中心からの距離)/(いずれかの特定対象に対応付けられたフォロー領域のフレーム中心からの距離の総計)}×100・・・(5)
例えば、図5Bに示す入力映像については、フォロー領域iの中心間距離をLiとした場合、特定対象Aの重要度は100*(L501+L502+L503+L504+L505)/(L501+L502+L503+L504+L505+L507)、特定対象Bの重要度は100*L507/(L501+L502+L503+L504+L505+L507)となる。これにより、画面の中央付近でフォロー撮影されている特定対象に対して高い重要度を算出できる。
〔フォロー領域の移動軌跡の安定性に基づく重要度算出方法〕
重要度算出部224は、対象領域に対応すると判定されたフォロー領域が、複数の連続したフレーム画像に含まれる場合に、その複数のフレーム画像間におけるフォロー領域の位置の変化に基づいて、対象領域に対応する特定対象の重要度を算出する。
特定対象Aの重要度SAを、特定対象Aと対応づけられたフォロー領域に対するフォロー撮影の安定性を示す安定性スコアに基づいて、式(6)のように算出する。
SA={(特定対象Aに対応付けられたフォロー領域の安定性スコア)/(いずれかの特定対象に対応付けられたフォロー領域の総安定性スコア)}×100・・・(6)
安定性スコアは、例えば重心座標の移動軌跡から算出してもよい。特定対象の重心座標は、その特定対象に対応づけられたフォロー領域を含む各フレームについて1つ求められる。あるフレーム内のフォロー領域が1つの場合、そのフォロー領域の重心を用いる。フレーム内のフォロー領域が複数個の場合、例えば、各フォロー領域の重心を結ぶ線分の中点を用いてもよいし、フォロー領域の面積に応じた重みをもとに配分して検出される線分上の点を用いてもよい。各時刻の間の重心座標の移動量を算出し、移動量が規定値以下の区間安定と判定して、安定性スコアを1加算する。
図12に示す入力映像については、特定対象Aの重心座標の移動軌跡は図13のように表される。移動量の規定値がW/4の場合、特定対象Aの重心座標の移動軌跡は、時刻t1とt2の間では安定、時刻t2とt3の間では不安定のため、安定性スコアは1となる。また、特定対象Bについては、フォロー領域が1度しか検出されていないため、安定性スコアは0となる。これにより、画面上での位置変動が小さい特定対象に対して高い重要度を算出できる。
〔フォロー領域の視認性スコアに基づく重要度算出方法〕
重要度算出部224は、対象領域に対応すると判定されたフォロー領域の視認性に基づいて、対象領域に対応する特定対象の重要度を算出する。フォロー領域の視認性は、フォロー領域に含まれる画像のボケまたはモーションブラーに基づく評価値である。
特定対象Aの重要度SAを、特定対象Aに対応づけられたフォロー領域の視認性の良さを表すスコアに基づいて、式(7)のように算出する。
SA={(特定対象Aに対応付けられたフォロー領域のフレーム中心からの距離)/(いずれかの特定対象に対応付けられたフォロー領域のフレーム中心からの距離の総計)}×100・・・(7)
視認性スコアは、例えば、フォロー領域内から検出されるエッジ成分に基づいて算出されるボケやモーションブラーが多く含まれるものほど低い値をとる指標を用いてもよいし、その他の指標を用いてもよい。これにより、ボケやモーションブラーが少ない鮮明な画像状態で撮影された特定対象に対して高い重要度を算出できる。
さらに、重要度算出部224は、対象領域の視認性に基づいて、対象領域に対応する特定対象の重要度を算出してもよい。ここで、対象領域の視認性とは、対象領域に含まれる特定対象の画像の正面性、輝度、および欠損率の少なくともいずれか1つに基づく評価値である。
〔フォロー領域と対象領域との重なり面積に基づく重要度算出方法〕
重要度算出部224は、対象領域に対応すると判定されたフォロー領域と対象領域との重複領域の面積に基づいて、特定対象の重要度を算出する。
特定対象Aの重要度SAを、特定対象Aに対応づけられたフォロー領域と対象領域とが重なる領域の面積に基づいて、式(8)のように算出する。
SA={(特定対象Aに対応付けられた対象領域とフォロー領域とが重なる面積)/(いずれかの特定対象に対応付けられた対象領域とフォロー領域とが重なる面積の総計)}×100・・・(8)
これにより、より広い面積がフォロー撮影された特定対象に対して高い重要度を算出できる。
〔対象領域の関連情報との組み合わせに基づく重要度算出方法〕
さらに、上述の数式(1)〜(8)で表わされた重要度算出方法の少なくともいずれか1つに以下の方法を組合せて、特定対象Aの重要度SAを、求めてもよい。
・特定対象Aに対応づけられた対象領域の個数、
・特定対象Aに対応づけられた対象領域が検出されたフレーム数
・特定対象Aに対応づけられた対象領域の面積
・特定対象Aに対応づけられた対象領域のフレーム中心からの距離
・特定対象Aに対応づけられた対象領域の重心座標の安定性
・特定対象Aに対応づけられた対象領域の視認性スコア
なお、対象領域の視認性スコアは、対象領域とデータベースに登録された特定対象との類似性が高いほど、高い値をとる指標を用いてもよいし、対象領域の正面性や、輝度、欠損率に基づく指標を用いてもよい。これにより、フォロー撮影された特定対象について、撮影時間の長さ、フレーム上での面積、撮影の安定性、視認性に基づいて重要度を算出できる。
歩いて通り過ぎる特定対象を、横からフォロー撮影した場合の映像の一例を図14に示す。まず、ビデオデバイス210は、対象領域検出部221とフォロー領域検出部222に、フレーム情報を入力する。対象領域検出部221は、入力されたフレームの画像データから、あらかじめ登録された各特定人物の領域を対象領域として検出する。
図14に示す入力映像については、t+3Δtまで処理した時点で、特定対象Aとして対象領域1411が、特定対象Bとして対象領域1412から1414が検出される。時刻t+Δt以降は、人物Aは横向きで撮影されるため、特定対象Aに対応する対象領域は検出されない。また、時刻t+2Δtでは、人物Bの領域は人物Aによって隠されるために、特定対象Bに対応する対象領域は検出されない。
図14の入力映像については、t+3Δtまで処理した時点で、カメラの動き特徴と類似した動き特徴をもつフォロー領域1421〜1424が検出される。対応関係判定部223は、対象領域検出部221から入力される対象領域1411、1412の関連情報と、フォロー領域検出部222から入力されるフォロー領域1421〜1424の関連情報とをもとに、対象領域とフォロー領域とが同一の特定対象の領域であるか否かを判定する。ここでは、対象領域1411とフォロー領域1421との空間的位置関係から、それらが同じ対象について撮像された領域だと判断できる。一方、フォロー領域1422〜1424も、同じフォロー対象についての領域だと判断できる。これにより、特定対象Aについてのフレーム数は4つとなり、特定対象Bについてのフレーム数は3つとなる。すなわちこの4つのフレームから判断する限り、特定対象Aの重要度が大きくなる。
[第5実施形態]
上記第2実施形態では、ディスプレイ230の画面430に、動画における重要度に応じて、少なくとも1つの特定対象の画像を表示する方法について説明したが、本発明はそれに限定されるものではない。例えば、以下の表示方法が考えられる。
・重要度の高い対象を、重要度順に表形式でディスプレイに表示する方法
・重要度の高い対象を含むフレームを選択してディスプレイに上に並べて表示する方法
・重要度の高い対象を含むフレームを選択してスライドショーで提示する方法
・重要度の高い対象にあらかじめ対応づけられたメールアドレス宛てに、重要度の高い対象を含むフレームを送信する方法
・重要度の高い対象の情報をもとに、他の映像から重要度の高い対象の登場する映像区間を検出し、検出した区間を組み合わせて要約を生成する方法
・重要度の高い対象の情報をもとに、他の映像から重要度の高い対象の登場する映像区間を重要度の高さに応じた時間長で検出し、検出した区間を組み合わせて要約を生成する方法
・重要度の高さを撮影カメラの画面に表示する方法
[他の実施形態]
以上、本発明の実施形態について詳述したが、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。

Claims (20)

  1. 撮影動画に含まれる少なくとも1つのフレーム画像内において、あらかじめ登録された特定対象を含む領域としての対象領域を検出する対象領域検出手段と、
    前記撮影動画に含まれる少なくとも1つのフレーム画像内において、前記撮影動画の撮影者がフォロー撮影によって追ったと推定されるフォロー対象を含む領域としてのフォロー領域を検出するフォロー領域検出手段と、
    前記対象領域検出手段が検出した前記対象領域と、前記フォロー領域検出手段が検出した前記フォロー領域とを比較することにより、前記特定対象と前記フォロー対象とが対応するか否かを判定する判定手段と、
    前記判定手段による判定結果に基づいて前記撮影動画に含まれる前記特定対象の重要度を算出する重要度算出手段と、
    を含むことを特徴とする情報処理装置。
  2. 前記重要度算出手段は、前記フォロー対象に対応すると判定された前記特定対象の重要度の値が、前記フォロー対象のいずれとも対応しない特定対象の重要度の値よりも大きくなるように、前記重要度を算出することを特徴とする請求項1に記載の情報処理装置。
  3. 前記対象領域検出手段は、前記対象領域を特定するデータとして、前記特定対象の位置、出現時刻および視覚的特徴量の少なくとも1つを前記フレーム画像から抽出することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記対象領域検出手段は、あらかじめ登録された特徴量を有する顔を含む領域として、前記対象領域を検出することを特徴とする請求項1、2または3に記載の情報処理装置。
  5. 前記フォロー領域検出手段は、前記撮影動画に含まれる複数フレーム画像に基づいて、前記フォロー領域を検出することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記フォロー領域検出手段は、前記フォロー領域を特定するデータとして、前記フォロー対象の位置、出現時刻および視覚的特徴量の少なくとも1つを前記フレーム画像から抽出することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記判定手段は、前記対象領域とフォロー領域との空間的距離、時間的距離および視覚的類似性の少なくともいずれか一つを用いて、前記特定対象と前記フォロー対象とが対応するか否かを判定することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 前記重要度算出手段は、
    前記判定手段が前記対象領域に対応すると判定した前記フォロー領域の個数、位置、出現時刻および視覚的特徴量の少なくともいずれか1つに基づいて、前記対象領域に対応する特定対象の重要度を算出することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 前記重要度算出手段は、
    前記対象領域の視認性に基づいて、前記対象領域に対応する特定対象の重要度を算出することを特徴とする請求項8に記載の情報処理装置。
  10. 前記重要度算出手段は、
    前記対象領域に対応すると判定された前記フォロー領域が複数フレーム画像に含まれる場合に、そのフレーム画像数に基づいて、前記対象領域に対応する特定対象の重要度を算出することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
  11. 前記重要度算出手段は、
    前記対象領域に対応すると判定された前記フォロー領域の面積に基づいて、前記対象領域に対応する特定対象の重要度を算出することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
  12. 前記重要度算出手段は、
    前記対象領域に対応すると判定された前記フォロー領域の位置に基づいて、前記対象領域に対応する特定対象の重要度を算出することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
  13. 前記重要度算出手段は、
    前記フォロー領域の重心座標と前記フレーム画像の中心座標との距離をもとに、前記対象領域に対応する特定対象の重要度を算出することを特徴とする請求項12に記載の情報処理装置。
  14. 前記重要度算出手段は、
    前記対象領域に対応すると判定された前記フォロー領域が、複数の連続したフレーム画像に含まれる場合に、その複数のフレーム画像間における前記フォロー領域の位置の変化に基づいて、前記対象領域に対応する特定対象の重要度を算出することを特徴とする請求項1乃至13のいずれか1項に記載の情報処理装置。
  15. 前記重要度算出手段は、
    前記対象領域に対応すると判定された前記フォロー領域の視認性に基づいて、前記対象領域に対応する特定対象の重要度を算出することを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。
  16. 前記フォロー領域の視認性は、前記フォロー領域に含まれる画像のボケまたはモーションブラーに基づく評価値であることを特徴とする請求項15に記載の情報処理装置。
  17. 前記重要度算出手段は、
    前記対象領域に対応すると判定された前記フォロー領域と、前記対象領域との重複領域の面積に基づいて、前記特定対象の重要度を算出することを特徴とする請求項1乃至16のいずれか1項に記載の情報処理装置。
  18. 前記対象領域の視認性は、前記対象領域に含まれる前記特定対象の画像の正面性、輝度、および欠損率の少なくともいずれか1つに基づく評価値であることを特徴とする請求項17に記載の情報処理装置。
  19. 撮影動画に含まれる少なくとも1つのフレーム画像内において、あらかじめ登録された特定対象を含む領域としての対象領域を検出する対象領域検出ステップと、
    前記撮影動画に含まれる少なくとも1つのフレーム画像内において、前記撮影動画の撮影者がフォロー撮影によって追ったと推定されるフォロー対象を含む領域としてのフォロー領域を検出するフォロー領域検出ステップと、
    前記対象領域検出ステップで検出した前記対象領域と、前記フォロー領域検出ステップで検出した前記フォロー領域とを比較することにより、前記特定対象と前記フォロー対象とが対応するか否かを判定する判定ステップと、
    前記判定ステップによる判定結果に基づいて前記撮影動画に含まれる前記特定対象の重要度を算出する重要度算出ステップと、
    を含むことを特徴とする情報処理方法。
  20. 撮影動画に含まれる少なくとも1つのフレーム画像内において、あらかじめ登録された特定対象を含む領域としての対象領域を検出する対象領域検出ステップと、
    前記撮影動画に含まれる少なくとも1つのフレーム画像内において、前記撮影動画の撮影者がフォロー撮影によって追ったと推定されるフォロー対象を含む領域としてのフォロー領域を検出するフォロー領域検出ステップと、
    前記対象領域検出ステップで検出した前記対象領域と、前記フォロー領域検出ステップで検出した前記フォロー領域とを比較することにより、前記特定対象と前記フォロー対象とが対応するか否かを判定する判定ステップと、
    前記判定ステップによる判定結果に基づいて前記撮影動画に含まれる前記特定対象の重要度を算出する重要度算出ステップと、
    をコンピュータに実行させることを特徴とする情報処理プログラム。
JP2011107102A 2011-05-12 2011-05-12 情報処理装置、情報処理方法および情報処理プログラム Withdrawn JP2014170978A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011107102A JP2014170978A (ja) 2011-05-12 2011-05-12 情報処理装置、情報処理方法および情報処理プログラム
PCT/JP2012/062570 WO2012153868A1 (ja) 2011-05-12 2012-05-10 情報処理装置、情報処理方法および情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011107102A JP2014170978A (ja) 2011-05-12 2011-05-12 情報処理装置、情報処理方法および情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2014170978A true JP2014170978A (ja) 2014-09-18

Family

ID=47139339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011107102A Withdrawn JP2014170978A (ja) 2011-05-12 2011-05-12 情報処理装置、情報処理方法および情報処理プログラム

Country Status (2)

Country Link
JP (1) JP2014170978A (ja)
WO (1) WO2012153868A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068434A (ja) * 2015-09-29 2017-04-06 富士フイルム株式会社 被写体評価システム,被写体評価方法,被写体評価プログラムおよびそのプログラムを格納した記録媒体
JP2017208592A (ja) * 2016-05-16 2017-11-24 株式会社リコー 情報処理装置、方法、プログラムおよび記録媒体

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105303182B (zh) * 2015-07-30 2018-07-03 三峡大学 一种长时间鱼类跟踪方法
CN111028272B (zh) * 2019-12-11 2023-06-20 北京百度网讯科技有限公司 对象追踪方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007158A (ja) * 2002-05-31 2004-01-08 Fuji Photo Film Co Ltd 撮像装置および主要被写体判定装置ならびに画像処理装置
JP4244593B2 (ja) * 2002-08-13 2009-03-25 ソニー株式会社 オブジェクト抽出装置、オブジェクト抽出方法および画像表示装置
JP4264663B2 (ja) * 2006-11-21 2009-05-20 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
JP5106271B2 (ja) * 2008-06-27 2012-12-26 キヤノン株式会社 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2011028689A (ja) * 2009-07-29 2011-02-10 Sony Corp 動画抽出装置、プログラム、および動画抽出方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068434A (ja) * 2015-09-29 2017-04-06 富士フイルム株式会社 被写体評価システム,被写体評価方法,被写体評価プログラムおよびそのプログラムを格納した記録媒体
JP2017208592A (ja) * 2016-05-16 2017-11-24 株式会社リコー 情報処理装置、方法、プログラムおよび記録媒体

Also Published As

Publication number Publication date
WO2012153868A1 (ja) 2012-11-15

Similar Documents

Publication Publication Date Title
US10684681B2 (en) Neural network image processing apparatus
Biswas et al. Gesture recognition using microsoft kinect®
US8724845B2 (en) Content determination program and content determination device
JP4876687B2 (ja) 注目度計測装置及び注目度計測システム
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
WO2020167581A1 (en) Method and apparatus for processing video stream
Wang et al. Blink detection using Adaboost and contour circle for fatigue recognition
CN106682578B (zh) 基于眨眼检测的弱光人脸识别方法
US20220383653A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program
US20090097711A1 (en) Detecting apparatus of human component and method thereof
MX2013002904A (es) Aparato de proceso de imagenes de personas y metodo para procesar imagenes de personas.
JP6207210B2 (ja) 情報処理装置およびその方法
US20180357819A1 (en) Method for generating a set of annotated images
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
US20110091074A1 (en) Moving object detection method and moving object detection apparatus
US20210319229A1 (en) System and method for determining object distance and/or count in a video stream
KR20220007882A (ko) 단안 스틸 카메라 비디오에서의 레이어드 모션 표현 및 추출
JP6221292B2 (ja) 集中度判定プログラム、集中度判定装置、および集中度判定方法
JP2014170978A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2014170979A (ja) 情報処理装置、情報処理方法および情報処理プログラム
US20230091536A1 (en) Camera Placement Guidance
CN110826495A (zh) 基于面部朝向的身体左右肢体一致性跟踪判别方法及系统
JP6893812B2 (ja) 物体検出装置
JP2019066909A (ja) 物体分布推定装置
JP2022019339A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141007