JP4640001B2 - 映像処理方法及び装置及びプログラム及びプログラムを格納した記憶媒体 - Google Patents

映像処理方法及び装置及びプログラム及びプログラムを格納した記憶媒体 Download PDF

Info

Publication number
JP4640001B2
JP4640001B2 JP2005198754A JP2005198754A JP4640001B2 JP 4640001 B2 JP4640001 B2 JP 4640001B2 JP 2005198754 A JP2005198754 A JP 2005198754A JP 2005198754 A JP2005198754 A JP 2005198754A JP 4640001 B2 JP4640001 B2 JP 4640001B2
Authority
JP
Japan
Prior art keywords
video
classification
frame
camera work
unit area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005198754A
Other languages
English (en)
Other versions
JP2007019814A (ja
Inventor
陽介 鳥井
精一 紺谷
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005198754A priority Critical patent/JP4640001B2/ja
Publication of JP2007019814A publication Critical patent/JP2007019814A/ja
Application granted granted Critical
Publication of JP4640001B2 publication Critical patent/JP4640001B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Description

本発明は、映像処理方法及び装置及びプログラム及びプログラムを格納した記憶媒体に係り、特に、映像構造化技術において映像区間を分類するための映像処理方法及び装置及びプログラム及びプログラムを格納した記憶媒体に関する。
カメラワークを用いて重要なシーンを判定する手法が従来から研究されている。被写体を追尾しているような場面が重要であるとして検出する技術が提案されている(例えば、特許文献1参照)。
その方法として、上記の特許文献1では、被写体を追尾するためにカメラを動かしたシーンと、別の被写体に視線を移すためにカメラを動かしたシーンと判別するために、カメラワーク推定した後に、そのカメラワークを用いて画像を位置合わせし、フレーム間差分をとり、その画像の低相関な画素の集中度を用いて被写体を検出し、低相関画素の分散値、最大連結領域を動物体とみなしてその特徴を利用している。なお、当該特許文献1における「シーン」という単語は、例えば、パンニングのカメラワーク動作が継続している映像時間範囲のようなカメラワークの動作が連続して行われている映像区間を指している(以下、当該技術を第1の従来技術と記す)。以下、本明細書では、このようなある1分類に当てはまる一連の映像時間範囲を「映像区間」あるいは単に「区間」と表現する。映像区間は、映像時刻の始点と終点により定義される。
また、シーンの代表画像の選択方法として、画面の中央部と周辺部で検出できる動き量に着目し、その動きの大小を用いてカメラ移動シーン(中央部に追従して撮影している被写体があり。即ち中央部の動きは小さく周辺部の動きは大きい)と物体移動シーン(カメラワークなし、動物体ありの場合。全体の動きが大きい)、静止画シーン(画面全体が止まっている)の3つの分類を行い、この3分類に従って代表画像の選択方法を変更している(例えば、特許文献2参照)(以下、当該技術を第2の従来技術と記す)。なお、当該文献では、「シーン」という単語を、カメラの切り換えや編集による動画像の不連続(以下ではカット、あるいは単にカット点と記す)を含まない映像単位と定義している。本明細書では、以下では、その単位を「ショット」と表現する。「ショット」はカット点に挟まれた映像区間であり、定義付けは映像区間と同様に映像時刻の始点と終点である。
また、カメラワークの可視化手法としてパノラマ表示を用いて、その動きの大きさ、向きをベクトルで表示するなどして行っている。また、その動きをパン・チルト・ズームなどに分類し、可視化方法を変更する。また、動く被写体(動物体)に追従(フォロー)する時の可視化方法について、パノラマ化して被写体を展開する方法がある(例えば、特許文献3参照)(以下、当該技術を第3の従来技術と記す)。
特開平8−191411号公報「シーン判別方法および代表画像記録・表示装置」 特開平9−233422号公報「動画像処理システムにおける動画像情報検出装置」 特許3325823号公報「映像静止画表示方法及び装置並びに映像静止画表示プログラム格納記憶媒体」
上記の第1の従来技術により追尾していると判定される区間は動物体が存在する区間にはなるが、必ずしもその物体を追尾している区間とはならない問題がある。
即ち、
(1)被写体を追尾している場合であっても、カメラワークの位置合わせ後の残差が安定した位置に存在しない場合もあるし、
(2)逆に追尾でない区間でも一定位置に残差が生じる可能性はある。
(1)の問題は、例えば、個人が撮影する映像では個人の撮影技術は高いとは言えず、走っている人を追尾して撮影する際に画面内で被写体の位置が大きく揺れることは普通に起こりうる。さらに、画素の最大の連結領域を利用した場合だと、画素の連結は不安定であり、見え方が変化した場合などに連結が出ることが多々ある。その場合、重心位置は容易に大きく移動し、追尾している場面を検出できない場合がある。
また、(2)の問題は、例えば、カメラを動かしながら大勢の動いている人を撮っている場合には、常に中央部分に残差が生じることになり、追尾していないにも関わらず上記の方法では、追尾区間と判定されることになる。また、一般に、被写体がカメラの画面に大きく写って動いているような場面では、正確なカメラワークを推定するは難しく、フレーム間の位置合わせに失敗するため、この技術では誤検出が生じる。
また、上記第2の従来技術の問題点は、カメラワークを検知するために周辺部の動き全体を利用しているが、周辺部の総体的な動きが必ずしもカメラワークを反映しているとは限らない。また、動物体が画像中央部にあるとも限らず、追尾ショットの分類が正確にできないことが考えられうる。これらは上記の第1の従来技術の問題点(1)(2)と同様である。
また、更に、映像をシーンカットで分割した単位(ショット)に対して3つの分類を行っているが、映像の一ショット内にはそれらの3分類が混在することもあり、映像の適切な分類とはならないことがある。
また、上記第3の従来技術では、カメラワークをパン・チルト・ズームに分類し、カメラワーク全体を1枚の画像として可視化できる利点があるが、当該技術では、動物体の動作をパノラマ上に軌跡として可視化する技術と普通のパノラマかとの使い分けがされておらず、映像内のどのカメラワーク区間にそれらの技術を適用すべきか、その判定方法が明示されていない。映像内のカメラワーク区間全部に対してパノラマ化すると、映像内に動物体が存在する時には、パノラマ表示上で動物体が崩れて表示されるなどの不具合が生じるため、動物体の有無によりパノラマ化の方法を変更する必要がある。
本発明は、上記の点に鑑みなされたもので、可視化を行う前に映像区間を動きにより適切に分類し、可視化方法を変更するための映像処理装置及び方法及びプログラム及びプログラムを格納した記憶媒体を提供することを目的とする。
図1は、本発明の原理を説明するための図である。
本発明(請求項1)は、映像区間を分類するための映像処理方法において、
入力されたフレーム間で画像特徴量の対応関係から動きベクトルを算出する動きベクトル算出手順(ステップ1)と、
動きベクトルからカメラワークパラメータを算出するカメラワークパラメータ算出手順(ステップ2)と、
カメラワークパラメータと、動きベクトルを算出した画像の単位領域(以下、単位領域と記す)の重心座標と、該動きベクトルとを用いて各単位領域を分類する単位領域分類手順(ステップ3)と、
単位領域の分類を用いて各フレームを分類する映像フレーム分類手順(ステップ4)と、
算出されたフレーム画像の分類を時系列に記憶手段に蓄積し、映像区間の分類を算出する映像区間分類手順(ステップ5)と、を行う。
また、本発明(請求項2)は、映像フレーム分類手順(ステップ4)において、
各単位領域に付与された分類の数、あるいは各単位領域に付与された各分類の重みの総和、あるいは平均値を用いて、映像フレームの動物体の有無、映像フレームのカメラワークの有無、また動物体・カメラワークが存在する場合に、当該物体がフォローされているかの分類を行う。
また、本発明(請求項3)は、カメラワークパラメータ算出手順(ステップ2)の後に、
算出パラメータによるアップフレームを判定するアップフレーム判定手順を行い、
また、映像フレーム分類手順(ステップ4)において、
動物体アップフレームの検出処理を行い、動物体アップフレームが検出された場合に、算出されたカメラワークを採用しない。
また、本発明(請求項4)は、単位領域分類手順(ステップ3)において、
画面上で極端に停止している単位領域を固着している点として検出し、フォローされている単位領域と見做さない。
図2は、本発明の原理構成図である。
本発明(請求項5)は、映像区間を分類するための映像処理装置であって、
入力されたフレーム間で画像特徴量の対応関係から動きベクトルを算出する動きベクトル算出手段103と、
動きベクトルからカメラワークパラメータを算出するカメラワークパラメータ算出手段104と、
カメラワークパラメータと、動きベクトルを算出した画像の単位領域(以下、単位領域と記す)の重心座標と、該動きベクトルとを用いて各単位領域を分類する単位領域分類手段106と、
単位領域の分類を用いて各フレームを分類する映像フレーム分類手段107と、
算出されたフレーム画像の分類を時系列に記憶手段に蓄積し、映像区間の分類を算出する映像区間分類手段108と、を有する。
また、本発明(請求項6)は、映像フレーム分類手段107において、
各単位領域に付与された分類の数、あるいは各単位領域に付与された各分類の重みの総和を用いて、映像フレームの動物体の有無、映像フレームのカメラワークの有無、また動物体・カメラワークが存在する場合に、当該物体がフォローされているかの分類を行う手段を含む。
また、本発明(請求項7)は、カメラワークパラメータ算出手段104の後段に、
算出パラメータによるアップフレームを判定するアップフレーム判定手段を設け、
また、映像フレーム分類手段107は、
動物体アップフレームの検出処理を行い、動物体アップフレームが検出された場合に、算出されたカメラワークを採用しない手段を含む。
また、本発明(請求項8)は、単位領域分類手段106において、
画面上で極端に停止している単位領域を固着している点として検出し、フォローされている単位領域と見做さない手段を含む。
本発明(請求項9)は、映像区間を分類するための映像処理プログラムであって、
コンピュータを、
請求項5乃至8のいずれか記載の映像処理装置の手段として機能させるプログラムである。
本発明(請求項10)は、映像区間を分類するための映像処理プログラムを格納した記憶媒体であって、
コンピュータを、
請求項5乃至8のいずれか記載の映像処理装置の手段として機能させるプログラムを格納した記憶媒体である。
上記のように、カメラワーク算出手順(手段)においてカメラワークを推定し、単位領域分類手順(手段)において、推定されたカメラワークと単位領域の動きの差異により被写体の動きを表す単位領域とカメラワークの動きを表す単位領域とに分類し、映像フレーム分類手順(手段)において前者の単位領域の画面に占める割合により動物体の有無を判定する。映像フレーム分類手順(手段)ではさらにカメラワークと動物体の動きの相関を用いて、その動物体の動きがカメラの動きと同方向の動きかどうかでカメラがその動物体(被写体)を追って撮影しているフォローかどうかを判定する。フレーム間の残差のみでフォローを検出するのではなく、単位領域の動きを用いて動きの方向の一致を考慮することで適切にフォローを検出することが可能になる。また、最大連結領域を物体と見做すのではなく、単位領域が画面に占める割合を重みとして各単位領域に付与し、その動物体上の単位領域重みの総和を用いることで、連結領域より安定に動物体のフォローを検出することが可能となる。最後に映像区間分類手順(手段)において、各分類の時間継続性を考慮した映像区間分類を行うことで、突発的な誤分類を排除することができる。上記により、第1の従来の技術の問題を解決することができる。
また、単位領域分類手順(手段)においてカメラワークの動きと異なる動きを単位領域毎に検出し、上記と同様に、それらの動きの相関を利用する。また、動物体が大きく写り、カメラワークの算出が不可能である場合は、その大きく写っていることを別の技術で検出し、検出された場合には被写体を追尾しているかどうかの判定をしないことでフォローの過剰検出を避けられる。例えば、文献「鳥井陽介、紺谷精一、森本正志、“動きを用いた動物体アップショット検出”信学会総合大会、D-12-22, 2005」(以下、文献1と記す)では、動物体が大きく写っている映像シーンを重要なシーンとして検出するために、そのシーンを判定するための技術であるが、この手法を利用して「動物体が大きく写っている」という重要な場面を検出し、重要なシーンを取り逃がさないようにすると同時に、上記のカメラワークの誤推定による追跡シーンの誤検出を防ぐことができる。これは、アップフレーム検出手順(手段)における処理である。これにより、第1の従来技術の問題を解決することができる。
さらに、本発明では、画面内を単純に分割するのではなく、カメラワーク推定を利用して動きの違いを考慮した動物体と背景の分離を行うことで、中央部に動物体がない場合でも対応可能である。また、ショット単位で分類を行うのではなく、カメラワークの存在有無及び動物体の存在有無を動物体上・背景上に分類された動きベクトル算出の単位領域それぞれの重み付き和により判定し、それらの判定が切り替わる時点で映像を分割し、その単位で映像を分類する。この分類について図4に記載する。これによりショット内で動きによる分類分けが混在している時でも、ショットにより細かい粒度の映像区間で分類することが可能になる。これにより、第2の従来技術の問題を解決することができる。
また、本発明では、上記の第2の従来技術の問題解決の方法と同様に、映像中の動物体及び、カメラワークを検出することで映像区間を分類し、動物体とカメラワークの有無の組み合わせを用いてどの映像区間をパノラマ化し、どの映像区間に動物体軌跡を表示すべきかを判定できるようにする。即ち、動物体が無く、カメラワークがある場合には、単純にその映像区間のパノラマ化をすれば綺麗なパノラマ画像を生成できるし、動物体もカメラワークもある場合には動物体を考慮した背景のみのパノラマを作成し、その上に動物体軌跡などを表示する必要がある、などと判定できる。これにより、第3の従来技術の問題を解決することができる。
本発明によれば、映像区間を動物体の有無、カメラワークの有無の組み合わせにより場合分けでき、そのことで映像区間の適切な処理を使い分けることができる。
フォローを検出する方法として、動きベクトルを算出する単位領域の動きとカメラワークの動きとの相関が高いことを利用することで、より精度の高いフォローの検出を行うことができる。
さらに、動物体アップショット検出技術を利用し、検出された映像区間でカメラワークが正常に算出されにくいことを考慮し、カメラワーク検出を行わないことでカメラワーク誤検出を抑え、違う観点による重要な映像区間を検出し、効果的な提示を行うことができる。
以下、図面と共に本発明の実施の形態を説明する。
・装置構成:
図3は、本発明の一実施の形態における映像処理装置の構成を示す。
同図に示す映像処理装置は、映像入力部101、カット点検出部102、動きベクトル算出部103、カメラワークパラメータ算出部104、動物体アップフレーム判定部105、特徴点分類部106、映像フレーム分類部107、映像区間算出・分類部108、出力部109から構成される。
さらに、映像記憶部101、カット点時刻記憶リスト122、時系列特徴点記憶リスト123、パラメータ記憶リスト124、時系列フレーム分類記憶リスト125、アップフレーム時刻記憶リスト126、映像区間分類リスト127を有する。これらは、ハードディスクやメモリ等の記憶手段に格納されるものとする。
映像入力部101は、映像記憶部121に格納されている映像データを読み込むことにより入力し、指定した時刻のフレーム画像を出力する。具体的には、時刻情報を映像入力部101に任意の入力手段により渡して、その映像時刻に対応するフレーム画像を映像記憶部121から取得する。動作の詳細については、図5の映像処理ループにおいて後述する。また、以下ではフレーム画像とそのフレーム番号(映像時刻)とは常に組で入出力を行う。
カット点検出部102は、複数時刻のフレーム画像とそれぞれの時刻情報が映像入力部101から入力されると、その中に含まれるカット点を検出し、その時刻にカット点が存在する場合に映像時刻(カット点時刻)を出力する。検出された時刻は、カット点時刻記憶リスト122に記憶する。カット点検出技術は、例えば、「Jianbo Shi, et al, “Good Features to Track”, IEEE CVPR94, pp.593-600,1994」(以下、文献2と記す)に記載の方法などの既存技術を用いる、もしくは、事前に人手で入力しておくなどとする。動作の詳細については、図5の映像処理ループにおいて後述する。
動きベクトル算出部103は、複数時刻のフレーム画像が映像入力部101から入力されると、2つのフレーム画像間の動きベクトルを算出し、出力する。動きベクトルの算出方法としては、既存技術のブロックマッチングや、第2の従来技術(特開平9−233422号公報)に記載の特徴点追跡技術など種々の技術を利用することができる。動きベクトル算出の単位領域としては、例えば、ブロックマッチングでは画像ブロックを指し、また、特徴点追跡では特徴点である。今回は、例として特徴点追跡技術を利用するものとする。特徴点追跡技術を利用するのは、特徴点において算出される動きは他の手法に比べ映像内容をよく反映した動きになるからである。以下の例では、特徴点を利用した方法について述べ、単位領域の記載は特徴点とするが、その他の場合、例えば、輝度分散値の一定以上である画像ブロックの中心座標(重心)を特徴点と見做す、などとして同様の処理手順を行うことができるのは明らかである。出力は、時系列特徴点記憶リスト123に記憶する。動きベクトル算出部103の詳細については、後述する。
カメラワークパラメータ算出部104は、動きベクトル算出部103にて算出された動きベクトルを時系列特徴点記憶リスト123から読み出して入力し、それからカメラワークパラメータを算出する。ここでは、例として、文献1記載のカメラワークパラメータ算出方法を利用する。出力は、カメラワークパラメータのセットであり、パラメータ記憶リスト124に記憶する。詳細については後述する。
動物体アップフレーム判定部105は、カメラワークパラメータ算出部104から算出されたカメラワークパラメータをパラメータ記憶リスト124から読み出して入力する、あるいは、直接カメラワークパラメータ算出部104から入力し、処理対象フレームが動物体の大きく写っているフレーム画像(動物体アップフレーム)かどうか判定し、動物体アップフレームが検出された場合にその映像時刻を出力する。判定方法は、上記の文献1に準ずる。また、検出された映像時刻をアップフレーム時刻記憶リスト126に記録する。詳細は後述する。
特徴点分類部(単位領域分類手段に対応)106は、各特徴点で算出された動きベクトルと推定されたカメラワーク動きとの相関を用いて各特徴点を背景点と動点、フォローされている物体上の点(フォロー点)の3種類に分類する。入力は特徴点座標とそれぞれの対応点座標を時系列特徴点記憶リスト123より、及びカメラワークパラメータをパラメータ記憶リスト124よりそれぞれ入力し、出力は、各特徴点の分類を示す値を時系列特徴点記憶リスト123に記憶されている処理対象フレーム画像上の対応する特徴点に対し記憶する。詳細については後述する。
映像フレーム分類部107は、特徴点分類部106の判定結果を用いてその映像時刻のフレーム画像に対して、図4に則した分類を行う。入力は、各特徴点座標とその分類結果、及びカメラワークパラメータである。出力は処理対象フレームのフレーム番号とその分類(3種類)を示す値を時系列フレーム分類記憶リスト125に記憶する。詳細については後述する。
映像区間算出・分類部108は、動物体が比較的大きく写っている区間(動物体アップ区間)、カメラワークが継続している区間(カメラワーク区間)、そして、動物体が存在している区間(動物体存在区間)の3つの区間を算出する。また、カメラワーク区間の中でも動物体をフォローしている区間をフォロー区間として算出する。その算出された区間を図4の分類規則を用いて各ラベルを映像区間に付与する。入力としては動物体アップフレーム時刻列をアップフレーム時刻記憶リスト126及び時系列フレーム分類記憶リスト125より、カメラワークパラメータをパラメータ記憶リスト124より、特徴点座標とその分類を時系列特徴点記憶リスト123より、それぞれ入力し、出力は各種映像区間の始点・終点の時刻とその分類番号を逐次映像区間分類リスト127に記憶していく。詳細は後述する。
出力部109は、カット点時刻記憶リスト122よりカット点情報を、映像区間分類リスト127より各種映像区間の種類とその始点・終点時刻情報を各種出力装置(ファイルに記憶、ディスプレイに表示など)に出力する。
・映像処理手順:
次に、上記の構成における動作を説明する。
図5は、本発明の一実施の形態における基本的な動作のフローチャートであり、図3で示した装置の映像入力部101とカット点検出部102の動作を説明している。
初期フレーム入力手順(ステップ100)では、映像入力部101において実行される手順であり、処理対象の映像から処理開始位置のフレーム画像(処理対象フレーム画像)と、その後の、参照するためのフレーム画像(参照フレーム画像)と読み込む処理手順である。それらを時系列順にフレーム画像として読み込む。処理対象フレーム画像の初期位置は画像の初期フレームなど任意に決定可能である。また、参照フレームの選び方は処理対象フレームから一定フレーム後のフレーム画像などとする。
カット点検出手順(ステップ200)は、カット点検出部102において実行される手順であり、読み込まれた複数のフレーム画像の中にカット点が含まれるかどうかを検出する処理である。これは、上記の文献2に記載の技術などの既存技術で実行可能である。カット点が検出された時には、そのフレーム番号(ショットの先頭を表す番号)をカット点時刻記憶リスト122に記憶する。また、カット点が検出されたときには全ての記憶リストをクリアする。なお、事前に手入力したカット点時刻情報が存在する場合には、文献2のカット点検出技術の代わりとして、時刻情報を初期フレーム入力手順などでカット点時刻記憶リスト122に読み込み、このカット点検出手順を現処理対象フレームのフレーム番号と参照フレームのフレーム番号の間にカット点のフレーム番号が含まれているか否かでカット点の有無を判定することで、上記のカット検出技術の代替として利用することも可能である。
映像処理手順(ステップ300)は、入力された処理対象フレームと参照フレームとを用いて処理を行う。詳細については図6を用いて後述する。
映像の終了条件を判定する条件分岐では、次に読み込む参照フレーム時刻が最終フレームの時刻を越えているかどうか判定し、越えている場合は処理を終了し、越えていない場合は映像入力更新手順(ステップ500)へ移行する。終了の際の出力は算出された映像区間とその分類ラベルである。次の参照フレーム画像の選択方法は、初期フレーム入力手順と同じく、処理対象フレームから一定間隔おいたフレーム画像などとする。
映像入力更新手順(ステップ500)は、映像入力部101によって行われる手順であり、現在の参照フレーム時刻を次の処理対象フレーム時刻として指定し、また、次の参照フレームの時刻を映像入力部101へ出力し、それぞれの画像を入力することで、処理対象フレーム画像及び参照フレーム画像を更新する。
[映像処理手順]
次に、上記の映像処理手順(ステップ300)について詳細に説明する。
図6は、本発明の一実施の形態における映像処理手順のフローチャートである。
動きベクトル算出手順(ステップ310)は、動きベクトル算出部103において実行される手順であり、処理対象フレーム画像と参照フレーム画像を入力し、その間の動きベクトルを算出して出力する処理手順である。ここでは、例として、文献2に記載されている特徴点追跡技術を用いた動きベクトル算出手順を利用する。算出された特徴点座標と対応点座標の組は時系列特徴点記憶リスト123に記憶する。時系列特徴点記憶リスト123は、フレーム番号毎に1つ存在し、処理対象フレーム画像のフレーム番号及び参照フレーム画像のフレーム番号それぞれに対応したリストに記憶する。
カメラワークパラメータ算出手順(ステップ320)は、カメラワークパラメータ算出部104において実行される手順であり、上記動きベクトル算出手順(ステップ310)において算出された動きベクトルを入力し、カメラワークモデルに当てはめてカメラワークパラメータを算出し、出力する手順である。ここで用いるカメラワークモデルの例として
Figure 0004640001
のような中心投影モデルを利用する。数式1の式中の座標系p=(x,y,1)は、画像中心を原点とする同次座標系であり、pは処理対象フレーム画像における特徴点、p’は参照フレーム画像上で特徴点pに対応する点(対応点)である。2次元射影変換行列などカメラワークモデルとして利用できる他の行列を用いても勿論よい。このモデルにおけるカメラワークパラメータは(a,a,a,a)の4つの値のセット(パラメータセット)である。カメラワークパラメータ算出の手法は、文献1の記載されている技術が利用可能である。文献1によれば、上記の数式1のカメラワークモデルの場合、3つの点対応を用いて2つのパラメータセットを算出し、その差分値を求めて採用すべきパラメータセットかどうかを判定できる。なお、このときの動きベクトルVは(直交座標系で)
p−p’=(x’−x,y’−y)
である。なお、算出されたカメラワークパラメータセットは、パラメータ記憶リスト124にフレーム番号と共に記憶する。
算出パラメータによるアップフレーム判定手順(ステップ330)は、動物体アップフレーム判定部105において実行される手順であり、文献1に記載の方法で行うものとする。即ち、上記でカメラワークパラメータが算出不能である場合、あるいは算出されたカメラワークパラメータを入力してその値を検証し、そのカメラワークパラメータが異常かどうかを判定することでカメラワークモデルに則していない動きベクトルであるかどうかを判定する手順である。ここでカメラワークモデルに則していないと判定される場合は、以下の2つの場合である。
(1)上記カメラワークパラメータ算出手順(ステップ320)において、カメラワークパラメータが算出できなかった場合、この場合は算出されている動きベクトルの全てがカメラワークモデルに則していなかったと判定でき、画像全体としてカメラワークモデルに則していないと言える。なお、算出された動きベクトル個数が少なすぎてカメラワークが算出不能になっている場合はアップと判定しない。即ち、ここでは、カメラワークパラメータが算出不能、かつ動きベクトルが一定数異常算出されている場合を動物体アップフレームとして検出する。
(2)算出されたパラメータセットの時間変化量が閾値以上の場合。つまり、一つ前で算出されたパラメータセットと現算出のパラメータセットとの各成分の差分絶対値のいずれかが閾値以上の場合である。ここで用いる閾値はパラメータの各成分それぞれに対して設定する。但し、ひとつ前のカメラワークパラメータが算出されていない場合は、現算出のパラメータセットの各成分の値がそれぞれ一定範囲にあるかどうか判定し、どれか一つでも外れている場合は、カメラワークモデルに則していないと判定する。この場合では、算出されたカメラワークパラメータの値が異常であることを検知し、カメラワークモデルに則さないことを検出している。
上記の(1)(2)の2つの条件によってアップフレームと判定された場合は、現処理対象フレームの映像時刻をアップフレーム時刻記憶リスト126に記憶し、現処理対象フレーム(あるいは参照フレーム)の映像時刻を出力して映像区間算出・分類手順(ステップ380)へ、それ以外の場合は記憶せずに特徴点分類手順(ステップ350)へ、それぞれ移行する。なお、アップフレームが上記の(2)によって検出された場合には、パラメータ記憶リスト124の該当するレコードを消去してもよい。
特徴点分類手順(ステップ350)では、算出されたカメラワークパラメータをパラメータ記憶リスト124より、特徴点座標を時系列特徴点記憶リスト123よりそれぞれ読み込み、各特徴点の動きとカメラワークとの一致度を計算し、特徴点を背景点と動物体点に分類する。また、その動物体点のうち、カメラワークとの相対的な動きとカメラワークの動きとの類似度を計算し、さらに動物体点をフォロー点とそれ以外の点(動点と表す)に分類する。また、フォロー点の中でも例外的に動かない点(例えばテロップ上の点)について判別することも行う。出力は各特徴点座標とそれに対する分類ラベル(に対応した数値)であり、時系列特徴点記憶リスト123に記憶する。この手順の詳細は図7を用いて後述する。
映像フレーム分類手順(ステップ370)では、特徴点分類手順でそれぞれ分類された特徴点の数から、あるいは各特徴点が持つ各分類に対する重みの総和をとることで、その時刻の処理対象フレームに対し、図4に従った分類を行う。入力は各特徴点の座標とその分類ラベルを時系列特徴点記憶リスト123より、出力はその処理フレームの分類ラベルを時系列フレーム分類記憶リスト125に記憶する。この手順の詳細は後述する。
[特徴点分類処理]
次に、図6の特徴点分類手順(ステップ350)の処理について詳細に説明する。
図7は、本発明の一実施の形態における特徴点分類手順のフローチャートである。
特徴点IDのnを初期化する(ステップ351)。
特徴点IDがnの特徴点(以下、特徴点nと表す)のカメラワークの動きとの差異△D(n)を計算する(ステップ351)。計算方法を以下に示す。
時系列特徴点記憶リスト123から読み出した動きベクトルと、パラメータ記憶リスト124から読み出したパラメータセットから算出できる動きベクトルとの差が大きな画像単位(ブロックあるいは特徴点など)数が全体に占める割合が閾値以上であるかどうかを判定する。以下に詳細に説明する。
カメラワークパラメータセットからカメラワークが無い場合の動物体の動きベクトルV’(n)を算出できる。動きベクトルV’(n)を数式(1)のモデルより、
Figure 0004640001
のように算出できる。但し、数式(2)内の(x,y)は数式(1)内と同様、画像中心を原点とした座標系であり、特徴点nの座標を表す。△D(n)=│V’│とする。即ち、特徴点nがカメラワーク以外の動いた物体上の特徴点がどうかを、この△D(n)を指標に判定する。
即ち、閾値をDthとしたとき△D(n)>Dthである時(ステップ353、Yes)には動物体点と判定し、それ以外の場合(ステップ353、No)は背景点と見做す。
特徴点nが背景点の場合は、特徴点の状態を記憶する変数Stat(n)に例えば、1を記憶して(ステップ354)終了判定条件に移行する。動物体点の場合はフォローの点かどうかを判定するステップ(ステップ361)に移行する。
特徴点nがフォローされている物体上の点であるかの判定には、見た目以上の動きの大きさ△F(n)=│p’−p│を利用する。即ちFthを閾値として△F(n)<Fthであるかどうかを判定する。△F(n)<Fthである場合(ステップ356、Yes)は、テロップなどの画面に固着したものかどうかを判定する手順へ移行する。それ以外の場合(ステップ356、No)はStat(n)に動点を表す数(例えば2)を記憶して(ステップ357)終了判定条件(ステップ361)へ移行する。なお、△F(n)=V’(n)−(a/a,a/a)としてもよい。
画面に固着した点かどうかの判定には閾値Fthより小さな値であるF’thを用いてフォロー判定と同様の手順で行う。即ち、△F(n)<F’thである場合(ステップ358、Yes)はStat(n)に固着した物体上の点を表す数(例えば4)を記憶する(ステップ360)。また、条件に当てはまらない場合(ステップ358、No)は、Stat(n)にフォローされた物体上の点を表す数(例えば3)を記憶する(ステップ359)。どちらの場合も終了判定条件(ステップ361)へ移行する。
終了判定条件(ステップ361)では、全ての特徴点1〜Nに対して処理を行ったかどうかを判定する。全ての特徴点について処理が終了した場合(ステップ361、Yes)は特徴点分類手順全体を終了する。出力は各特徴点IDとその特徴点に対する分類値であり、時系列特徴点記憶リスト123に記憶する。それ以外の場合は(ステップ361、No)、nをインクリメントして(ステップ362)、△D(n)の計算(ステップ352)からやり直す。
[映像フレーム分類・映像区間算出・分類処理]
以下では、映像フレーム分類手順(ステップ370)、及び、映像区間算出・分類手順(ステップ380)の動作を詳細に説明する。
図8は、本発明の一実施の形態における映像フレーム分類手順及び映像区間算出・分類手順のフローチャートである。
特徴点分類によるフレーム分類信頼度算出手順(ステップ371)では、時系列特徴点記憶リストに記憶してある特徴点の分類を読み込み、フレームの分類を行う。付与する分類は図4に示したように、(1)動物体アップショットか否か、(2)動物体の有無、(3)カメラワークの有無、(4)動物体とカメラワークがある場合にはフォローか否か、の4つの基準を順に判定する。判定方法として以下に2つの例を挙げる。
第1の例としては特徴点の個数を数えて、その閾値処理によりフレームの分類を行うことが挙げられる。即ち、特徴点分類手順(ステップ350)により付与された各分類の数を数え、以下の条件を順に判定していく。なお、下記に示した分類ラベルはその分類固有の数値であり、時系列フレーム分類記憶リスト125へ記憶する。
(1)背景点個数を全特徴点数で割った値が一定値以下かどうか判定する。これにより動物体アップフレームを判定する。これは、文献1に記載の方法であり、この場合は“動物体があり”の分類を付与する。また、動物体アップフレームのときには安定したカメラワークが算出されないことが多いためカメラワークについての判定を行わないことにしてもよい。カメラワークについて判定しない場合はフォローの判定も行わず、このステップを終了する。カメラワークについて判定する場合は、(3)の判定から行う。
(2)動点とフォロー点の合計個数が一定数以上であるか判定する。この条件が満たされた場合はこのフレームに動物体があるという分類ラベルを振る。
(3)ショット内の一定時間前までのカメラワークパラメータをパラメータ記憶リストから読み出し、パラメータそれぞれについてそれらの平均値あるいは中央値を算出し、パラメータそれぞれに設定した閾値により閾値処理をする。パラメータ(a,a,a,a)の意味はそれぞれズーム、回転、パン、チルトであり、閾値以上であったパラメータがあれば、それに対応したカメラワークが検出されたとして分類する。回転以外のカメラワークが検出された場合には(4)の処理を行う。それ以外の場合はこのステップを終了する。
(4)フォロー点のショット内累積個数が一定数以上であり、かつ現フレームにおいてフォロー点個数が一定数以上であるか判定する。この条件が満たされた場合はこのフレームにフォローされている動物体があるという分類ラベルを振る。以下ではフォローフレームと呼ぶ。
第2の例としては、各特徴点に動きベクトルと周辺の特徴点との距離を用いて重み付けをし、その重みの各種別の合計値を用いてフレームの分類あるいはその分類の信頼度を算出することが挙げられる。各点の重みの付与方法を以下に述べる。
ある特徴点nの近傍にある特徴点K個について以下に示すw(n)を算出する。
Figure 0004640001
(n)のkについての総和
Figure 0004640001
を各特徴点nにおいて計算し、それを各点の重みとして時系列特徴点記憶リストに記憶する。その後以下の条件により各分類に対する重みを計算する。なお、下記に示した重みは各分類においてそれぞれ算出し、それら全てを時系列フレーム分類記憶リストへ記憶する。なお、点の重みとして数式(4)の値をKで割って平均値とした値を採用してもよい。
(ア) 動点とフォロー点全体の処理対象フレームにおける重みの平均値Wmを算出する。これを現フレームにおける動物体の存在する指標とする。
(イ)ショット内の一定時間前までのカメラワークパラメータをパラメータ記憶リスト124から読み出し、パラメータそれぞれについてそれらの平均値あるいは中央値を算出し、パラメータそれぞれに設定した閾値により閾値処理をする。パラメータ(a,a,a,a)の意味は、それぞれズーム、回転、パン、チルトであり、閾値以上であったパラメータがあれば、それに対応したカメラワークが検出されたとして分類する。
(ウ)フォロー点全体の重みの平均値Wfを算出する。
過去の履歴が充分あるか判定するステップ(ステップ381)では、時系列フレーム分類記憶リスト125を参照し、過去に算出したフレーム分類が一定個数T、あるいは一定時間前の値があるかどうかを判定する。一定個数T以上、あるいは一定時間前のフレーム分類の値が存在したときは映像区間算出・分類手順(ステップ380)に移行する。それ以外の場合は処理せずにこの処理を終了する。なお、動物体アップフレームの個数をカウントする場合にはアップフレーム時刻記憶リスト126も参照し、時系列フレーム分類リストのT個の時刻の範囲にアップフレーム時刻記憶リスト126中の値が存在する場合には、アップフレームとしてカウントし、時系列フレーム分類リスト125からはT−T’
(T’はアップフレーム時刻記憶リスト126中で上記に該当する要素の個数)だけ利用し、T’個のアップフレームのフレーム番号をアップフレーム時刻記憶リスト126より入力することも可能である。また、フレーム分類として信頼度を算出していた場合は、アップフレーム記憶リストにおける信頼度はある一定値として時系列フレーム分類記憶リスト125に追加してもよい。
映像区間算出手順(ステップ382)では、現フレームの各分類あるいはその重みを用いて、現映像区間の分類を判定するステップである。以下、二通りの判定方法を例として記す。
(a)動物体アップフレーム、動物体、カメラワークの各分類に対して、フレームに付与した分類が過去T個の値のうち、Ta(≦T)個以上が現フレームの分類と同じ場合はその分類が、例えば、T/2個目の映像時刻に対し決定したものとする。なお、フレーム分類において決定されていない分類については前時間で判定された分類をそのまま付与するものとする。また、動物体アップフレーム以外で動物体とカメラワークが共にあると判定され、かつフォローである分類が過去T個の内Tb(≦T)個存在する場合は、例えば、T/2個目の映像時刻に対しフォローであると決定したものと見做す。以上決定した分類とその時刻を次のステップへ受け渡す。
(b)各分類が重みとして付与されている場合の判定方法について述べる。動物体アップ区間かどうかはWmが顕著に大きいかどうかで判定する。即ち、動物体アップ区間の開始が検出されていない場合は、設定した閾値WuよりWmが大きくなった場合を検出し、動物体アップ区間の開始を検出する。また、動物体アップ区間の開始が検出されている場合は、過去T個の重みWmの平均値あるいは中間値を算出し、それが一定値以上であるかどうかを判定する。一定値以上の場合に動物体アップ区間が継続していると判定する。カメラワークの判定については動物体アップ区間でないときだけ判定することにしてもよい。動物体の有無の判定はWuより小さな閾値設定で動物体アップ区間と同様に判定することにしてもよい。判定方法は(a)と同様である。フォローの判定はカメラワークと動物体が共にある場合のみ判定する。重みWfを利用し、動物体アップ区間と同様の判定方法を用いてフォローの有無を判定する。上記分類判定時刻は現フレーム時刻などとする。以上決定した分類とその時刻を次のステップに受け渡す。
区間種類の変更があるか判定するステップ(ステップ383)では、前回の判定において算出された各分類と今回の判定で算出された分類に変化があったか、あるいはカット点時刻記憶リスト122を参照して現フレームにカット点が含まれているか判定する。変化がある、あるいはカット点がある場合は映像区間設定手順(ステップ384)に移行する。それ以外の場合は処理を終了する。
映像区間設定手順(ステップ384)では、前までの分類の映像区間が終了した場合は、その分類に対する終点として前ステップから受け渡された映像時刻を映像区間分類リスト127の該当する分類の終了時刻に記録する。また、カット点が検出されていない場合は同時に新たな映像区間の始点として前ステップから受け渡された映像時刻とその分類を映像区間分類リスト127に追加記録する。カット点が検出された場合は、映像区間分類リスト127の中で現在開始時刻が設定され、終了時刻の設定されていない映像区間の終了時刻に現フレーム番号を書き込む。映像区間算出手順(ステップ382)として(b)の手順をとったときには、新規に各分類の区間が検出された場合やその分類が継続しているかどうかの判定で継続していないと判定された場合に、上記と同様にして映像時刻とその分類を設定・記録する。上記で設定された各種分類とその開始時刻、また前回までの分類の終了時刻を出力して処理を終了する。なお、各映像区間のうち、カメラワーク区間、動物体存在区間は互いに独立な区間であり、それぞれの分類の区間が同時に付与される区間があってもよい。
次に、検出された各映像の分類とその利用方法の例について図9を用いて説明する。
上記の手順により動物体、カメラワークの有無及び動物体アップ区間、フォロー区間を図9のように各分類の有無の切り替わりにより区間分けを行う。これにより図4に記載の分類を行うことができる。この分類により映像を提示する方法を効果的に変更することができる。即ち、図9の例(1)では動物体が無く、カメラワークがある場合で、単純なパノラマ化をすることで映像区間を一覧できるパノラマ画像を生成することができる。これは、第3の従来技術に記載されているような既存技術を利用できる。(2)の例では、動物体もカメラワークも存在する場合で、この場合は動物体と背景の既存の物体抽出技術で分類した後に背景のみをパノラマかすると綺麗なパノラマと物体の軌跡を表示することが可能であり、映像の一覧性が向上する。(2)’も同様であるが、その物体はフォローされているため、この映像区間は撮影者の注目した物体が移っていると判断でき、(2)に比べ重要度が高いと判断できる。即ち、例えば(2)はユーザに提示せず(2)’だけを提示することで確認すべき映像内容を絞り込むことが可能である。なお、(2)’に示したようにフォロー区間のカメラワーク区間に対する少しのズレは許容してカメラワーク区間全体をフォロー区間と見做してもよい。例えば、この処理は全ての区間を算出した後に行う。
また、(3)は動物体が大きく写っている区間であり、撮影者がその物体に注目したと考えられる。それゆえの映像区間の中から数枚のフレーム画像をサムネイルとして利用者に提示することでカメラワークの動きからだけではない重要な映像部分を提示することができる。また、必要に応じてアップ区間に何が移っているかを、例えば、アップ区間の前後のフレーム画像に対し従来技術のオブジェクト認識を利用して認識し、必要な物体のみを取り出してもよい。こうすることのメリットとしてはオブジェクト認識を全てのフレームでする必要がなくなることと、大きく物体が写っているためその特徴が取りやすく、精度が向上する見込みがあることである。
なお、上記のカット点時刻記憶リスト、時系列特徴点記憶リスト、パラメータ記憶リスト、アップフレーム時刻記憶リスト、時系列フレーム分類記憶リスト、映像区間分類リスト等を格納する記憶手段を有するコンピュータを、映像処理装置として機能させるプログラムを構築し、映像処理装置として利用されるコンピュータにインストールする、または、ネットワークを介して流通させることが可能である。
また、構築されたプログラムを、ハードディスク装置や、フレキシブルディスク、CD−ROM等の可搬記憶媒体に格納し、コンピュータにインストールする、または、配布することも可能である。
なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。
本発明は、映像処理におけるシーン判定技術に適用可能である。
本発明の原理を説明するための図である。 本発明の原理構成図である。 本発明の一実施の形態における映像処理装置の構成図である。 本発明の一実施の形態における映像区間分類:カメラワークと被写体の動きを用いた場合分けを示す図である。 本発明の一実施の形態における基本的な動作のフローチャートである。 本発明の一実施の形態における映像処理手順のフローチャートである。 本発明の一実施の形態における特徴点分類手順の詳細なフローチャートである。 本発明の一実施の形態における映像フレーム分類手順及び映像区間算出・分類手順のフローチャートである。 本発明の一実施の形態における映像フレーム分類手順及び映像区間算出・分類手順を説明するための図である。
符号の説明
101 映像入力部
102 カット点検出部
103 動きベクトル算出手段、動きベクトル算出部
104 カメラワークパラメータ算出手段、カメラワークパラメータ算出部
105 動物体アップフレーム判定部
106 単位領域分類手段、特徴点分類部
107 映像フレーム分類手段、映像フレーム分類部
108 映像区間分類手段、映像区間算出・分類部
109 出力部
121 映像記憶部
122 カット点時刻記憶リスト
123 時系列特徴点記憶リスト
124 パラメータ記憶リスト
125 時系列フレーム分類記憶リスト
126 アップフレーム時刻記憶リスト
127 記憶手段、映像区間分類リスト

Claims (10)

  1. 映像区間を分類するための映像処理方法において、
    入力された映像フレーム間で画像特徴量の対応関係から動きベクトルを算出する動きベクトル算出手順と、
    前記動きベクトルからカメラワークパラメータを算出するカメラワークパラメータ算出手順と、
    前記カメラワークパラメータと、前記動きベクトルを算出した画像の単位領域(以下、単位領域と記す)の重心座標と、該動きベクトルとを用いて各単位領域を分類する単位領域分類手順と、
    前記単位領域の分類を用いて各映像フレームを分類する映像フレーム分類手順と、
    算出された映像フレームの分類を時系列に記憶手段に蓄積し、映像区間の分類を算出する映像区間分類手順と、
    を行うことを特徴とする映像処理方法。
  2. 前記映像フレーム分類手順において、
    各単位領域に付与された分類の数、あるいは各単位領域に付与された各分類の重みの総和を用いて、映像フレームの動物体の有無、映像フレームのカメラワークの有無、また、動物体・カメラワークが存在する場合に、当該物体がフォローされているかの分類を行う、請求項1記載の映像処理方法。
  3. 前記カメラワークパラメータ算出手順の後に、
    算出パラメータによるアップフレームを判定するアップフレーム判定手順を行い、
    また、前記映像フレーム分類手順において、
    動物体アップフレームの検出処理を行い、動物体アップフレームが検出された場合に、算出されたカメラワークを採用しない、
    請求項1記載の映像処理方法。
  4. 前記単位領域分類手順において、
    画面上で極端に停止している単位領域を固着している点として検出し、フォローされている単位領域と見做さない、請求項1記載の映像処理方法。
  5. 映像区間を分類するための映像処理装置であって、
    入力された映像フレーム間で画像特徴量の対応関係から動きベクトルを算出する動きベクトル算出手段と、
    前記動きベクトルからカメラワークパラメータを算出するカメラワークパラメータ算出手段と、
    前記カメラワークパラメータと、前記動きベクトルを算出した画像の単位領域(以下、単位領域と記す)の重心座標と、該動きベクトルとを用いて各単位領域を分類する単位領域分類手段と、
    前記単位領域の分類を用いて各映像フレームを分類する映像フレーム分類手段と、
    算出された映像フレームの分類を時系列に記憶手段に蓄積し、映像区間の分類を算出する映像区間分類手段と、
    を有することを特徴とする映像処理装置。
  6. 前記映像フレーム分類手段は、
    各単位領域に付与された分類の数、あるいは各単位領域に付与された各分類の重みの総和、あるいは平均値を用いて、映像フレームの動物体の有無、映像フレームのカメラワークの有無、また動物体・カメラワークが存在する場合に、当該物体がフォローされているかの分類を行う手段を含む、請求項5記載の映像処理装置。
  7. 前記カメラワークパラメータ算出手段の後段に、
    算出パラメータによるアップフレームを判定するアップフレーム判定手段を設け、
    また、前記映像フレーム分類手段は、
    動物体アップフレームの検出処理を行い、動物体アップフレームが検出された場合に、算出されたカメラワークを採用しない手段を含む、
    請求項5記載の映像処理装置。
  8. 前記単位領域分類手段は、
    画面上で極端に停止している単位領域を固着している点として検出し、フォローされている単位領域と見做さない手段を含む、請求項5記載の映像処理装置。
  9. 映像区間を分類するための映像処理プログラムであって、
    コンピュータを、
    請求項5乃至8のいずれか記載の映像処理装置の手段として機能させることを特徴とする映像処理プログラム。
  10. 映像区間を分類するための映像処理プログラムを格納した記憶媒体であって、
    コンピュータを、
    請求項5乃至8のいずれか記載の映像処理装置の手段として機能させるプログラムを格納したことを特徴とする映像処理プログラムを格納した記憶媒体。
JP2005198754A 2005-07-07 2005-07-07 映像処理方法及び装置及びプログラム及びプログラムを格納した記憶媒体 Expired - Fee Related JP4640001B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005198754A JP4640001B2 (ja) 2005-07-07 2005-07-07 映像処理方法及び装置及びプログラム及びプログラムを格納した記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005198754A JP4640001B2 (ja) 2005-07-07 2005-07-07 映像処理方法及び装置及びプログラム及びプログラムを格納した記憶媒体

Publications (2)

Publication Number Publication Date
JP2007019814A JP2007019814A (ja) 2007-01-25
JP4640001B2 true JP4640001B2 (ja) 2011-03-02

Family

ID=37756575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005198754A Expired - Fee Related JP4640001B2 (ja) 2005-07-07 2005-07-07 映像処理方法及び装置及びプログラム及びプログラムを格納した記憶媒体

Country Status (1)

Country Link
JP (1) JP4640001B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5412984B2 (ja) * 2009-06-24 2014-02-12 日本電気株式会社 フォロー対象検出装置、フォロー対象検出方法およびフォロー対象検出プログラム
AU2017245322A1 (en) * 2017-10-10 2019-05-02 Canon Kabushiki Kaisha Method, system and apparatus for selecting frames of a video sequence

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261757A (ja) * 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 編集用映像区間分類方法及び装置、並びにこの方法を記録した記録媒体
JP3325823B2 (ja) * 1998-02-06 2002-09-17 日本電信電話株式会社 映像静止画表示方法及び装置並びに映像静止画表示プログラム格納記録媒体
JP2005115529A (ja) * 2003-10-06 2005-04-28 Nippon Telegr & Teleph Corp <Ntt> 映像分類表示方法及びそのシステム並びにプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191411A (ja) * 1994-11-08 1996-07-23 Matsushita Electric Ind Co Ltd シーン判別方法および代表画像記録・表示装置
JP3131560B2 (ja) * 1996-02-26 2001-02-05 沖電気工業株式会社 動画像処理システムにおける動画像情報検出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3325823B2 (ja) * 1998-02-06 2002-09-17 日本電信電話株式会社 映像静止画表示方法及び装置並びに映像静止画表示プログラム格納記録媒体
JP2000261757A (ja) * 1999-03-10 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 編集用映像区間分類方法及び装置、並びにこの方法を記録した記録媒体
JP2005115529A (ja) * 2003-10-06 2005-04-28 Nippon Telegr & Teleph Corp <Ntt> 映像分類表示方法及びそのシステム並びにプログラム

Also Published As

Publication number Publication date
JP2007019814A (ja) 2007-01-25

Similar Documents

Publication Publication Date Title
JP7428213B2 (ja) 情報処理システム、情報処理方法及びプログラム
US8619135B2 (en) Detection of abnormal behaviour in video objects
US8848979B2 (en) Tracked object determination device, tracked object determination method and tracked object determination program
EP2330557B1 (en) Moving body detection method and moving body detection device
JP6561830B2 (ja) 情報処理システム、情報処理方法及びプログラム
EP2521093B1 (en) Moving object detection device and moving object detection method
JP6213843B2 (ja) 画像処理システム、画像処理方法及びプログラム
US7940957B2 (en) Object tracker for visually tracking object motion
US8605946B2 (en) Moving object detection apparatus and moving object detection method
JP4912117B2 (ja) 追跡機能付き撮像装置
JP6525545B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US20090028386A1 (en) Automatic tracking apparatus and automatic tracking method
US20110255748A1 (en) Articulated object regionarticulated object region detection apparatus and method of the same
US11676389B2 (en) Forensic video exploitation and analysis tools
JPWO2006025272A1 (ja) 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム
Li et al. Structuring lecture videos by automatic projection screen localization and analysis
JPWO2015068854A1 (ja) 回避行動検出装置及び回避原因処理装置並びにそれらの方法
US11386576B2 (en) Image processing apparatus, method of tracking a target object, and storage medium
JP4496992B2 (ja) 動物体アップフレーム検出方法及びプログラム及びプログラムを格納した記憶媒体及び動物体アップショット検出方法及び動物体アップフレームあるいはショット検出方法及びプログラム及びプログラムを格納した記憶媒体
JP4606278B2 (ja) 映像構造化方法及び装置及びプログラム
JP4993678B2 (ja) 対話型動画像監視方法、対話型動画像監視装置および対話型動画像監視プログラム
JP4640001B2 (ja) 映像処理方法及び装置及びプログラム及びプログラムを格納した記憶媒体
Nguyen et al. 3d pedestrian tracking using local structure constraints
JP2007510994A (ja) ビデオ画像内でのオブジェクトトラッキング
JP4909315B2 (ja) 映像処理装置及び方法及びプログラム及びコンピュータ読取可能な記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101102

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101115

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees