JP4683031B2 - 電子機器、コンテンツ分類方法及びそのプログラム - Google Patents

電子機器、コンテンツ分類方法及びそのプログラム Download PDF

Info

Publication number
JP4683031B2
JP4683031B2 JP2007270643A JP2007270643A JP4683031B2 JP 4683031 B2 JP4683031 B2 JP 4683031B2 JP 2007270643 A JP2007270643 A JP 2007270643A JP 2007270643 A JP2007270643 A JP 2007270643A JP 4683031 B2 JP4683031 B2 JP 4683031B2
Authority
JP
Japan
Prior art keywords
video
video content
activity
feature
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007270643A
Other languages
English (en)
Other versions
JP2009100314A (ja
Inventor
昇 村林
裕成 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007270643A priority Critical patent/JP4683031B2/ja
Priority to US12/287,294 priority patent/US8184947B2/en
Priority to CNA200810149937XA priority patent/CN101414302A/zh
Publication of JP2009100314A publication Critical patent/JP2009100314A/ja
Application granted granted Critical
Publication of JP4683031B2 publication Critical patent/JP4683031B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Description

本発明は、複数の映像コンテンツを分類することが可能な電子機器、当該電子機器におけるコンテンツ分類方法及びプログラムに関する。
近年、大容量の記録媒体を有する電子機器が普及し、当該電子機器に様々な映像コンテンツを蓄積できるようになった。また、インターネットの普及により、複数のユーザが画像や映像コンテンツをWebサイト上に投稿し、ダウンロードして再生を楽しむようなことも可能となった。
ところで、このような大量の映像コンテンツの内容は多岐に渡っている。ある程度のジャンル分類が可能なWebサイト等も存在しているが、その分類は十分でない。したがって、ユーザは、所望の映像コンテンツを大量の選択肢から選択してダウンロードする必要があるが、ダウンロード後にその映像コンテンツがユーザにとって退屈なものであったことに気づくような場合もあり、効率的に再生を楽しめる状況にあるとは言い難い。
そこで、映像コンテンツを分類するための技術として、下記特許文献1には、映像コンテンツを、各映像コンテンツを構成する画像の色のヒストグラムや、各映像コンテンツを構成する音声の波形及び周波数特性に応じて分類するための属性テーブルを格納し、当該属性テーブルを基に各映像コンテンツを分類することが可能な装置が記載されている。
特開2003−61027号公報(図5等)
しかしながら、上記特許文献1に記載の技術においては、分類対象の映像コンテンツの属性と色や音声をマッチングするための属性テーブルのデータ量が膨大となり、装置の負荷が大きくなってしまう。また、色や音声のみでは、装置が内容の全く異なる映像コンテンツを同じ分類に誤って分類してしまう可能性もある。更に、装置が映像コンテンツを色や音声で分類しても、その分類に属する映像コンテンツがどのような内容の映像コンテンツであるかをユーザに効果的に提示することができない。
ところで、ユーザによっては、映像コンテンツを選択して視聴する際、高揚した気分、落ち着いた気分等、ユーザの気分をその指標とすることも考えられる。例えば、高揚した気分の場合には、動きの激しい、またはスピード感のある映像コンテンツの視聴を所望するユーザもいれば、落ち着いた気分、穏やかな気分の場合には、動きの少ない、ゆったりとした映像コンテンツの視聴を所望するユーザもいる。また、落ち込んだ気分の場合やストレスを感じている場合に、自らを元気付けたり、ストレスを発散させたりするために、動きの激しい映像コンテンツの視聴を所望するユーザもいれば、逆に穏やかなコンテンツを視聴して自らを癒したいと考えるユーザもいる。したがって、ユーザの気分に応じて映像コンテンツを選択できるように映像コンテンツを分類する技術が求められている。
以上のような事情に鑑み、本発明の目的は、大量の映像コンテンツを、ユーザが気分に応じて選択して楽しめるように適切に分類することが可能な電子機器、コンテンツ分類方法及びそのプログラムを提供することにある。
上述の課題を解決するため、本発明の主たる観点に係る電子機器は、それぞれ複数のフレームで構成される複数の映像コンテンツの各フレームをそれぞれ比較して、当該各映像コンテンツ中から、カメラ動作または映像編集により生じる映像特徴を検出する検出手段と、前記検出された映像特徴を基に、前記各映像コンテンツに含まれる映像の視覚的な活性度をそれぞれ判定し、当該判定された各活性度を基に、前記各映像コンテンツを分類する分類手段とを具備する。
ここで電子機器とは、例えばHDD/DVD/BDレコーダ等の記録再生装置、PC、サーバ装置、テレビジョン装置、ゲーム機器、デジタルカメラ、デジタルビデオカメラ、携帯電話機等の各種電化製品である。また、上記映像特徴とは、例えばパン、チルト、ズーム等のカメラ動作により生じる映像特徴や、フェード、カット等の映像編集により生じる映像特徴等である。また、視覚的な活性度とは、例えば各映像コンテンツ中の物体(人や物)の動きの大きさやスピードの度合い、シーンの切り替わりの頻度等を「活性(活発さ、アクティビティ)」として捉え、各映像コンテンツにおける当該活性の度合いを示したものをいう。また、ここで「分類する」とは、各映像コンテンツを複数のグループに(離散的に)分けるという概念のみならず、各映像コンテンツを活性度に応じて区別できる状態にするという概念も含むものとする。
この構成により、各映像コンテンツを、視覚的な活性度に応じて分類することができるため、ユーザは、大量の映像コンテンツから、当該視覚的な活性度を指標にして、例えば高揚した気分、落ち着いた気分等、気分に応じて所望のコンテンツを選択して視聴することができ、利便性が向上する。
上記電子機器において、前記検出手段は、複数種類の前記映像特徴を検出可能であり、前記分類手段は、前記各種類の映像特徴のうち、前記活性度の判定の基準にすべき少なくとも1種類の映像特徴を選択する選択手段と、前記選択された映像特徴を基に、前記各映像コンテンツの前記活性度を判定する判定手段とを有していてもよい。
これにより、複数の映像特徴から、活性度を判定する基準となる映像特徴を選択することで、上記活性度をより精度よく判定し、各コンテンツをより精度よく分類することができる。
上記電子機器において、前記選択手段は、前記各映像コンテンツのうち第1の映像コンテンツを、前記各種類の映像特徴毎に所定数の集合に分類し、分類された各集合に含まれる前記第1の映像コンテンツの数の比を基に、前記選択すべき映像特徴を学習する学習手段を有し、前記判定手段は、前記選択された映像特徴を基に、前記各映像コンテンツのうち、前記第1の映像コンテンツ以外の第2の映像コンテンツの前記活性度を判定するようにしてもよい。
これにより、第1の映像コンテンツが複数の集合に偏りなく分類されたか否かを判断することで、第2の映像コンテンツの上記活性度の判定に利用すべき最適な映像特徴を学習することができ、上記活性度の判定の精度をより向上させることができる。なお、上記学習手段としては、例えばK-means法やファジーC-means法等のデータ・クラスタリング手法や決定木等による分類手法を用いることができる。
上記電子機器において、前記検出手段は、前記各映像特徴を所定の特徴値として検出し、前記判定手段は、前記学習の結果選択された映像特徴の前記特徴値を変数として、前記第2の映像コンテンツを、前記活性度の高い映像コンテンツと前記活性度の低い映像コンテンツとに判別するための所定の判別関数を生成し、当該判別関数の値を基に前記活性度を判定するようにしても構わない。
これにより、生成された判別関数を用いた判別分析を行うことにより、上記活性度を、上記判別関数の値としてアナログ的に算出することができるため、映像コンテンツをより細かく分類し、ユーザの選択の幅を広げることができる。
また、この場合、前記判定手段は、前記判別関数の値が正負のいずれの値か、及び前記判別関数の値の絶対値が少なくとも1つの所定の閾値を超えるか否かに応じて前記第2の映像コンテンツを複数のレベルに分類してもよい。
これにより、上記学習手段において分類された集合の数に関わらず、各映像コンテンツを段階的に分類することができる。
上記電子機器は、前記各映像コンテンツを前記判定された活性度とともに記憶する記憶手段と、前記記憶された各映像コンテンツの再生を入力させるためのコンテンツリストを、前記判定された各映像コンテンツの各活性度を識別する識別情報とともに表示するよう制御する表示制御手段とを更に具備していてもよい。
これにより、ユーザは、上記各活性度を示す識別情報を指標としてコンテンツリスト中から所望の映像コンテンツを選択して再生させることができる。なお、「表示するよう制御する」とは、当該電子機器が、上記コンテンツリストを、当該電子機器が有する表示部に表示させる場合のみならず、当該電子機器に外部接続された表示装置に表示させる場合も含む概念である。また、当該電子機器をWebサーバとして構成した場合には、上記「表示するよう制御する」処理は、当該Webサーバに接続されたPC等のクライアント機器が実行するブラウザ上で上記コンテンツリストを表示させるようWebページを送信する処理も含む。更に、当該電子機器がWebサーバとして機能する場合には、ユーザ側のPC等の機器にインストールされたブラウザにより、当該ユーザの機器が有する、または当該機器に接続された表示装置に上記コンテンツリストを表示させる場合も含む。また識別情報とは、画像情報や文字情報等である。また、上記コンテンツリストは、各映像コンテンツのサムネイル画像のリストとして表示されても構わない。
この場合、前記表示制御手段は、前記識別情報として、前記各活性度に応じた数の所定の記号を表示するよう制御してもよい。
ここで所定の記号とは、例えば星形、円形、矩形等のあらゆる形状の記号である。これにより、上記各映像コンテンツの活性度をユーザに分かりやすく提示することができる。
またこの場合、前記表示制御手段は、前記識別情報として、最大活性度に対する各活性度の割合を示す画像を表示させるよう制御してもよい。
ここで、上記割合を示す画像は、例えば棒グラフ状や円グラフ状に表示される。これにより、各映像コンテンツの活性度をより細かく提示することができる。
更に、前記表示制御手段は、前記識別情報として、各映像コンテンツを再生可能に示すサムネイル画像を、前記活性度に応じてその明暗を変更して表示するよう制御しても構わない。
この場合、活性度の高い映像コンテンツのサムネイル画像ほど明るく表示させてもよいし、活性度の低い映像コンテンツのサムネイル画像ほど明るく表示させてもよい。また、サムネイル画像の枠部分の色を活性度に応じて変更すること等により活性度を示しても構わない。
また、上記電子機器は、前記判定された活性度を基に前記映像コンテンツを検索する検索手段を更に具備し、前記表示制御手段は、前記検索の結果として、所定の活性度を有する前記映像コンテンツの前記コンテンツリスト及び識別情報を表示するよう制御しても構わない。
これにより、活性度を検索条件として各映像コンテンツを検索することができる。例えば、ユーザに活性度を選択させて、当該活性度に応じた映像コンテンツを抽出して表示することができる。
本発明の他の観点に係るコンテンツ分類方法は、複数のフレームで構成される複数の映像コンテンツの各フレームをそれぞれ比較して、当該各映像コンテンツ中から、カメラ動作または映像編集により生じる映像特徴を検出し、前記検出された映像特徴を基に、前記各映像コンテンツに含まれる映像の視覚的な活性度をそれぞれ判定し、当該判定された各活性度を基に、前記各映像コンテンツを分類するものである。
本発明の更に別の観点に係るプログラムは、電子機器に、複数のフレームで構成される複数の映像コンテンツの各フレームをそれぞれ比較して、当該各映像コンテンツ中から、カメラ動作または映像編集により生じる映像特徴を検出するステップと、前記検出された映像特徴を基に、前記各映像コンテンツに含まれる映像の視覚的な活性度をそれぞれ判定し、当該判定された各活性度を基に、前記各映像コンテンツを分類するステップとを実行させるためのものである。
以上のように、本発明によれば、大量の映像コンテンツを、ユーザの気分に応じて選択可能なように適切に分類することができる。
以下、本発明の実施の形態を図面に基づき説明する。
図1は、本発明の一実施形態に係る記録再生装置100の構成を示した図である。
同図に示すように、記録再生装置100は、CPU(Central Processing Unit)1、RAM(Random Access Memory)2、操作入力部3、映像特徴検出部4、クラスタリング処理部20、アクティビティ判定部40、デジタルチューナ5、IEEE1394インタフェース6、Ethernet(登録商標)/無線LAN(Local Area Network)インタフェース7、USB(Universal Serial Bus)インタフェース8、メモリカードインタフェース9、HDD10、光ディスクドライブ11、バッファコントローラ13、セレクタ14、デマルチプレクサ15、AV(Audio/Video)デコーダ16、OSD(On Screen Display)17、映像D/A(Digital/Analog)コンバータ18及び音声D/Aコンバータ19を有している。
CPU1は、必要に応じてRAM2等に適宜アクセスし、記録再生装置100の各ブロック全体を制御する。RAM2は、CPU1の作業用領域等として用いられ、OS(Operating System)やプログラム、処理データ等を一時的に保持するメモリである。
操作入力部3は、ボタン、スイッチ、キー、タッチパネルや、リモートコントローラ(図示せず)から送信される赤外線信号の受光部等で構成され、ユーザの操作による各種設定値や指令を入力してCPU1へ出力する。
デジタルチューナ5は、CPU1の制御に従って、図示しないアンテナを介してデジタル放送の放送番組の放送信号を受信し、特定のチャンネルの放送信号を選局及び復調する。この放送信号は、セレクタ14を介してデマルチプレクサ15に出力され再生させたり、バッファコントローラ13を介して、HDD10に記録されたり、光ディスクドライブ11に挿入された光ディスク12へ記録されたりする。
IEEE1394インタフェース6は、例えばデジタルビデオカメラ等の外部機器に接続可能である。例えばデジタルビデオカメラによって撮影され記録された映像コンテンツは、上記デジタルチューナ5によって受信された放送番組の映像コンテンツと同様に、再生されたり、HDD10や光ディスク12へ記録されたりする。
Ethernet(登録商標)/無線LANインタフェース7は、例えばPCや他の記録再生装置に記録された映像コンテンツを、Ethernet(登録商標)または無線LAN経由で入力する。この映像コンテンツも、再生や、HDD10または光ディスク12への記録が可能である。
USBインタフェース8は、USBを介して例えばデジタルカメラ等の機器やいわゆるUSBメモリ等の外部記憶装置から映像コンテンツを入力する。この映像コンテンツも、再生や、HDD10または光ディスク12への記録が可能である。
メモリカードインタフェース9は、例えばフラッシュメモリを内蔵したメモリカードと接続して、当該メモリカードに記録された映像コンテンツを入力する。この映像コンテンツも、再生や、HDD10または光ディスク12への記録が可能である。
HDD10は、放送信号として受信したまたは外部機器から入力した各種映像コンテンツを内蔵のハードディスクに記録し、また再生時にはそれらを当該ハードディスクから読み出し、バッファコントローラ13へ出力する。またHDD10は、OSや、後述する映像コンテンツからの映像特徴の検出処理、クラスタリング処理及びアクティビティ判定処理を実行するためのプログラム、その他の各種プログラム及びデータ等も格納する。なお、記録再生装置100は、これらOSや各種プログラム及びデータを、HDD10ではなく、フラッシュメモリ(図示せず)等の他の記録媒体に格納するようにしてもよい。
光ディスクドライブ11は、上記映像コンテンツ等を光ディスク12に記録し、また再生時にはそれらを読み出し、バッファコントローラ13へ出力する。光ディスク12は、例えばDVD、BD、CD等である。
バッファコントローラ13は、例えば上記デジタルチューナ5やその他の各種インタフェースから連続的に供給される映像コンテンツの、HDD10または光ディスク12への書き込みのタイミングやデータ量を制御し、当該映像コンテンツを断続的に書き込む。また、バッファコントローラ13は、HDD10や光ディスク12に記録された映像コンテンツの読み出しのタイミングやデータ量を制御し、断続的に読み出された映像コンテンツを、デマルチプレクサ15へ連続的に供給する。
セレクタ14は、上記デジタルチューナ5、各種インタフェース、HDD10及び光ディスクドライブ11のいずれかから入力される映像コンテンツを、CPU1からの制御信号に基づき選択する。
デマルチプレクサ15は、前記バッファコントローラ13から入力された、多重化された映像コンテンツを、映像信号と音声信号とに分離して、それらをAVデコーダ16へ出力する。
AVデコーダ16は、例えばMPEG(Moving Picture Expert Group)−2やMPEG−4等の形式でエンコードされた映像信号及び音声信号をそれぞれデコードして、映像信号をOSD17へ、また音声信号を音声D/Aコンバータ19へ出力する。
OSD17は、図示しないディスプレイに表示するためのグラフィックス等を生成して、上記映像信号との合成処理や切り替え処理を施し、処理後の映像信号を映像D/Aコンバータ18へ出力する。映像D/Aコンバータ18は、OSD17でグラフィック処理を施された映像信号をD/A変換によりNTSC(National Television Standards Committee)信号とし、図示しないディスプレイに出力して表示させる。
音声D/Aコンバータ19は、上記AVデコーダ16から入力された音声信号をD/A変換して、図示しないスピーカに出力して再生させる。
映像特徴検出部4は、AVデコーダ16によるデコード前の映像信号、または、デコード後の映像信号から、映像特徴を検出する。
クラスタリング処理部20は、上記映像特徴が検出された各映像コンテンツのうち、学習用の映像コンテンツを、当該映像特徴を基に所定数のクラスタに分類する。このクラスタリング処理の詳細については後述する。
アクティビティ判定部40は、上記学習結果、すなわちクラスタリング処理の結果を基に、各映像コンテンツの視覚的なアクティビティ(活性度)を判定する。ここでアクティビティとは、例えば各映像コンテンツ中の物体(人や物)の動きの大きさやスピードの度合い、シーンの切り替わりの頻度等を「活性(活発さ、アクティビティ)」として捉え、各映像コンテンツにおける当該活性の度合いを示したものをいう。このアクティビティ判定処理の詳細についても後述する。
図2及び図3は、上記映像特徴について説明した図である。
図2(a)では、シーンS1〜S6へ進むに従ってカメラを左方向または右方向へ移動(パン)させて撮影した映像が示されている。図2(b)では、シーンS1〜S6へ進むに従ってカメラをズーム(ズームイン)させて撮影した映像が示されている。本実施形態では、このようなパン、チルト(図示せず)、ズームといった、カメラワークにより生じる映像特徴をカメラ動作系特徴と称する。
図3(a)では、シーンS3とS4との間のカット点faにてシーンが切り替わる様子が示されている。図3(b)では、シーンS1〜シーンS3へ進むに従って1つのシーンが徐々にフェードアウトし、代わってシーンS4〜シーンS6へ進むに従って別のシーンが徐々にフェードインしている様子が示されている。本実施形態では、このようなカット、フェード等の映像効果のように、映像の編集作業により生じる映像特徴を映像編集系特徴と称する。
映像特徴検出部4は、このようなカメラ動作系特徴及び映像編集系特徴を、後述する共通の信号処理系により検出する。そして、上記クラスタリング処理部20及びアクティビティ判定部40は、検出した各映像特徴を用いて、各映像コンテンツのアクティビティを判定し、当該アクティビティに応じて各映像コンテンツを分類する。なお、記録再生装置100は、当該映像特徴を用いて、例えばハイライトシーン生成、チャプタ生成等の処理を行うことも可能である。
図4は、上記カメラ動作系特徴について概念的に示した図である。
同図(a)は左パンを示しており、この場合、映像中の物体は右方向へ移動する。
同図(b)は右パンを示しており、この場合、映像中の物体は左方向へ移動する。
同図(c)は下チルトを示しており、この場合、映像中の物体は上方向へ移動する。
同図(d)は上チルトを示しており、この場合、映像中の物体は下方向へ移動する。
同図(e)はズームインを示しており、この場合、映像中の物体は拡大する。
同図(f)はズームアウトを示しており、この場合、映像中の物体は縮小する。
図5は、ズーム時の画像の変化量を概念的に示した図である。
映像コンテンツからカメラ動作系特徴を検出するには、映像コンテンツ中からブロックマッチングにより動きベクトルを検出する必要がある。しかし、上記図4に示すように、ズーム動作では、パン動作やチルト動作に比べて、動作中の画像の移動量が小さいため、その検出レベルも小さいと考えられる。したがって、従来のように1つのブロックによりブロックマッチングを行うと、ズームを検出できずに誤検出が発生する可能性がある。そこで、本実施形態においては、複数のブロックを組み合わせてブロックマッチングを行うことを考える。
ここで、図5の矢印dに示すように、ズームによる画像の変化は、放射状方向(斜め方向)における変化であるため、この変化量をXY方向に射影した場合、その変化量(矢印x及びy)はいずれも元の放射状方向の変化量に比べて小さくなる。したがって、1つのブロックと、そのXまたはY方向の他のブロックとを組み合わせてブロックマッチングを行うよりは、放射状方向の他のブロックと組み合わせてブロックマッチングを行う方が、マッチングの誤検出が改善されると考えられる。よって、本実施形態においては、映像特徴検出部4は、放射状方向のブロックを組み合わせてブロックマッチングを行う。この具体的処理については後述する。
ところで、最近の家庭用ビデオカメラには、いわゆる手振れ補正機能が搭載されたものも多いが、手振れ補正機能によって補正できる補正量には限界があるため、家庭用ビデオカメラで撮影した映像コンテンツには、少なからず手振れ映像が含まれる可能性が高い。また実際に、本発明者等は、家庭用ビデオカメラで撮影した映像と、放送番組のようにスタジオで撮影した映像とを実験により比較したところ、両者では映像の動きベクトルの振動量が大きく異なることを確認した。
図6は、上記実験結果を基に、手振れ映像を概念的に示した図である。同図に示すように、手振れ映像では、フレーム単位で見ると、パンやチルトがランダムに発生していることが分かる。したがって、映像コンテンツ中の所定区間におけるパンやチルトの時系列的変化の挙動、すなわち、動きベクトルの時系列的変化の挙動を検出することで、手振れを検出することができる。
そして、手振れ映像の有無または頻度を検出することで、放映コンテンツを記録した映像コンテンツと、家庭用ビデオカメラで撮影した映像コンテンツとを区別することが可能となる。記録再生装置100においては、多種多様なマルチメディアコンテンツを蓄積することが想定されるため、映像コンテンツを区別することは、その整理の際等において非常に有効であると考えられる。そこで、本実施形態において、映像特徴検出部4は、上記カメラ動作系特徴として、上記パン、チルト及びズームのほか、手振れを検出することとしている。この手振れ検出の具体的処理についても後述する。
図7は、上記映像特徴検出部4の具体的構成を示したブロック図である。
同図に示すように、映像特徴検出部4は、画像処理部21、1フレーム間メモリ部22、10フレーム間メモリ部23、20フレーム間メモリ部24、30フレーム間メモリ部25、これらメモリ部毎のマッチング処理部26、28、30及び32、フェード/カット処理部27、29、31及び33、動きベクトル処理部34、カメラ特徴判定部36及びフェード/カット判定部35を有する。
画像処理部21は、上記AVデコーダ16によりデコードされた映像コンテンツの、各フレームのベースバンド帯域の画像データ(具体的には、輝度信号Y、色差信号Cb及びCr)をフレーム番号順に入力し、当該画像データを基に、動きベクトル検出の対象となる参照画像領域及び動きベクトル検出の基準となる位置(以下、基準位置と称する)の設定、動きベクトルの探索領域の設定、及びブロックマッチング処理の基準となるブロック(以下、基準ブロックと称する)の抽出等の処理を行う。これらの処理の詳細については後述する。
なお、ベースバンド帯域で処理を行うのは、記録再生装置100で再生される映像コンテンツは、MPEGデータのほか、デジタル記録したDV(Digital Video)方式のデータ、あるいはアナログ記録したVHS(Video Home System)方式や8mm方式のデータ等、様々な方式の映像コンテンツが混在している場合が想定でき、これらの映像コンテンツからの映像特徴の抽出処理を、極力共通の信号処理系で行うためである。
1フレーム間メモリ部22、10フレーム間メモリ部23、20フレーム間メモリ部24、30フレーム間メモリ部25は、上記基準ブロックを抽出したフレーム(以下、基準フレームと称する)からそれぞれ1フレーム間隔、10フレーム間隔、20フレーム間隔、30フレーム間隔を置いた各フレームまでの各画像データとを蓄積する。勿論、フレーム間隔はこれらに限られるものではない。
マッチング処理部26、28、30及び32は、それぞれ、上記画像処理部21から入力する基準フレームと、各フレーム間メモリ部22〜25から入力する各フレーム(以下、探索フレームと称する)の各探索領域間で、ブロックマッチング処理を行い、その結果を動きベクトル処理部34へ出力する。ブロックマッチング処理では、探索フレーム内で、上記基準フレームの基準ブロックと同一形状のブロック(以下、探索ブロックと称する)を移動させながら、基準ブロックと探索ブロックとの類似度が最大となる位置を探索する。そして、各マッチング処理部26、28、30及び32は、上記基準位置から上記探索された位置までの動きベクトル量(すなわち、x方向(水平方向)及びy方向(垂直方向)における各移動量及び移動方向)を動きベクトル処理部34へ出力する。また、各マッチング処理部26、28、30及び32は、基準ブロックと探索ブロックとの間のY、Cb及びCrの残差値をそれぞれ各フェード/カット処理部27、29、31及び33へ出力する。これら処理の詳細についても後述する。
フェード/カット処理部27、29、31及び33は、それぞれ、上記各マッチング処理部26、28、30及び32から入力したマッチング後の各差分値を基に、フェード/カット評価値を生成し、フェード/カット判定部35へ出力する。この処理の詳細についても後述する。
なお、フェード/カット処理部27、29、31及び33は、上記画像処理部21から入力される上記基準ブロックと、各フレーム間メモリ部22〜25から入力される、上記ブロックマッチング処理に用いた各探索ブロックとの差分値を独自に算出するようにしても構わない。
動きベクトル処理部34は、上記各マッチング処理部26、28、30及び32から入力されたブロックマッチング処理の結果としての上記動きベクトル量を基に、例えば40フレーム等、30フレーム以上フレーム間隔を置いた位置における動きベクトル量を推定し、その推定動きベクトル量をカメラ特徴判定部36へ出力する。この処理の詳細についても後述する。
カメラ特徴判定部36は、上記動きベクトル処理部34から入力された推定動きベクトル量を基に、後述するアフィン変換モデルを用いた重回帰分析により、映像コンテンツ中のパン、チルト、ズーム及び手振れの各カメラ動作系特徴を判定し、判定結果をCPU1へ出力する。この処理の詳細についても後述する。
フェード/カット判定部35は、上記各フェード/カット処理部27、29、31及び33から入力されたフェード/カット評価値を基に、映像コンテンツ中のフェードまたはカットの各映像編集系特徴を判定し、CPU1へ出力する。
次に、以上のように構成された記録再生装置100の動作について説明する。
図8は、記録再生装置100が映像特徴を検出する際の処理の流れを示したフローチャートである。
同図に示すように、まず、映像特徴検出部4は、各映像特徴の検出フラグの初期設定を行う(ステップ41)。検出フラグとは、映像コンテンツ中から、上記パン、チルト、ズーム及び手振れの各カメラ動作系特徴と、フェード及びカットの各映像編集系特徴とがそれぞれ検出されたことを示すフラグである。各映像特徴の検出フラグは、それぞれDpan、Dtilt、Dzoom、Dbure、Dfade及びDcutで表され、それぞれのフラグ値を0にすることで各初期設定が行われる。
続いて、映像特徴検出部4は、上記画像処理部21、各フレーム間メモリ部22〜25及び各マッチング処理部26、28、30及び32、動きベクトル処理部34により、映像コンテンツ中の動きベクトルを検出する(ステップ42)。
ここで、この動きベクトル検出処理について詳述する。図9は、動きベクトル検出処理の流れを示したフローチャートである。
ところで、上述したように、動きベクトル検出処理は、上記基準フレームと所定フレーム間隔を置いた探索フレームとの間でそれぞれ探索領域を設定し、当該探索領域間でブロックマッチング処理を行うことで検出できる。しかし、例えば映像コンテンツを撮影したカメラの動きが早い場合には、上記フレーム間隔があまりに長いと、その間隔で映像の動きが頻繁に起きると想定できるため、検出分解能が低くなり、正確な動きベクトル検出ができなくなる。
また、カメラの動きが遅い場合に、上記フレーム間隔があまりに短いと、その間隔で検出される動きベクトルの検出値があまりに小さくなり、この場合も正確な動きベクトル検出ができなくなる。
上述したカメラの動きが早い場合には、上記基準ブロックが探索領域を超えて移動することも想定できる。しかし、検出過程で、探索範囲内であるか、探索範囲を超えたかを判断することはできない。
そこで、本実施形態においては、映像特徴検出部4は、各ブロックマッチングの検出点での移動量と、マッチングの残差値とから、探索の確からしさを推定し、確からしくないと判断できる場合には、その検出データは採用しないで、確からしい検出データのみを採用し、他のフレーム間隔のマッチングデータから、より長いフレーム間隔における推定動きベクトル量を推定する。そして、映像特徴検出部4は、この推定動きベクトル量を、映像特徴の検出に用いる動きベクトル量としている。
図9に示すように、まず、映像特徴検出部4は、上記確からしい検出データの数のカウンタ値mを0に設定する(ステップ91)。カウンタ値mの詳細については後述する。
続いて、映像特徴検出部4は、画像処理部21から入力された基準フレームと、上記各マッチング処理部26、28、30及び32により、上記各フレーム間メモリ部22〜25に記憶された探索フレームを用いて、1フレーム間隔、10フレーム間隔、20フレーム間隔及び30フレーム間隔の各フレーム間隔における動きベクトル検出処理を行う(ステップ92〜95)。この各処理の詳細については後述する。
続いて、映像特徴検出部4は、上記動きベクトル処理部34により、各フレーム間隔について検出した動きベクトルデータを基に、40フレーム間隔における動きベクトルを推定し(ステップ96)、この推定された動きベクトルデータを最終的な動きベクトルデータとしてカメラ特徴判定部36へ出力する(ステップ97)。この各処理の詳細についても後述する。
そして、映像特徴検出部4は、1つの映像コンテンツを構成する全てのフレームについて動きベクトルデータを出力したか否かを判断し、動きベクトルを検出すべきフレームがなくなるまで上記各ステップの処理を繰り返す(ステップ98)。
図10〜図13は、上記図9のステップ92〜95に示した各フレーム間隔における動きベクトル検出処理の詳細を示したフローチャートである。まず、上記ステップ92における1フレーム間隔での動きベクトル検出処理について説明する。
図10に示すように、まず、画像処理部21及びマッチング処理部26は、基準フレームと、当該基準フレームから1フレーム間隔を置いた探索フレームとの間でブロックマッチング処理を行う(ステップ921)。
ここで、このブロックマッチング処理の詳細について説明する。図14は、当該ブロックマッチング処理の流れを示したフローチャートである。
同図に示すように、まず、画像処理部21は、基準フレームに参照画像領域及び探索領域を設定する(ステップ101)。図15は、当該参照画像領域及び探索領域を設定する様子を示した図である。
同図に示すように、マッチング処理部26は、元画像(S)である基準フレーム71内に、動きベクトルの探索範囲を規定する探索領域72を設定し、当該探索領域72の内部に、動きベクトルの検出対象範囲として参照画像領域73を設定する。
そして、マッチング処理部26は、参照画像領域73を例えば8×8=64個の領域74に分割し、各領域の中心点を、動きベクトルの検出対象点Pn(n=0〜63)として設定する。
なお、基準フレーム71のサイズは例えば720×480(ピクセル)であるが、これに限られるものではない。また、元画像(S)を、上記基準フレーム71の縮小画像としても構わない。例えば、基準フレーム71が720×480(ピクセル)である場合、その1/4のサイズ(縦横各1/2)である360×240(ピクセル)の画像が元画像(s)とされ、この内部に上記探索領域72及び参照画像領域73が設定される。これにより、後のブロックマッチング処理において、その精度を低下させることなく、各マッチング処理部26、28、30及び32の負荷を低減することが可能となる。
14に戻り、画像処理部21は、動きベクトルの検出対象点Pnをn=0に設定し、当該P0についてのブロックマッチング処理の基準となる基準ブロックの設定を行う(ステップ102)。図16は、この基準ブロックの設定方法を示した図である。
同図に示すように、画像処理部21は、まず、上記基準フレーム71の中心を原点O(0,0)とした場合の、検出対象点Pn(この場合P0)の座標(xn,yn)を取得する(ステップ103)。続いて、画像処理部21は、所定の値anを設定する(ステップ104)。このanは、例えば以下で設定される基準ブロックの1辺の長さの1/2とされる。anの値は例えば4とされるが、これに限られるものではない。
続いて、画像処理部21は、図16(a)に示すように、基準フレーム71上で関数:Fn(x)=knx (kn=yn/xn)を想定し、上記設定した値anを用いて、当該関数における以下の2つの座標を求める(ステップ105)。
Pn1(xn-an, Fn(xn-an))
Pn2(xn+an, Fn(xn+an))
続いて、画像処理部21は、上記座標点Pn1を中心とする基準ブロックBn1を設定し(ステップ106)、この基準ブロックBn1をs×sの小ブロックbn1に分割する(ステップ107)。
続いて、画像処理部21は、上記座標点Pn2を中心とする基準ブロックBn2を設定し(ステップ108)、この基準ブロックBn1をs×sの小ブロックbn2に分割する(ステップ109)。
図16(b)に示すように、s=4の場合、基準ブロックBn1及びBn2は、それぞれ小ブロックb0〜b15により構成され、また同図(c)に示すように、各小ブロックbn1及びbn2は、例えば4つの画素データの平均値となっている。
ここで、この4つの画素データをそれぞれdn1、dn2、dn3及びdn4とすると、各小ブロックbn1及びbn2は、Y、Cb及びCrの3次元のベクトルデータとして考えることができる。これらの各データ成分を_y、_cb及び_crの添え字を付けて表現すると、例えば小ブロックbn1の各データ成分は次式で表現できる。
bn1_y = (dn1_y + dn2_y + dn3_y + dn4_y) / 4
bn1_cb = (dn1_cb + dn2_cb + dn3_cb + dn4_cb) /4
bn1_cr = (dn1_cr + dn2_cr + dn3_cr + dn4_cr) / 4
以上のように基準ブロックBn1及びBn2の設定が完了すると、各マッチング処理部26、28、30及び32による1フレーム間隔、10フレーム間隔、20フレーム間隔及び30フレーム間隔でのブロックマッチング処理が開始される。なお、これ以降は、マッチング処理部26による1フレーム間隔でのブロックマッチング処理を説明するが、他のマッチング処理部28、30及び32による各フレーム間隔でのブロックマッチング処理も同様である。
マッチング処理部26は、上記基準ブロックBn1及びBn2の各小ブロックbn1及びbn2に基づいて、ブロックマッチング処理を行う(ステップ110)。図17は、このブロックマッチング処理の様子を示した図である。同図(a)は基準フレーム71における基準ブロックBn1及びBn2(以下、2つの基準ブロックをまとめて基準ブロックBnとも称する)を示しており、同図(b)は探索フレーム75における探索ブロックBm1及びBm2(以下、2つの探索ブロックをまとめて探索ブロックBmとも称する)を示している。
これらの図に示すように、マッチング処理部26は、上記基準フレーム71から上記設定した2つの基準ブロックBnを抽出し、当該基準ブロックBnが、所定フレーム間隔(この場合1フレーム間隔)を置いた探索フレーム75内のどの位置に移動したかを、パターンマッチングにより検出する。すなわち、探索ブロックBmを探索フレーム75の上記探索領域72内で1画素ずつ移動させていき、上記基準ブロックBnの各小ブロックbnの上記Y、Cb及びCrの各データ成分の各ベクトル距離が最小となるような位置Pmを検出する。上記基準フレーム71の上記Pnから検出位置Pmまでの移動量Vn及び移動方向が動きベクトルMVとなる。また、マッチング処理部26は、上記移動量とともに基準ブロックBnと探索ブロックBmとのマッチング後の残差値も算出する。
マッチング処理部26は、検出対象点Pnについての動きベクトル検出が終了すると、nをインクリメントし(ステップ112)、nがnmax以上となるまで以上の処理を繰り返す(ステップ113)。本実施形態においては、nmaxはn=63である。
以上の処理により、基準ブロックBn1及びBn2は、基準フレーム71の中心から放射状方向に設定されることになる。すなわち、各ブロックBn1及びBn2は、基準フレーム71の中心を始点とする半直線上にそれぞれ中心を有するように設定される。このように、放射状方向にブロックを設定することで、上述したように、カメラ動作系特徴のうち、特にズームの動きベクトルの検出精度を格段に向上させることができる。また、2つのブロックを組み合わせてブロックマッチングを行うことで、従来のように1つのブロックによりブロックマッチングを行う場合に比べて、ズームのみならず、パンやチルトといったXY方向における動きベクトルの検出精度も向上させることができる。
マッチング処理部26と同様に、マッチング処理部28、30及び32も、それぞれ10フレーム間隔、20フレーム間隔及び30フレーム間隔の探索フレーム75を用いて上記動きベクトルの検出を行う。
ここで、上述したように、本実施形態においては、映像特徴検出部4は、動きベクトルの検出精度を向上させるため、検出された動きベクトルが確からしくないと判断された場合には、その検出データは採用しないこととしている。以下、この処理の詳細な説明として、上記図10に戻り、ステップ922からの処理を説明する。
上述したように、マッチング処理部26は、動きベクトルを探索するための探索領域72を設定するが、マッチング処理部26は、検出精度向上のために、この探索領域72とは別に、新たな探索範囲を設定する。この探索範囲は、検出対象点Pnから例えばx及びy方向にそれぞれ±8画素とする。すなわち、検出位置Pmが、検出対象点Pnから+方向または−方向に8未満で、かつ、上記マッチングの残差値が所定の閾値Eth未満であることを判定基準として、検出データが当該判定基準を超える場合には、その検出データは確からしくないデータとして、採用しないこととする。もちろん、探索範囲はこの数値に限られるものではない。
ここで、上記1フレーム間隔における動きベクトル検出でのx方向(水平方向)及びy方向(垂直方向)における移動量をそれぞれV1xn、V1ynとし、残差値をE1nとする。
図10に示すように、マッチング処理部26は、1フレーム間のブロックマッチング処理により検出した移動量V1xn、V1yn及び残差値E1nを検出する(ステップ922)。そして、マッチング処理部26は、上記判定基準により、
|V1xn|<8、かつ、|V1yn|<8、かつ、E1n<Eth
であるか否かを判断する(ステップ923、924)。上記各値が判定基準を満たす場合には、マッチング処理部26は、便宜的な重み係数1を1=1とし、上記確からしい検出データの数のカウンタ値mをm=m+1とする(ステップ925)。また、上記各値が判定基準を満たさない場合には、マッチング処理部26は、1=0とする(ステップ926)。そして、マッチング処理部26は、上記検出した移動量V1xn、V1yn及び残差値E1nと共に、上記重み係数K1及びカウンタ値mを動きベクトル処理部34へ出力する。
次に、10フレーム間隔における動きベクトル検出処理のうち、ブロックマッチング処理後の処理を説明する。ここで、上記10フレーム間隔における動きベクトル検出でのx方向(水平方向)及びy方向(垂直方向)における移動量をそれぞれV10xn、V10ynとし、残差値をE10nとする。
図11に示すように、マッチング処理部28は、10フレーム間のブロックマッチング処理により検出した移動量V10xn、V10yn、及び残差値E10nを検出する(ステップ932)。そして、マッチング処理部28は、上記判定基準により、
|V10xn|<8、かつ、|V10yn|<8、かつ、E10n<Eth
であるか否かを判断する(ステップ933、934)。上記各値が判定基準を満たす場合には、マッチング処理部28は、便宜的な重み係数10を10=1とし、上記確からしい検出データの数のカウンタ値mをm=m+1とする(ステップ935)。また、上記各値が判定基準を満たさない場合には、マッチング処理部28は、10=0とする(ステップ936)。そして、マッチング処理部28は、上記検出した移動量V10xn、V10yn及び残差値E10nと共に、上記重み係数K10及びカウンタ値mを動きベクトル処理部34へ出力する。
次に、20フレーム間隔における動きベクトル検出処理のうち、ブロックマッチング処理後の処理を説明する。ここで、上記20フレーム間隔における動きベクトル検出でのx方向(水平方向)及びy方向(垂直方向)における移動量をそれぞれV20xn、V20ynとし、残差値をE20nとする。
図12に示すように、マッチング処理部30は、20フレーム間のブロックマッチング処理により検出した移動量V20xn、V20yn、及び残差値E20nを検出する(ステップ942)。そして、マッチング処理部30は、上記判定基準により、
|V20xn|<8、かつ、|V20yn|<8、かつ、E20n<Eth
であるか否かを判断する(ステップ943、944)。上記各値が判定基準を満たす場合には、マッチング処理部30は、便宜的な重み係数20を20=1とし、上記確からしい検出データの数のカウンタ値mをm=m+1とする(ステップ945)。また、上記各値が判定基準を満たさない場合には、マッチング処理部30は、20=0とする(ステップ946)。そして、マッチング処理部30は、上記検出した移動量V20xn、V20yn及び残差値E20nと共に、上記重み係数K20及びカウンタ値mを動きベクトル処理部34へ出力する。
次に、30フレーム間隔における動きベクトル検出処理のうち、ブロックマッチング処理後の処理を説明する。ここで、上記30フレーム間隔における動きベクトル検出でのx方向(水平方向)及びy方向(垂直方向)における移動量をそれぞれV30xn、V30ynとし、残差値をE30nとする。
図13に示すように、マッチング処理部32は、30フレーム間のブロックマッチング処理により検出した移動量V30xn、V30yn、及び残差値E30nを検出する(ステップ952)。そして、マッチング処理部32は、上記判定基準により、
|V30xn|<8、かつ、|V30yn|<8、かつ、E30n<Eth
であるか否かを判断する(ステップ953、954)。上記各値が判定基準を満たす場合には、マッチング処理部32は、便宜的な重み係数30を30=1とし、上記確からしい検出データの数のカウンタ値mをm=m+1とする(ステップ955)。また、上記各値が判定基準を満たさない場合には、マッチング処理部32は、30=0とする(ステップ956)。そして、マッチング処理部32は、上記検出した移動量V30xn、V30yn及び残差値E30nと共に、上記重み係数K30及びカウンタ値mを動きベクトル処理部34へ出力する。
次に、上記図9のステップ96における、動きベクトル処理部34による動きベクトル推定処理の詳細について説明する。図18は、この動きベクトル推定処理の流れを示したフローチャートである。ここでは、40フレーム間における動きベクトルを推定するために、各検出フレーム間隔と移動量とから、便宜的な勾配を求めることを考える。図19は、この勾配について示した図である。
図18に示すように、動きベクトル処理部34は、まず、上記各マッチング処理部26、28、30及び32からそれぞれ入力されたカウンタ値mを合計し、その結果が1以上であるか否かを判断する(ステップ961)。カウンタ値の合計が1以上の場合(Yes)、動きベクトル処理部34は、上記各フレーム間での動きベクトルの勾配を算出する(ステップ962)。
ここで、まず、1フレーム間隔をL1tとし、このL1tと上記移動量V1xnとから、この1フレーム間隔における動きベクトルの勾配T1xnを求める場合について説明する。
この検出フレーム間隔L1tは、基準フレーム71間のpts(Presentation Time Stamp)時間間隔p0と、当該基準フレーム71から1フレーム後の探索フレーム75間のpts時間間隔p1tとの比として、次式で算出することができる。
L1t=p1t/p0
これは、映像コンテンツによって、フレームレートが異なる場合が想定できることから、上記勾配を算出する場合に、1フレーム間隔の時間をいわば正規化するためである。
よって、x方向における移動量についての勾配は、次式で求められる。
T1xn=V1xn/L1t
また、y方向における移動量についての勾配は、次式で求められる。
T1yn=V1yn/L1t
同様に、10フレーム間隔をL10tとし、このL10tと上記移動量V10xnとから、この10フレーム間隔における動きベクトルの勾配T10xnを求める場合について説明する。
この検出フレーム間隔L10tは、基準フレーム71間のpts時間間隔p0と、当該基準フレーム71から10フレーム後の探索フレーム75間のpts時間間隔p10tとの比として、次式で算出することができる。
L10t=p10t/p0
よって、x方向における移動量についての勾配は、次式で求められる。
T10xn=V10xn/L10t
また、y方向における移動量についての勾配は、次式で求められる。
T10yn=V10yn/L10t
同様に、20フレーム間隔をL20tとし、このL20tと上記移動量V20xnとから、この20フレーム間隔における動きベクトルの勾配T20xnを求める場合について説明する。
この検出フレーム間隔L20tは、基準フレーム71間のpts時間間隔p0と、当該基準フレーム71から20フレーム後の探索フレーム75間のpts時間間隔p20tとの比として、次式で算出することができる。
L20t=p20t/p0
よって、x方向における移動量についての勾配は、次式で求められる。
T20xn=V20xn/L20t
また、y方向における移動量についての勾配は、次式で求められる。
T20yn=V20yn/L20t
同様に、30フレーム間隔をL30tとし、このL30tと上記移動量V30xnとから、この30フレーム間隔における動きベクトルの勾配T30xnを求める場合について説明する。
この検出フレーム間隔L30tは、基準フレーム71間のpts時間間隔p0と、当該基準フレーム71から30フレーム後の探索フレーム75間のpts時間間隔p30tとの比として、次式で算出することができる。
L30t=p30t/p0
よって、x方向における移動量についての勾配は、次式で求められる。
T30xn=V30xn/L30t
また、y方向における移動量についての勾配は、次式で求められる。
T30yn=V30yn/L30t
以上から、x方向及びy方向について、勾配の平均Tavex(n)及びTavey(n)は、上記重み係数の合計(K1+K10+K20+K30)>0の場合、それぞれ次式で求めることができる。
Tavex(n)=(K1 T1xn + K10 T10xn + K20 T20xn + K30 T30xn) / (K1 + K10 + K20 + K30)
Tavey(n)=(K1 T1yn + K10 T10yn + K20 T20yn + K30 T30yn) / (K1 + K10 + K20 + K30)
また、(K1+K10+K20+K30)=0の場合、Tavex(n)及びTavey(n)は、それぞれ次式の通りとなる。
Tavex(n)=0
Tavey(n)=0
次に、動きベクトル処理部34は、上記算出した勾配平均を用いて、便宜的に40フレーム間隔における動きベクトルを推定する(ステップ963)。具体的には、動きベクトル処理部34は、上記算出した勾配平均に、フレーム間隔を乗算することで、上記図19で示した等価的な移動量を算出することができる。すなわち、40フレーム間隔における推定動きベクトル(推定移動量)は、x方向、y方向についてそれぞれ次式により求めることができる。
40×Tavex(n)
40×Tavey(n)
なお、この勾配の計算では、上記図19に示したように原点を通る直線(y=ax)を全てのフレーム間隔の場合で仮定しているため、勾配の算出値はあくまで近似的なものとなる。
動きベクトル処理部34は、この推定動きベクトルを上記検出対象点Pnにおける動きベクトルとしてカメラ特徴判定部36へ出力する(図9のステップ97)。また、上記ステップ961において、カウンタ値mの合計が0である場合には(No)、動きベクトル処理部34は、動きベクトルは0に設定し(ステップ964)、カメラ特徴判定部36へ出力する(図9のステップ97)。この出力された動きベクトルが、後述する重回帰分析処理に用いられる。
以上のように、動きベクトルの検出にあたり、上記判定基準を設定して、当該判定基準を満たさない検出データ、すなわち確からしくない検出データを採用しないこととしたため、動きベクトル検出の精度をより向上させることができる。また、上記各フレーム間隔における動きベクトル検出データに基づいて、検出フレーム間隔よりも大きいフレーム間隔の動きベクトルを推定することで、検出データの範囲(ダイナミックレンジ)を広げることができ、単に検出データをスケーリングする場合に比べて、データの分解能を改善することができる。
図8に戻り、映像特徴検出部4は、上記動きベクトル処理部34から出力された動きベクトルデータを基に、カメラ特徴判定部36により、重回帰分析処理を行い(ステップ43)、アフィン係数を算出する(ステップ44)。ここで、この重回帰分析処理によりアフィン係数を算出するためのアフィン変換モデルについて説明する。
図20は、アフィン変換モデルを示した図である。アフィン変換モデルは、3次元オブジェクトの平行移動、拡大/縮小、回転を、行列を用いた座標変換処理として記述するためのモデルである。上記パン、チルト、ズームといったカメラ動作系特徴は、上記基準フレーム71内の物体の平行移動、拡大/縮小であると考えられるため、アフィン変換モデルを用いることで、カメラ動作系特徴を記述することが可能となる。
ここで、映像コンテンツにおいて、フレーム間隔が大きくない場合には、回転の特徴については、回転角θが小さいものとして、以下の近似処理を行うことができる。
sinθ≒θ
cosθ≒1
したがって、アフィン変換モデルは、図20に示すように変形することができる。そして、上記検出した動きベクトルから、このアフィン変換モデルを用いて各係数を求めることで、カメラ動作系特徴を検出することができる。すなわち、パン、チルト、ズームに対して、所定の閾値Pth、Tth及びZthを設定しておき、上記検出された動きベクトルから処理した各アフィン係数と比較することで、各カメラ動作系特徴を検出することができる。
図21は、重回帰分析によりアフィン係数を求める処理を示した図である。同図に示すように、カメラ特徴判定部36は、説明変数を上記基準フレーム71における検出対象点Pnのx、y座標(xn,yn)とし、説明変数(目的変数)を、上記探索フレーム75における動きベクトルの検出位置Pmのx、y座標(xm,ym)として、重回帰分析処理を行い、パン、チルト、ズームの各係数Px、Py、Zxを求める(ステップ44)。
図8に戻り、カメラ特徴判定部36は、上記算出したアフィン係数のうち、パン係数Pxを入力する(ステップ45)。そして、カメラ特徴判定部36は、当該Pxが、上記閾値Pthよりも大きいか否かを判定し(ステップ46)、Pthよりも大きい場合には(Yes)、パン検出フラグDpan=1とし(ステップ47)、Pth以下の場合には(No)、パン検出フラグDpan=0とする(ステップ48)。
続いて、カメラ特徴判定部36は、上記算出したアフィン係数のうち、チルト係数Pyを入力する(ステップ49)。そして、カメラ特徴判定部36は、当該Pyが、上記閾値Tthよりも大きいか否かを判定し(ステップ50)、Tthよりも大きい場合には(Yes)、チルト検出フラグDtilt=1とし(ステップ51)、Tth以下の場合には(No)、チルト検出フラグDtilt=0とする(ステップ52)。
続いて、カメラ特徴判定部36は、上記算出したアフィン係数のうち、ズーム係数Zx及びZyを入力する(ステップ53)。そして、カメラ特徴判定部36は、当該ZxまたはZyが、上記閾値Zthよりも大きいか否かを判定し(ステップ54)、少なくとも一方がZthよりも大きい場合には(Yes)、ズーム検出フラグDzoom=1とし(ステップ55)、いずれもZth以下の場合には(No)、ズーム検出フラグDzoom=0とする(ステップ56)。
なお、カメラ特徴判定部36は、パン、チルト、ズームの各カメラ動作系特徴については、それぞれ左パン/右パン、左チルト/右チルト、ズームイン/ズームアウトをそれぞれ区別して検出するようにしても構わない。この区別は、アフィン係数の正負の符号を参照することで容易に行うことができる。
続いて、カメラ特徴判定部36は、パン係数Px及びチルト係数Pyの時系列解析を行うことで、手振れを判定する(ステップ57)。図22は、手振れ判定処理について示した図である。
カメラ特徴判定部36は、図22に示すように、映像コンテンツ中の所定区間(t0〜t1、t1〜t2、t2〜t3、t3〜t4)毎のアフィン係数から算出した、パン係数Px、チルト係数Pyの分散と、所定区間の平均値レベルとの交差回数とで手振れを判定することができる。所定区間としては、例えば0.5秒〜5秒程度の時間長が設定される。
例えば、同図のt0〜t1の区間においては、PxまたはPyは、平均レベルの値と12回交差している。カメラ特徴判定部36は、この交差回数の閾値をThcrとし、交差回数がThcrより大きく、PxまたはPyの上記各所定区間での分散値が所定の閾値Thvより大きいか否かを判定する(ステップ58)。
ここで、所定区間毎のPx及びPyのデータ数をN、各データをPx(n)、Px(y)、それらの各平均値をPxave、Pyaveとすると、Px、Pyの分散値Pxvari、Pyvariは、それぞれ次式で求めることができる。
Pxvari = (1/N) Σ ((Pxave −Px(n))×(Pxave −Px(n)) )
Pyvari = (1/N) Σ ((Pyave −Py(n))×(Pyave −Py(n)) )
交差回数及び分散値がいずれも各閾値よりも大きい場合には(Yes)、カメラ特徴判定部36は、上記所定区間の映像は手振れ映像であると判定して手振れ検出フラグDbure=1とし(ステップ59)、交差回数及び分散値の少なくとも一方が閾値以下の場合には(No)、手振れ検出フラグDbure=0とする(ステップ60)。
次に、映像特徴検出部4は、フェード及びカットの検出処理を行う。
まず、フェード/カット処理部27、29、31及び33の処理について説明する。
フェード/カット処理部27、29、31及び33は、それぞれ、上記各マッチング処理部26、28、30及び32から、マッチング処理後の各残差値E1n、E10n、E20n及びE30nを入力し、これらの各残差値を基に、フェード/カット評価値を生成し、フェード/カット判定部35へ出力する(ステップ61)。
ここで、フェード/カット評価値Hは、上記残差値をEn(n=0〜63)とすると、次式で求めることができる。
63
H= ΣEn
n=0
したがって、各フェード/カット処理部27、29、31及び33は、上記各マッチング処理部26、28、30及び32からの各残差値E1n、E10n、E20n及びE30nを、それぞれn=63となるまで、すなわち、基準フレーム71の全ての検出対象点P0〜P63についての残差値が入力されるまで入力し、それぞれそれらの総和を算出する。
図23及び図24は、上記フェード/カット評価値の算出結果と、フレーム経過との関係を、上記フレーム間隔毎に示したグラフである。図23は、カット点が含まれる場合のグラフを示し、図24は、フェードが含まれる場合のグラフを示している。
フェード/カット判定部35は、上記図23及び図24に示されるフェード/カット評価値の値を基に、フェード及びカットの判定を行う(ステップ62)。すなわち、フェード/カット判定部35は、フレーム経過に伴うフェード/カット評価値の変化が急峻な場合(ステップ63のYes)には、カットであると判定してカット検出フラグDcut=1とする(ステップ65)。また、フェード/カット判定部35は、フレーム経過に伴うフェード/カット評価値の変化が緩やかである場合(ステップ64のYes)には、フェードであると判定してフェード検出フラグDfade=1とする(ステップ66)。そのどちらとも判定できない場合(ステップ64のNo)には、フェード/カット判定部35は、カット検出フラグDcut=0、フェード検出フラグDfade=0とする(ステップ67)。
具体的には、フェード/カット判定部35は、1フレーム間隔におけるフェード/カット評価値の変化を解析し、図23のグラフaに示すようなピーク特性が検出される場合には、そのピーク点をカット点と判定する。
また、フェード/カット判定部35は、上記ピーク特性が検出されない場合には、図24に示すように、所定の時刻tにおいて、1フレーム間隔についてのフェード評価値(グラフa)と10フレーム間隔についてのフェード評価値(グラフb)との差分Va、10フレーム間隔についてのフェード評価値と20フレーム間隔についてのフェード評価値(グラフc)との差分Vb、20フレーム間隔についてのフェード評価値と30フレーム間隔についてのフェード評価値(グラフd)との差分Vcをそれぞれ算出する。
図24に示すように、フェードの場合、映像は徐々に変化していくため、フェード/カット評価値はフレーム間隔によってその変化量に違いが生じ、それにより上記Va、Vb、Vcの各値は全て正の値かつ比較的近い数値として顕著に現れる。一方、カットの場合は、図23に示すように、Va、Vb、Vcの値に大きな差が生じ、また負の値となる場合もある。したがって、フェード/カット判定部35は、このVa、Vb及びVcを解析することで、フェードか否かを判定することができる。
なお、各フェード/カット処理部27、29、31及び33は、上述したように、上記マッチング処理部26、28、30及び32から、マッチング処理後の各残差値を入力するのではなく、画像処理部21から入力される基準ブロックBnと、各フレーム間メモリ部22〜25から入力される、上記ブロックマッチング処理に用いた探索ブロックBmとを用いて、独自にフェード/カット評価値を算出するようにしても構わない。具体的には、各フェード/カット処理部27、29、31及び33は、上記基準ブロックBn及び探索ブロックBmの各Y、Cb、Crのデータ毎の差分を上記検出対象点Pn毎に検出し、当該差分の、検出対象点P0〜P63についての総和を上記フェード/カット評価値として算出する。この場合の差分は、上記基準ブロックBn1とBn2とを合成したデータと、上記探索ブロックBm1とBm2とを合成したデータとを比較することで算出される。しかしながら、上述のようにブロックマッチング処理後の各残差値を利用する方が、当然ながらフェード/カット処理部27、29、31及び33の負荷は低くて済む。
図25は、上記カメラ特徴判定部36及びフェード/カット判定部35により判定した各映像特徴の判定結果を示した表である。CPU1は、この表と同等のデータを例えばRAM2やHDD10へ記憶するよう制御する。
なお、上記図7においては、上記映像特徴検出部4を、各フレーム間メモリ部22〜25を直列接続することで構成していたが、各フレーム間メモリ部22〜25を並列接続して映像特徴検出部4を構成しても構わない。図26は、この場合の映像特徴検出部4の構成を示した図である。このように構成しても、上記直列接続した場合と同様の処理を実行し、同様の効果を得ることができる。
次に、記録再生装置100が、以上のように映像特徴を検出された映像コンテンツを、そのアクティビティに応じて分類する処理について説明する。
図27は、記録再生装置100が映像コンテンツをアクティビティに応じて分類する処理の流れを示したフローチャートである。
同図に示すように、まず、クラスタリング処理部20は、学習処理としてのクラスタリング処理の実行回数をカウントするカウンタ値n及びmを0に初期化する(ステップ271)。そして、クラスタリング処理部20は、上記HDD10に蓄積された映像コンテンツの中から、学習用の映像コンテンツを選択する(ステップ272)。この学習用コンテンツとしては、例えば全映像コンテンツ中の20%程度の映像コンテンツがランダムで選択されるが、勿論この割合に限られるものではない。上記カウンタ値n及びmは、異なる学習用コンテンツを用いて学習処理を実行する場合に各処理における各カウンタ値を区別するためのものである。学習用コンテンツを選択して学習処理を最初に実行する場合には、カウンタ値nが設定され、その後、学習用コンテンツを選択しなおして再度学習処理を実行する場合には、カウンタ値mが設定される。
続いて、クラスタリング処理部20は、上記選択した学習用コンテンツをクラスタリングする際の基準となる映像特徴種別を選択する(ステップ273)。映像特徴種別とは、上記カメラ動作系特徴であるパン、チルト、ズーム、上記映像編集系特徴であるフェード、カットをいう。パン、チルト、ズームといったカメラ動作系特徴は、各映像コンテンツ中の映像の動きを示しており、このカメラ動作系特徴が多く見られるほど映像の動きが激しく、アクティビティの高い映像コンテンツであると言える。また、フェード、カットといった映像編集系特徴は、各映像コンテンツ中のシーンの切り替わりを示しており、この映像編集系特徴が多く見られるほどシーンの切り替わりが激しく、アクティビティの高い映像コンテンツであると言える。したがって、記録再生装置100は、上記各映像特徴を用いて各映像コンテンツのアクティビティを判定することとしている。
続いて、クラスタリング処理部20は、当該選択した映像特徴種別に基づいて、学習用コンテンツをクラスタリングする。具体的には、クラスタリング処理部20は、例えば上記映像特徴検出部4により算出された各映像コンテンツのパン係数、チルト係数、ズーム係数、フェード/カット評価値の、各映像コンテンツ全体における各平均値(以下、映像特徴値と称する)を基にクラスタリングする。クラスタリング手法としては、例えばK-means法が用いられる。当該K-means法を用いた場合、クラスタ数Kは例えば3個とされる。
続いて、クラスタリング処理部20は、上記クラスタリング処理により分類された各クラスタを評価し(ステップ275)、クラスタリング処理がうまくいったか否かを判断する(ステップ276)。例えば上記K=3の場合、第1のクラスタ(アクティブ)と、当該第1のクラスタとは全く特徴の異なる第2のクラスタ(アクティブでない)と、当該第1のクラスタ及び第2のクラスタの中間的な特徴を有する第3のクラスタが生成される。クラスタリング処理部20は、この第1〜第3の各クラスタに属する映像コンテンツの数を検出し、例えば第3のクラスタに属する映像コンテンツ数の、上記学習用コンテンツ全体の数に対する割合が所定割合(例えば1/3)以下である場合には、クラスタリング処理がうまくいったと判断する。また、クラスタリング処理部20は、第3のクラスタに属する映像コンテンツの数が、第1及び第2のクラスタに属する各映像コンテンツの数に比べて少ない場合に、クラスタリング処理がうまくいったと判断してもよい。このように判断するのは、第3のクラスタに属する、中間的な特徴を有する映像コンテンツの数が多いと、後述する判別分析によりアクティビティを判定してもその結果をユーザに効果的な形で提示できないため、各映像コンテンツを適切に分類できるか否かを予め判断しておく必要があるからである。
例えば、学習用コンテンツの数が100個の場合、第1、第2及び第3のクラスタに属する各映像コンテンツ数が順に40個、40個、20個の場合にはクラスタリング処理はうまくいったと判断されるが、順に20個、20個、60個の場合にはクラスタリング処理はうまくいかなかったと判断される。
クラスタリング処理部20は、上記ステップ276において、上記クラスタリング処理がうまくいかなかったと判断した場合(No(a))には、上記カウンタ値nを1だけインクリメントし(ステップ277)、当該カウンタ値nが所定の閾値nthを越えたか否かを判断する(ステップ278)。
上記ステップ278において、上記カウンタ値nが閾値nthを越えていないと判断された場合(No)には、クラスタリング処理部20は、上記ステップ272で選択された学習用コンテンツと同一の映像コンテンツについて、上記ステップ273〜275の学習処理を再度繰り返す。このとき、ステップ273においては、前回選択された映像特徴種別とは異なる組み合わせの映像特徴種別が選択される。例えば、前回の学習処理でパン及びチルトの各映像特徴が選択された場合には、今回の学習処理においては、パン及びチルトのうち少なくとも1つの映像特徴種別が、ズーム、フェード、カットの各映像特徴のうちの少なくとも1つに変更される。これにより、どの映像特徴を用いれば各映像コンテンツをうまく分類できるかを判断することができる。
一方、上記ステップ278において、上記カウンタ値nが閾値nthを越えたと判断された場合(Yes)には、クラスタリング処理部20は、クラスタリング処理がうまくいかなかった旨の警告情報をディスプレイに表示させ(ステップ279)、更に、再度学習処理を行うか否かをディスプレイを介してユーザに選択させる(ステップ281)。
ユーザにより再度学習処理を行うことが選択された場合(ステップ281のYes)には、上記カウンタ値mを1だけインクリメントし(ステップ282)、当該カウンタ値mが所定の閾値mthを越えたか否かを判断する(ステップ283)。
上記ステップ283において、上記カウンタ値mが閾値mthを越えていないと判断された場合(No)には、クラスタリング処理部20は、前回の学習処理において学習用コンテンツとして選択した映像コンテンツとは異なる映像コンテンツを学習用コンテンツとして選択し直して、(ステップ272)、それ以降のステップ273〜276の処理を繰り返す。
この場合も、クラスタリング処理部20は、ステップ276において、クラスタリング処理がうまくいかなかったと判断した場合(No(b))には、カウンタ値mを1だけインクリメントして(ステップ282)、mが上記閾値mthを越えるまで、映像特徴種別を変更しながら上記ステップ273〜276の処理を繰り返す。
上記ステップ276においてクラスタリング処理がうまくいかず、上記カウンタ値mが閾値mthを越えた場合には、クラスタリング処理部20は、上記学習用コンテンツを分類できない旨をディスプレイに表示させて終了する(ステップ284)。
上記ステップ276において、クラスタリング処理がうまくいったと判断された場合(Yes)には、アクティビティ判定部40は、分類された各クラスタの特徴を検出する(ステップ285)。すなわち、アクティビティ判定部40は、各クラスタに属する映像コンテンツの各映像特徴値を参照する等して、各クラスタの「アクティブ」、「アクティブでない」及び「中間的」の各特徴を検出する。
そして、アクティビティ判定部40は、上記検出した各クラスタの特徴のうち、「アクティブ」及び「アクティブでない」の各特徴を有する各クラスタに属する学習用コンテンツをそれぞれ選択し、各クラスタに属する各学習用コンテンツの上記映像特徴値を用いて、2群判別分析を行う(ステップ286)。これにより、アクティビティ判定部40は、判別関数(判別関数の係数)を算出する(ステップ287)。
続いて、アクティビティ判定部40は、上記学習用コンテンツ以外の各映像コンテンツを、判別用の映像コンテンツとして選択し(ステップ288)、各映像コンテンツの上記映像特徴値を基に、上記算出された判別関数を用いて判別分析を行うことで、当該判別用の映像コンテンツの各判別関数値fを算出する(ステップ289)。
続いて、アクティビティ判定部40は、上記算出された各判別関数値fの絶対値|f|が、所定の閾値faよりも大きいか否かを判断する(ステップ290)。
|f|が閾値faよりも大きい場合(Yes)には、アクティビティ判定部40は、更に、当該fが0より大きいか否かを判断する(ステップ291)。
f>0の場合には、アクティビティ判定部40は、当該映像コンテンツを、アクティブな映像コンテンツとして分類する(ステップ292)。
一方、f<0の場合には、アクティビティ判定部40は、当該映像コンテンツを、アクティブでない映像コンテンツとして分類する(ステップ293)。
また、上記ステップ290において、|f|≦faであると判断された場合には、アクティビティ判定部40は、当該映像コンテンツを、中間的な映像コンテンツとして分類する(ステップ294)。
この分類結果は、各映像コンテンツと関連付けられて、例えばHDD10等に記憶される。なお、アクティビティ判定部40は、上記学習用コンテンツとして用いた映像コンテンツについても、後に上記判別処理によりアクティビティを判定し、分類する。
図28は、上記アクティビティ判定部40による映像コンテンツの分類処理を概念的に示した図である。同図(a)は上記分類処理を行う前の映像コンテンツの、上記映像特徴値のデータ分布を示しており、同図(b)は同図(a)のように分布している映像コンテンツについて上記判別分析による分類処理を行った場合の様子をそれぞれ示している。
同図(a)に示すように、映像コンテンツ中には、アクティブなコンテンツ(同図A)とアクティブでないコンテンツ(同図N)とが混在しているが、この状態では、記録再生装置100は両者を区別することはできない。
そこで、同図(b)に示すように、上述した判別関数を算出する。この判別関数により、上記データ分布における各映像コンテンツは、判別関数値fの符号が正か負かによって、アクティブな映像コンテンツが属する領域Aと、アクティブでない映像コンテンツが属する領域Bとに判別される。そして、当該領域A及びBのうち、上述したように、上記判別関数値fの絶対値|f|が閾値fa以下となる、判別関数近傍の領域Cは、領域Aのデータ頻度も、領域Bのデータ頻度も少ない、中間的な領域となっている。すなわち、領域Cは、領域A及び領域Bの両者の特徴を有しており、アクティブともアクティブでないとも言える、中間的な映像特徴の映像コンテンツが属していると言える。
アクティビティ判定部40は、このように、判別関数を基に上記領域A〜Cを定めることで、映像コンテンツを3つに分類することができる。
次に、上記分類された映像コンテンツの各アクティビティをユーザに提示する方法について説明する。
記録再生装置100は、HDD10に記録された各映像コンテンツを再生させる際には、上記各映像コンテンツのコンテンツリストをディスプレイに表示させ、当該コンテンツリスト上で、ユーザが再生を所望する映像コンテンツの選択作業を行わせる。記録再生装置100のCPU1は、当該コンテンツリスト上に、上記アクティビティによる分類結果を、アクティビティ識別情報として示すことで、ユーザがアクティビティに応じて映像コンテンツを選択することを可能としている。
図29は、コンテンツリスト上におけるアクティビティ識別情報の表示例を示した図である。
同図に示すように、ウィンドウ301上には、各映像コンテンツのサムネイル画像302及びタイトル情報303が、例えばマトリクス状に、コンテンツリストとして表示される。そして、CPU1は、各映像コンテンツのサムネイル画像302の上部に、上記判定した3つのアクティビティの種別を示すアクティビティ識別情報として、星形のマーク304を表示させる。この星形マーク304数が3つの場合はアクティブな映像コンテンツ、2つの場合は中間的な映像コンテンツ、1つの場合はアクティブでないコンテンツとされる。
ユーザは、アクティブな映像コンテンツの視聴を望む場合には、アクティビティ識別情報としての星形マーク304が3つ表示されている映像コンテンツのサムネイル画像302を、操作入力部3を介して選択すればよいし、逆にアクティブでない映像コンテンツの視聴を望む場合には、星形マーク304が1つ表示されている映像コンテンツのサムネイル画像302を選択すればよい。なお、この星形マーク304の代わりに例えば円形や他の多角形等、他の図形(記号)のマークを用いても構わないし、キャラクター等の他の画像を用いても構わない。
また、ユーザが、アクティブでない(例えば、静かで落ち着いた)映像コンテンツの視聴を望んでいる場合には、CPU1は、同図の場合とは逆に、アクティブでない映像コンテンツのアクティビティ識別情報として、上記星形マーク304等のマークを3つ表示させ、アクティブ映像コンテンツのアクティビティ識別情報としてマークを1つ表示させるようにしても構わない。更に、CPU1は、ユーザがアクティブな映像コンテンツとアクティブでない映像コンテンツのどちらの視聴を望んでいるかに応じて、アクティビティ識別情報の表示手法をカスタマイズできるようにしても構わない。
図30は、コンテンツリストの他の表示例を示した図である。なお、図29と同様の部分については同一の符号を付している。
同図に示すように、CPU1は、コンテンツリスト上において、上記アクティビティ識別情報を、サムネイル画像302の明暗情報として表示させてもよい。同図においては、アクティブな映像コンテンツのサムネイル画像302は明るく(例えばサムネイル画像302a)、中間的な映像コンテンツのサムネイル画像302はやや暗く(例えばサムネイル画像302b)、アクティブでない映像コンテンツのサムネイル画像302は更に暗く(例えばサムネイル画像302c)表示されている。この表示は、例えば上記OSD17において、サムネイル画像と各段階のグレーの背景画像とを重畳させることで実現できる。
また、ユーザがアクティブでない映像コンテンツの視聴を望んでいる場合には、CPU1は、逆にアクティブでない映像コンテンツほど明るく表示させるよう制御しても構わない。また、CPU1は、どちらの映像コンテンツを明るく表示させるかをユーザがカスタマイズできるようにしても構わない。
更に、CPU1は、サムネイル画像302の明暗ではなく、サムネイル画像302の色を変更することでアクティビティを識別するようにしてもよいし、サムネイル画像302全体ではなくサムネイル画像の外枠の色のみを変更することでアクティビティを識別するようにしても構わない。
上記図29及び30の例では、CPU1は、アクティビティ識別情報を3段階で表示させるようにしていた。しかし、CPU1は、上記アクティビティを3段階よりも更に多い段階で表示させることもできる。これは、上記アクティビティ判定部40が、上記図27のステップ290における閾値faを複数設定し、各映像コンテンツを4つ以上の段階に分類することで実現できる。
更に、CPU1は、各コンテンツのアクティビティを段階別(離散量的)に示すのではなく、アクティビティの最大値に対して各映像コンテンツのアクティビティが占める割合として、連続量的(アナログ的)に示すようにしても構わない。これは、アクティビティ判定部40が、上記図27のステップ289における判別関数値fを、アクティビティを示す情報としてそのまま出力することで実現できる。すなわち、CPU1は、判別関数値f=−1を最小値とし、f=1を最大値として、各映像コンテンツの判別関数値fを最大値1に対する割合に換算してコンテンツリスト上に表示させるようにすればよい。
図31は、この場合におけるコンテンツリスト上でのアクティビティ識別情報の表示例を示した図である。なお、図29及び30と同様の部分については同一の符号を付している。
同図に示すように、CPU1は、コンテンツリスト上において、上記アクティビティ識別情報を、アクティビティの最大値に対する割合を示す画像(割合表示画像305)として表示する。同図においては、割合表示画像305は棒グラフ状(メーター状)に示されているが、例えば円グラフ状等、他の表示形式のものであっても構わない。また、CPU1は、上記割合を、グラフ等のオブジェクトではなく、数値(テキスト情報)として表示してもよい。
このように、各映像コンテンツのアクティビティをより細かく、連続量的(アナログ的)に提示することで、ユーザの選択の幅を広げることができる。
CPU1は、コンテンツリスト上にアクティビティ識別情報を表示させるのみならず、アクティビティに応じて映像コンテンツを検索(抽出)できるようにしても構わない。
例えば、CPU1は、上記図29〜31で示したようなコンテンツリスト上で、特定のアクティビティを有する映像コンテンツを抽出できるようにしてもよい。
図32は、この場合のコンテンツリストの表示例を示した図である。同図に示すように、ウィンドウ301の上部には、アクティブな映像コンテンツとアクティブでない映像コンテンツの何れかのアクティビティの種別を例えばラジオボタンにより選択させるための選択ボックス306と、検索ボタン307が設けられている。ユーザが選択ボックス306内のラジオボタンで映像コンテンツの種別を選択し、検索ボタン307を押下すると、選択された種別のアクティビティを有する映像コンテンツのみが絞り込まれ、その映像コンテンツのサムネイル画像302及びタイトル情報303がウィンドウ301内に表示される。同図においては、上記選択ボックス306内でアクティブなコンテンツが選択され、検索ボタンが押下された場合に、アクティブな映像コンテンツに関する情報のみが表示されている。なお、同図では、アクティビティ識別情報として星形マークを示しているが、もちろん、上述した他のアクティビティ識別情報を用いても構わない。
このほか、CPU1は、例えばジャンル等、その他の抽出項目と上記アクティビティとを組み合わせて映像コンテンツを抽出できるようにしても構わない。例えば「スポーツ」というジャンルの中でアクティブなコンテンツのみを抽出することで、スポーツに関する映像コンテンツの中でも、例えば得点シーン等の動きの多い映像コンテンツを抽出するようなことが可能となる。
また、CPU1は、キーワード等で映像コンテンツを検索する場合に、上記アクティビティを、映像コンテンツの検索条件(検索範囲)の1つとして用いることもできる。
図33は、この場合のコンテンツリストの表示例を示した図である。同図に示すように、ウィンドウ301の上部には、アクティブな映像コンテンツ、アクティブでない映像コンテンツ及び全ての映像コンテンツのうち、どの種別のアクティビティを有する映像コンテンツを検索範囲として検索するかを選択させるための選択ボックス306と、検索キーワードを入力するための入力ボックス308と、検索ボタン307とが設けられている。
ユーザが選択ボックス306内で検索範囲とすべき映像コンテンツの種別を選択し、続いて入力ボックス308にキーワードを入力し、検索ボタン307を押下することで、選択ボックス306内で選択された種別の映像コンテンツの中から、キーワードに合致する映像コンテンツが検索される。同図においては、検索範囲としてアクティブな映像コンテンツが選択され、「サッカー」というキーワードが入力された状態を示している。この状態から、検索ボタン307が押下されると、例えばサッカーの試合を内容とする映像コンテンツのサムネイル画像302a及びそのタイトル情報が検索結果として表示される。
以上のように、各映像コンテンツの各映像特徴を基に、各映像コンテンツをアクティビティに応じて分類し、各映像コンテンツの雰囲気をアクティビティ識別情報として提示することで、ユーザにその時々の気分に応じて映像コンテンツを選択して視聴させることが可能となる。
本発明は以上説明した実施形態にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
上述の実施形態においては、本発明を記録再生装置100に適用した例を示したが、例えばテレビジョン装置、PC、携帯電話、ゲーム機器、デジタルカメラ、カムコーダ等、あらゆる電子機器に本発明を適用することが可能である。
また、本発明を、インターネット上で映像コンテンツの投稿サイトを提供するためのWebサーバとして適用することもできる。この場合、Webサーバは、例えばPC等の各クライアント機器から所定数の映像コンテンツがアップロードされた段階で、上述の実施形態と同様に、上記映像特徴検出部4により各映像コンテンツの映像特徴を検出し、その各映像コンテンツの一部を学習用の映像コンテンツとして選択して、上記クラスタリング処理部20によりクラスタリング処理(学習処理)を行い、アクティビティ判定部40により、当該学習結果を基に判別関数を算出して、当該判別関数を基に上記学習用の映像コンテンツ以外のコンテンツのアクティビティを判定すればよい。またこの場合、アクティビティ判定部40は、学習用コンテンツについても後に判別分析によりアクティビティを判定してもよいし、クラスタリング処理部20が、アップロードされた映像コンテンツとは別に学習用コンテンツを用意しても構わない。
例えば、Webサーバは、1000個の映像コンテンツがアップロードされた段階で、そのうち200個の映像コンテンツを学習用コンテンツとして選択し、残りの800個の映像コンテンツについてアクティビティを判定する。勿論、この数値に限られるものではない。
また、Webサーバは、上記アップロードされた映像コンテンツを、コンテンツリストとして表示するためのWebページを作成し、例えば、クライアント機器としてのユーザのPCで実行されるブラウザにおいて、当該コンテンツリストの各コンテンツ欄に、上記判定したアクティビティに応じて、上記図29〜31で示したような、各種アクティビティ識別情報が表示されるように制御(Webページを送信)すればよい。
ユーザ投稿型の動画サイトは今後も更なる発展が見込まれ、また映像コンテンツ数も更に増加するものと思われるため、上記アクティビティに応じた各映像コンテンツの分類及びアクティビティ識別情報の表示は、ユーザによる映像コンテンツの選択の大きな助けとなるものと思われる。
上述の実施形態において、クラスタリング処理部20は、クラスタリング手法としてK-means法を採用していたが、この他にも、ファジーc-means法やウォード法等の他のクラスタリング手法を用いても構わない。また、クラスタリング処理部20は、いわゆるデータ・クラスタリング手法ではなく、決定木等の他の分類手法を用いても構わない。
上述の実施形態において、アクティビティ判定部40は、線形判別関数を用いた判別関数により各映像コンテンツのアクティビティを判定していた。しかしながら、アクティビティ判定部40は、マハラノビス汎距離等の非線形判別関数を用いても構わないし、重判別分析により、例えばアクティブ、ノンアクティブ、中間的の3つの分類で各映像コンテンツを判別しても構わない。
また、アクティビティ判定部40は、アクティビティを3つ、4つ、5つ等に段階的に分類する場合には、判別分析を行うのではなく、上述のクラスタリング処理部20における学習処理と同様のクラスタ分析により、必要に応じてクラスタ数(例えばK-means法におけるK)を変更しながら、各映像コンテンツを分類しても構わない。
上述の実施形態においては、記録再生装置100は、各映像コンテンツのアクティビティに応じて各映像コンテンツを分類していた。しかし、記録再生装置100は、当該アクティビティに基づく映像コンテンツの分類処理と、上記カメラ動作系特徴として検出された手振れによる映像コンテンツの分類処理とを組み合わせるようにしてもよい。例えば、記録再生装置100は、映像コンテンツに手振れ特徴が含まれるか否かに応じて、放送された映像コンテンツ(いわゆるIP放送も含む)と、家庭用ビデオカメラ等でユーザ等の個人が撮影したプライベートな映像コンテンツとに分類しておき、上記アクティビティに応じて分類された映像コンテンツを、更に、放送コンテンツかプライベートコンテンツかに応じてフィルタリングもしくは分類して表示できるようにしてもよい。これにより、例えばユーザが、プロのカメラマンが撮影したクオリティの高い映像コンテンツの中からアクティビティに応じた映像コンテンツを選択したい場合等に、ユーザの視聴目的に適合しない映像コンテンツをユーザの選択対象から外すことができ、ユーザが映像コンテンツを選択するまでの手間や時間を省くことができる。
上述の実施形態においては、映像特徴検出部4は、基準ブロックBnを放射状に複数設定していたが、例えば複数の基準ブロックBnを放射状に組み合わせずに1つのみ設定して動きベクトルを検出するようにしても構わない。
上述の実施形態においては、映像特徴検出部4は、上記ブロックマッチング処理後の残差値をフェード/カット評価値とすることでフェード及びカットの判定を行っていた。しかし、映像特徴検出部4は、このフェード/カット評価値による判定処理に加えて、周波数解析による判定処理を用いることもできる。
すなわち、上記各フェード/カット処理部27、29、31及び33は、画像処理部21及び各フレーム間メモリ部22〜25から入力される基準フレーム71及び探索フレーム75のそれぞれに対して、FFT(Fast Fourier Transform;高速フーリエ変換)処理やエッジ検出処理等による周波数解析処理を行い、その結果をフェード/カット判定部35へ出力する。フェード/カット判定部35は、上記フェード/カット評価値と、上記周波数解析処理結果の両方を用いてフェード及びカットの判定を行う。フェード区間では、画像がぼやけるため、周波数成分で考えると、高周波成分の特徴が小さくなる。したがって、この特徴をフェード及びカットの判定に利用することができる。
上述の実施形態においては、映像特徴検出部4は、映像コンテンツの各フレームのデコード後の、ベースバンド帯域の信号を用いて映像特徴検出処理を行っていた。しかしながら、映像特徴検出部4は、デコード後のベースバンド帯域の信号ではなく、デコード前の符号化データを用いてもよい。例えば映像コンテンツがMPEG形式やDV方式で符号化されている場合には、映像特徴検出部4は、上記Y、Cb及びCrの各信号の代わりに、DCT(Discrete Cosine Transform;離散コサイン変換)係数のうちDC(Direct Current)成分を解析することで、同様に映像特徴を検出することができる。
本発明の一実施形態に係る記録再生装置の構成を示した図である。 本発明の一実施形態におけるカメラ動作系特徴について示した図である。 本発明の一実施形態における映像編集系特徴について示した図である。 本発明の一実施形態におけるカメラ動作系特徴について概念的に示した図である。 本発明の一実施形態におけるズーム時の画像の変化量を概念的に示した図である。 本発明の一実施形態における手振れ映像について概念的に示した図である。 本発明の一実施形態における映像特徴検出部の具体的構成を示した図である。 本発明の一実施形態に係る記録再生装置が映像特徴を判定する際の処理の流れを示したフローチャートである。 本発明の一実施形態における動きベクトル検出処理の流れを示したフローチャートである。 本発明の一実施形態における1フレーム間隔での動きベクトル検出処理の詳細を示したフローチャートである。 本発明の一実施形態における10フレーム間隔での動きベクトル検出処理の詳細を示したフローチャートである。 本発明の一実施形態における20フレーム間隔での動きベクトル検出処理の詳細を示したフローチャートである。 本発明の一実施形態における30フレーム間隔での動きベクトル検出処理の詳細を示したフローチャートである。 本発明の一実施形態におけるブロックマッチング処理の流れを示したフローチャートである。 本発明の一実施形態において参照画像領域及び探索領域を設定する様子を示した図である。 本発明の一実施形態におけるブロックマッチング処理の基準ブロックの設定方法を示した図である。 本発明の一実施形態におけるブロックマッチング処理の様子を示した図である。 本発明の一実施形態における動きベクトル推定処理の流れを示したフローチャートである。 本発明の一実施形態における動きベクトルの勾配について示した図である。 本発明の一実施形態におけるアフィン変換モデルを示した図である。 本発明の一実施形態における重回帰分析処理について説明した図である。 本発明の一実施形態における手振れ判定処理について示した図である。 本発明の一実施形態におけるフェード/カット評価値の算出結果と、フレーム経過との関係を、カット点が含まれる場合について示したグラフである。 本発明の一実施形態におけるフェード/カット評価値の算出結果と、フレーム経過との関係を、フェードが含まれる場合について示したグラフである。 本発明の一実施形態における各映像特徴の判定結果を示した表である。 本発明の他の実施形態における映像特徴検出部の具体的構成を示した図である。 本発明の一実施形態における記録再生装置が映像コンテンツをアクティビティに応じて分類する処理の流れを示したフローチャートである。 アクティビティ判定部による映像コンテンツの分類処理を概念的に示した図である。 コンテンツリスト上におけるアクティビティ識別情報の表示例を示した図である。 コンテンツリスト上におけるアクティビティ識別情報の他の表示例を示した図である。 コンテンツリスト上におけるアクティビティ識別情報の他の表示例を示した図である。 コンテンツリスト上におけるアクティビティ識別情報の他の表示例を示した図である。 コンテンツリスト上におけるアクティビティ識別情報の他の表示例を示した図である。
符号の説明
1…CPU
3…操作入力部
4…映像特徴検出部
7…Ethernet(登録商標)/無線LANインタフェース
10…HDD
16…AVデコーダ
17…OSD
20…クラスタリング処理部
21…画像処理部
22〜25…フレーム間メモリ部
26、28、30、32…マッチング処理部
27、29、31、33…フェード/カット処理部
34…動きベクトル処理部
35…フェード/カット判定部
36…カメラ特徴判定部
40…アクティビティ判定部
100…記録再生装置
302…サムネイル画像
304…星形マーク
305…割合表示画像

Claims (10)

  1. それぞれ複数のフレームで構成される複数の映像コンテンツの各フレームをそれぞれ比較して、当該各映像コンテンツ中から、カメラ動作または映像編集により生じる複数種類の映像特徴を検出する検出手段と、
    前記検出された各種類の映像特徴のうち少なくとも1種類の映像特徴を選択し、当該選択された映像特徴を基に、前記各映像コンテンツからランダムに選択された複数の第1の映像コンテンツを、当該映像特徴を有する割合が高い映像コンテンツの第1の集合と、当該映像特徴を有する割合が低い映像コンテンツの第2の集合と、当該第1の集合及び当該第2の集合のいずれにも分類されない映像コンテンツの第3の集合とに分類し、前記第1の映像コンテンツの数に対する、当該第3の集合に含まれる映像コンテンツの数の割合が所定割合でなかった場合には、前記選択された映像特徴とは異なる種類の映像特徴を選択して前記分類を行うことで、前記割合が所定割合となる、選択すべき映像特徴を学習し、当該学習の結果選択された映像特徴を基に、前記各映像コンテンツのうち、前記第1の映像コンテンツ以外の第2の映像コンテンツに含まれる映像の視覚的な活性度をそれぞれ判定し、当該判定された各活性度を基に、前記各映像コンテンツを分類する分類手段と
    を具備する電子機器。
  2. 請求項1に記載の電子機器であって、
    前記検出手段は、前記各映像特徴を所定の特徴値として検出し、
    前記分類手段は、前記学習の結果選択された映像特徴の前記特徴値を変数として、前記第2の映像コンテンツを、前記活性度の高い映像コンテンツと前記活性度の低い映像コンテンツとに判別するための所定の判別関数を生成し、当該判別関数の値を基に前記活性度を判定する
    電子機器。
  3. 請求項2に記載の電子機器であって、
    前記分類手段は、前記判別関数の値が正負のいずれの値か、及び前記判別関数の値の絶対値が少なくとも1つの所定の閾値を超えるか否かに応じて前記第2の映像コンテンツを複数のレベルに分類する
    電子機器。
  4. 請求項1に記載の電子機器であって、
    前記各映像コンテンツを前記判定された活性度とともに記憶する記憶手段と、
    前記記憶された各映像コンテンツの再生を入力させるためのコンテンツリストを、前記判定された各映像コンテンツの各活性度を識別する識別情報とともに表示するよう制御する表示制御手段と
    を更に具備する電子機器。
  5. 請求項4に記載の電子機器であって、
    前記表示制御手段は、前記識別情報として、前記各活性度に応じた数の所定の記号を表示するよう制御する
    電子機器。
  6. 請求項4に記載の電子機器であって、
    前記表示制御手段は、前記識別情報として、最大活性度に対する各活性度の割合を示す画像を表示するよう制御する
    電子機器。
  7. 請求項4に記載の電子機器であって、
    前記表示制御手段は、前記識別情報として、各映像コンテンツを再生可能に示すサムネイル画像を、前記活性度に応じてその明暗を変更して表示するよう制御する
    電子機器。
  8. 請求項4に記載の電子機器であって、
    前記判定された活性度を基に前記映像コンテンツを検索する検索手段を更に具備し、
    前記表示制御手段は、前記検索の結果として、所定の活性度を有する前記映像コンテンツの前記コンテンツリスト及び識別情報を表示するよう制御する
    電子機器。
  9. それぞれ複数のフレームで構成される複数の映像コンテンツの各フレームをそれぞれ比較して、当該各映像コンテンツ中から、カメラ動作または映像編集により生じる映像特徴を検出し、
    前記検出された各種類の映像特徴のうち少なくとも1種類の映像特徴を選択し、当該選択された映像特徴を基に、前記各映像コンテンツからランダムに選択された複数の第1の映像コンテンツを、当該映像特徴を有する割合が高い映像コンテンツの第1の集合と、当該映像特徴を有する割合が低い映像コンテンツの第2の集合と、当該第1の集合及び当該第2の集合のいずれにも分類されない映像コンテンツの第3の集合とに分類し、前記第1の映像コンテンツの数に対する、当該第3の集合に含まれる映像コンテンツの数の割合が所定割合でなかった場合には、前記選択された映像特徴とは異なる種類の映像特徴を選択して前記分類を行うことで、前記割合が所定割合となる、選択すべき映像特徴を学習し、
    前記学習の結果選択された映像特徴を基に、前記各映像コンテンツのうち、前記第1の映像コンテンツ以外の第2の映像コンテンツに含まれる映像の視覚的な活性度をそれぞれ判定し、当該判定された各活性度を基に、前記各映像コンテンツを分類する
    コンテンツ分類方法。
  10. 電子機器に、
    それぞれ複数のフレームで構成される複数の映像コンテンツの各フレームをそれぞれ比較して、当該各映像コンテンツ中から、カメラ動作または映像編集により生じる映像特徴を検出するステップと、
    前記検出された各種類の映像特徴のうち少なくとも1種類の映像特徴を選択し、当該選択された映像特徴を基に、前記各映像コンテンツからランダムに選択された複数の第1の映像コンテンツを、当該映像特徴を有する割合が高い映像コンテンツの第1の集合と、当該映像特徴を有する割合が低い映像コンテンツの第2の集合と、当該第1の集合及び当該第2の集合のいずれにも分類されない映像コンテンツの第3の集合とに分類し、前記第1の映像コンテンツの数に対する、当該第3の集合に含まれる映像コンテンツの数の割合が所定割合でなかった場合には、前記選択された映像特徴とは異なる種類の映像特徴を選択して前記分類を行うことで、前記割合が所定割合となる、選択すべき映像特徴を学習するステップと、
    前記学習の結果選択された映像特徴を基に、前記各映像コンテンツのうち、前記第1の映像コンテンツ以外の第2の映像コンテンツに含まれる映像の視覚的な活性度をそれぞれ判定し、当該判定された各活性度を基に、前記各映像コンテンツを分類するステップと
    を実行させるためのプログラム。
JP2007270643A 2007-10-17 2007-10-17 電子機器、コンテンツ分類方法及びそのプログラム Expired - Fee Related JP4683031B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007270643A JP4683031B2 (ja) 2007-10-17 2007-10-17 電子機器、コンテンツ分類方法及びそのプログラム
US12/287,294 US8184947B2 (en) 2007-10-17 2008-10-08 Electronic apparatus, content categorizing method, and program therefor
CNA200810149937XA CN101414302A (zh) 2007-10-17 2008-10-17 电子装置、内容分类方法及其程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007270643A JP4683031B2 (ja) 2007-10-17 2007-10-17 電子機器、コンテンツ分類方法及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2009100314A JP2009100314A (ja) 2009-05-07
JP4683031B2 true JP4683031B2 (ja) 2011-05-11

Family

ID=40563589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007270643A Expired - Fee Related JP4683031B2 (ja) 2007-10-17 2007-10-17 電子機器、コンテンツ分類方法及びそのプログラム

Country Status (3)

Country Link
US (1) US8184947B2 (ja)
JP (1) JP4683031B2 (ja)
CN (1) CN101414302A (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101495079B1 (ko) * 2008-11-18 2015-02-24 삼성전자주식회사 장면 정보 표시 방법 및 장치, 및 이를 이용한 디지털 촬영장치
EP2457214B1 (en) * 2009-07-20 2015-04-29 Thomson Licensing A method for detecting and adapting video processing for far-view scenes in sports video
EP2601782A4 (en) 2010-08-02 2016-09-28 Univ Beijing REPRESENTATIVE MOVEMENT DATA FLOW EXTRACTION FOR EFFICIENT RECOVERY AND CLASSIFICATION OF VIDEO DATA
US8532336B2 (en) 2010-08-17 2013-09-10 International Business Machines Corporation Multi-mode video event indexing
US9743149B2 (en) * 2010-11-02 2017-08-22 Sony Corporation Search query column for internet-connected TV's
JP5812808B2 (ja) * 2011-01-05 2015-11-17 キヤノン株式会社 画像処理装置及び画像処理方法
JP5780418B2 (ja) * 2011-05-30 2015-09-16 ソニー株式会社 撮影装置および方法、画像再生装置および方法、プログラム、並びに記録媒体
JP2012256105A (ja) * 2011-06-07 2012-12-27 Sony Corp 表示装置、オブジェクト表示方法、及びプログラム
US10320869B2 (en) * 2011-07-07 2019-06-11 Telefonaktiebolaget Lm Ericsson (Publ) Network-capacity optimized adaptive HTTP streaming
CN102427507B (zh) * 2011-09-30 2014-03-05 北京航空航天大学 一种基于事件模型的足球视频集锦自动合成方法
JP5994974B2 (ja) * 2012-05-31 2016-09-21 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置、プログラム及び情報処理方法
JP6336341B2 (ja) * 2014-06-24 2018-06-06 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
TWI680747B (zh) * 2014-11-12 2020-01-01 日商新力股份有限公司 資訊處理裝置、資訊處理方法及資訊處理程式
EP3230954A1 (en) * 2014-12-10 2017-10-18 Koninklijke Philips N.V. Systems and methods for translation of medical imaging using machine learning
KR102278945B1 (ko) * 2015-01-27 2021-07-19 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자 장치
US20160307598A1 (en) * 2015-04-16 2016-10-20 Daniel Laurence Ford JOHNS Automated editing of video recordings in order to produce a summarized video recording
JP6742731B2 (ja) * 2016-01-07 2020-08-19 株式会社見果てぬ夢 ネオメディア生成装置、ネオメディア生成方法、及びネオメディア生成プログラム
WO2017169502A1 (ja) * 2016-03-31 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
CN106557545B (zh) * 2016-10-19 2020-08-07 北京小度互娱科技有限公司 视频检索方法和装置
AU2018271424A1 (en) 2017-12-13 2019-06-27 Playable Pty Ltd System and Method for Algorithmic Editing of Video Content

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061027A (ja) * 2001-08-10 2003-02-28 Sony Corp 映像コンテンツ自動分類装置及び映像コンテンツ自動分類方法
JP2004128550A (ja) * 2002-09-30 2004-04-22 Kddi R & D Laboratories Inc 動画像データのシーン分類装置
JP2007141380A (ja) * 2005-11-18 2007-06-07 Sharp Corp コンテンツ再生方法、コンテンツ再生装置、及びコンテンツ再生システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7110454B1 (en) * 1999-12-21 2006-09-19 Siemens Corporate Research, Inc. Integrated method for scene change detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061027A (ja) * 2001-08-10 2003-02-28 Sony Corp 映像コンテンツ自動分類装置及び映像コンテンツ自動分類方法
JP2004128550A (ja) * 2002-09-30 2004-04-22 Kddi R & D Laboratories Inc 動画像データのシーン分類装置
JP2007141380A (ja) * 2005-11-18 2007-06-07 Sharp Corp コンテンツ再生方法、コンテンツ再生装置、及びコンテンツ再生システム

Also Published As

Publication number Publication date
CN101414302A (zh) 2009-04-22
US8184947B2 (en) 2012-05-22
JP2009100314A (ja) 2009-05-07
US20090103888A1 (en) 2009-04-23

Similar Documents

Publication Publication Date Title
JP4683031B2 (ja) 電子機器、コンテンツ分類方法及びそのプログラム
JP5533861B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
US8326623B2 (en) Electronic apparatus and display process method
US8416332B2 (en) Information processing apparatus, information processing method, and program
JP4618166B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US8782563B2 (en) Information processing apparatus and method, and program
US20120057775A1 (en) Information processing device, information processing method, and program
US8503770B2 (en) Information processing apparatus and method, and program
JP4645356B2 (ja) 映像表示方法、映像表示方法のプログラム、映像表示方法のプログラムを記録した記録媒体及び映像表示装置
US20110243529A1 (en) Electronic apparatus, content recommendation method, and program therefor
US20080131073A1 (en) Information processing apparatus and method, and program
WO2006025272A1 (ja) 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム
JP4985201B2 (ja) 電子機器、動きベクトル検出方法及びプログラム
JP2008048279A (ja) 映像再生装置、方法およびプログラム
JP2013207529A (ja) 表示制御装置、表示制御方法、及びプログラム
JP2011019192A (ja) 画像表示装置
US20130259445A1 (en) Information processing device, information processing method, and program
US8437611B2 (en) Reproduction control apparatus, reproduction control method, and program
JP2013207530A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2010033532A (ja) 電子機器、動きベクトル検出方法及びそのプログラム
JP4835540B2 (ja) 電子機器、映像特徴検出方法及びプログラム
JP4893524B2 (ja) 電子機器、映像データ判定方法及びプログラム
JP2009042915A (ja) 電子機器、動きベクトル検出方法及びプログラム
WO2019187493A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5600557B2 (ja) コンテンツ紹介映像作成装置およびそのプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees