JP4259421B2 - 映像の代表画像選出方法及びプログラム - Google Patents

映像の代表画像選出方法及びプログラム Download PDF

Info

Publication number
JP4259421B2
JP4259421B2 JP2004225601A JP2004225601A JP4259421B2 JP 4259421 B2 JP4259421 B2 JP 4259421B2 JP 2004225601 A JP2004225601 A JP 2004225601A JP 2004225601 A JP2004225601 A JP 2004225601A JP 4259421 B2 JP4259421 B2 JP 4259421B2
Authority
JP
Japan
Prior art keywords
zoom
segment
moving object
camera work
representative image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004225601A
Other languages
English (en)
Other versions
JP2006050076A (ja
Inventor
俊和 狩塚
聡 嶌田
宏志 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004225601A priority Critical patent/JP4259421B2/ja
Publication of JP2006050076A publication Critical patent/JP2006050076A/ja
Application granted granted Critical
Publication of JP4259421B2 publication Critical patent/JP4259421B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Description

本発明は、映像コンテンツの効率的な内容把握を行なうための映像の代表画像選出方法及びプログラムに係り、特に、撮影者がカメラ付き携帯電話やディジタルカメラ、ディジタルビデオ等で撮影した未編集映像素材コンテンツから、撮影者の意図を反映した代表画像を選出するための映像の代表画像選出方法及びプログラムに関する。
映像の内容を1つ、または、複数の静止画像で代表させることにより効率的に把握できるようにする従来技術は、映像をセグメントに分割する手段と、分割したセグメントから代表画像を選定、または、合成する手段とから構成される。
前者の、映像をセグメントに分割する手段の従来技術は、映像制作の過程、即ち、映像編集者の意図に沿って分割する方法と、映像の内容が類似しているシーンを同一のセグメントとして分割する方法に大別される。
映像編集者の映像に沿って分割する方法の代表的な従来技術として、映像コンテンツにおいて、編集映像のカットの検出、テロップが表示される区間の検出、カメラワークが発生した区間の検出、音楽が発生した区間、音声が発生した区間を検出し、それぞれのイベントが発生した区間をイベントとして分割する方法である。これらのイベントは映像編集者の意図に沿って生成されることから、当該方法は、編集者の映像コンテンツに対して有効に機能する方法である(例えば、特許文献1参照)。
映像の内容が類似しているシーンを同一セグメントとして分類する方法の代表的な従来技術として、映像を時間的に等間隔に分割し、分割した各区間で隣接区間の映像内容が類似している場合には統合し、映像内容が類似していない区間は分離することによりセグメントに分割する(例えば、非特許文献1参照)。
例えば、後者の分割したセグメントから代表画像を選定、または、合成する手段の従来技術として、セグメントの開始フレームや終了フレームといった予め設定されたフレームを選定する方法、及び、カメラワークがあるシーンについては合成したパノラマ画像(モザイク処理)を代表画像として出力する方法がある(例えば、特許文献1参照)。
また、各セグメントの区間長(時間)などからセグメントの重要度を算出し、重要度が閾値以上のセグメントに含まれるフレーム画像で平均に最も近いフレーム画像を代表画像として出力する(例えば、非特許文献1参照)。
特開平11−224266 Shingo Uchihashi, Jonathan Foote, Andreas Girgensohn, and John Boreczky. Video Manga: Generating semantically meaningful video summaries. In Proceedings of Multimedia’99, pp.383-392. ACM, 1999
しかしながら、上記の従来技術において、映像制作の過程、即ち、映像編集者の意図に沿って映像をセグメントに分割する方法では、シナリオのある編集された映像コンテンツを対象としており、プライベート映像コンテンツ等の未編集の映像素材コンテンツに適用した場合には、代表画像を適切に選出することができないという問題がある。なぜなら、カット区間やテロップの入った区間等でセグメントに分割する手法は、編集シナリオが事前に存在していることを前提としているためである。そのため、未編集映像素材コンテンツのような、シナリオが存在しないコンテンツに対しては、適切に代表画像を選定することができない。
また、映像の内容が類似しているシーンを同一のセグメントとして映像を分割する方法を未編集の素材映像に適用した場合には、隣接した区間が類似しているかどうかを判定する閾値の設定によりセグメント分割結果が大きく異なり、その閾値の設定が困難であることが問題となる。さらに、前述の非特許文献1での代表画像の選定方法を未編集の素材映像に適用した場合には、セグメントの区間長が大きいほど重要であるとはいえないことが問題となる。例えば、定点カメラなどから得られる映像コンテンツは変化がない映像が大部分を占める。このような変化がない部分は重要度が低く、むしろ、短い時間ではあっても大きな変化が生じた部分が重要である。
本発明は、上記の点に鑑みなされたもので、撮影者の意図を適切に表した静止画像を主題静止画として選定することが可能な映像の代表画像選出方法及びプログラムを提供することを目的とする。
図1は、本発明の原理を説明するための図である。
本発明(請求項1)は、未編集の映像データから、代表画像を選出する代表画像選出方法において、
未編集の映像データを読み込み、第1の記憶手段に格納する映像データ入力過程(ステップ1)と、
予め定義されている、カメラワークと映像内の動物体の有無に基づいた6種類のセグメント種別に基づいて、第1の記憶手段の映像データについて、撮影者の意図が反映されるカメラワーク及び映像内の動物体の有無を検出することによりセグメント分割し、セグメントプロファイルを第2の記憶手段に格納するセグメント分割過程(ステップ2)と、
少なくとも、第2の記憶手段に格納されているセグメントプロファイル及び、第1の記憶手段に格納されている映像データから各セグメント種別に応じた代表画像を選出し、第3の記憶手段に格納する代表画像生成過程(ステップ3)と、
第3の記憶手段に格納された代表画像を表示する表示過程(ステップ4)と、からなり、
セグメント分割過程(ステップ2)において、映像データをセグメント種別に分類する際に、カメラワークが同時に起こった場合は、ズーム処理を優先させて、
ズーム・インの場合、
ズーム・アウトの場合、
ズーム・インとズーム・アウトを除くカメラワークが有りで動物体有りの場合、
ズーム・インとズーム・アウトを除くカメラワークが有りで動物体なしの場合、
カメラワークが無く動物体が有りの場合、
カメラワークが無く動物体が無しの場合、
の6つの分類に基づいて行い、
代表画像生成過程(ステップ3)において、
セグメント分割過程で決定されたセグメント種別が、ズーム・インの場合には、ズーム・インの開始点、終了点、もしくはどちらか一方を代表画像として選択し、
セグメント種別が、ズーム・アウトの場合には、ズーム・アウトの終了点のフレーム画像を代表画像として選択し、
セグメント種別が、ズーム・インとズーム・アウトを除くカメラワークが有りで動物体有りの場合には、動物体の動き量の特徴点であるフレーム画像、明確な動き量の特徴がない場合は動物体が中央に位置する時点のフレーム画像を代表画像として選択し、さらに、動物体が中央に位置する時点のフレーム画像も無い場合は、予め設定されたルールに従って代表画像を出力し、
セグメント種別が、ズーム・インとズーム・アウトを除くカメラワークが有りで動物体無しの場合には、パノラマ画像を出力し、
カメラワークが無く動物体が有る場合は、動物体の動き量の特徴点であるフレーム画像、明確な動き量の特徴が無い場合は動物体が中央に位置する時点のフレーム画像を代表画像として選択し、更に、動物体が中央に位置する時点のフレーム画像も無い場合は、予め設定されたルールに従って代表画像を出力し、
カメラワークが無く動物体が無い場合は、予め設定されたルールに従って代表画像を出力する。
本発明(請求項2)は、未編集の映像データから、代表画像を選出する映像の代表画像選出プログラムであって、請求項1記載の映像の代表画像選出方法の実現に用いられる処理をコンピュータに実行させるプログラムである。
これにより、一般撮影者が撮影したような未編集映像コンテンツに対して、撮影者の意図に沿ったセグメント分割が可能となり、映像内容を把握するために必要な代表画像を出力することが可能となる。
上記のように、本発明によれば、従来の手法では難しかった未編集映像コンテンツから、撮影者の意思が表れるカメラワークと映像内の動物体の有無により、セグメントに分割することができる。
また、セグメントの種別に応じて、撮影者が何を撮影したいのかを推察し、それに応じた代表画像を生成することができる。
これにより、撮影者の意思を反映した主題静止画像を、映像コンテンツから一覧することができるようになる。
以下、図面と共に本発明の実施の形態を説明する。
図2は、本発明の一実施の形態における代表画像選出装置の構成を示す。
同図に示す代表画像選出装置は、分析の対象となる映像データを入力し、入力映像全フレームデータ記憶部6に記憶する映像入力・蓄積部1、フレーム毎の画像品質を解析し、解析結果である各フレームの画像品質評価指標を評価指標ファイル8に格納するフレーム画像品質解析部2、映像データを分割し、分割した結果である各セグメントのセグメントプロファイルをセグメント記憶部7に格納するセグメント分割部3、各セグメントの種別に応じて、撮影者の意図を反映した代表画像を生成し、各セグメントの代表画像ファイル9に格納するセグメント代表画像生成部4、代表画像を表示する表示部5からなる。
セグメント分割部3は、映像コンテンツを入力として受け取ると、撮影者のカメラワークと映像内の動物体の有無に基づいた6種類のセグメント種別に映像コンテンツを自動的にセグメント分割する。当該セグメント分割部3は、カメラワーク検出部31と、動物体検出部32から構成される。
セグメント分割部3では、撮影者の意図と、映像内の動物体の有無に基づいたセグメントに分割する。最初に、撮影者は、写真ではなく映像を撮影するという動機として、ある動物体を撮影したいという場合と、周囲の風景といった場や雰囲気を撮りたいという場合の2通りに大きく分けることができる。この2つの動機を撮影者の意図として、映像内のカメラワークの種別と動物体の有無から推測することができる。撮影者の意図を最も表すのは、カメラワークである。考えられるカメラワーク種別としては大きく6つある。ズーム・イン、ズーム・アウト、パン、チルト、ローテーション、カメラワーク無しが考えられる。このとき、ズーム・インはカメラ自体の前進運動を含み、ズーム・アウトはカメラ自体の後進運動を含み、パンがカメラ自体の左右運動を、チルトがカメラ自体の上下運動を含むものとする。撮影者の意図を考えた場合、6つのカメラワークを4つにマージする。それは、ズーム・イン、ズーム・アウト、ズーム・インとズーム・アウトを除くカメラワーク、カメラワーク無しの4つである。
このとき、ズーム・イン、ズーム・アウトといった操作は、その操作自体に、明確なユーザの意思が表現されているため、その区間内に何が映っているのかを解析することなく、それだけで、その区間は代表画像を選定するセグメントとなる。つまり、ズーム・インは、撮影者が、ある点に注目していることが明確であるし、ズーム・アウトは大きく背景を撮りたい、もしくは、フレームから外れたオブジェクトを捕らえたいという意思が明確である。上記のような観点からカメラワーク検出部31においてカメラワークを検出する。
次に、ズーム・インとズーム・アウトを除く、カメラワーク/カメラワーク無しの2つの場合、撮影者がある動物体を撮影したいのか、周囲の風景といった場や雰囲気を撮りたいのかを判定する必要がある。それは、動物体検出部32において映像内の動物体の有無によって判定する。
以上の条件から、セグメントを分割し、6種類に分類する。具体的な処理の手順として、最初に、カメラワーク検出部31において、撮影者の意図を反映するカメラワークによってセグメントを分割する。検出するカメラワークは、ズーム・イン、ズーム・アウト、ズーム・インとズーム・アウトを除くカメラワーク、カメラワーク無しの4つの操作であり、この操作によって、映像を4つのセグメント種別に分割、分類する。
さらに、ズーム・インとズーム・アウトを除くカメラワーク、カメラワーク無しのセグメントに関しては、動物体検出部32において、それぞれの映像内に動物体の有無を検出することで更に分類する。実環境中の動物体を検出することで、撮影者が撮影したいものが、動物体のようなオブジェクトであるのか、それとも、風景といった、場や雰囲気であるのかを判別することができる。上述のように、カメラワークのうち、ズーム・イン、ズーム・アウトの区間は、明確な撮影者の意思が反映されている操作であるので、動物体の有無は関係なく分類する。
以上の処理を行うことで、映像は、
・ズーム・インの場合;
・ズーム・アウトの場合;
・ズーム・インとズーム・アウトを除くカメラワークで動物体がある場合;
・ズーム・インとズーム・アウトを除くカメラワークで動物体が無い場合;
・カメラワークが無く、動物体がある場合;
・カメラワークが無く、動物体が無い場合;
の6つのセグメント種別に分割、分類することができる。カメラワークが同時に起こった場合は、撮影者の意図が明確であるズーム処理が最優先される。
セグメント代表画像生成部4は、各セグメント種別に応じて、撮影者の意図を反映した代表画像を生成する。
(1)「ズーム・インの場合」、撮影者の意図は、注目したいオブジェクトがあると判断でき、そのため、その開始点、終了点、もしくはどちらか一方を代表画像として選択すればよい。
(2)「ズーム・アウトの場合」は、撮影者の意図は、ある注目点から、その周辺の場や雰囲気を撮影したいと判断できるので、その終了点のフレームを代表画像として選択すればよい。
(3)「ズーム・インとズーム・アウトを除くカメラワークで動物体がある場合」、撮影者は、動物体に注目していると判断できる。よって、動物体の動き量に注目し、その動き量の極小点といった、動物体の動き量の特徴点であるフレーム画像、明確な動き量の特徴がない場合は、動物体が中央に位置する時点のフレーム画像を代表画像として選択すればよい。
さらに、動物体が中央に位置する時点のフレーム画像もない場合は、セグメントの開始点、終了点、中央点といった事前に設定したルールに従って代表画像を出力する。
(4)「ズーム・インとズーム・アウトを除くカメラワークで動物体がない場合」は、撮影者の意図は場や雰囲気を撮影したいと判断できる。よって、パノラマ画像を出力すればよい。
(5)「カメラワークが無く、動物体がある場合」は、撮影者は、動物体に注目していると判断できる。よって、動物体の動き量に注目し、その動き量の極大点といった、動物体の動き量の特徴点であるフレーム画像、または、明確な動き量の特徴が無い場合は、動物体が中央に位置する時点のフレーム画像を代表画像として選択すればよい。
さらに、動物体が中央に位置する時点のフレーム画像もない場合は、セグメントの開始点、終了点、中央点といった事前に設定したルールに従って代表画像を出力する。
(6)「カメラワーク無しで動物体が無い場合」は、撮影者の意図は、その場や雰囲気を撮影したい場合と、意図がなく撮影している場合であると判断できる。よって、セグメントの開始点、終了点、中央点といった事前に設定したルールに従って代表画像を出力する。
次に、上記の構成における動作を説明する。
図3は、本発明の一実施の形態における動作の概要を示すフローチャートである。
本発明は、映像コンテンツから主題静止画像を生成する方法において、映像入力・蓄積部1が分析対象となる映像データを読み込む過程(ステップ101)と、フレーム画像品質解析部2が読み込んだ映像データの全フレーム画像の品質を解析する過程(ステップ102)と、セグメント分割部3が映像データをセグメント分割する過程(ステップ103)と、セグメント代表画像生成部4が各セグメントに応じた代表画像を生成する過程(ステップ104)と、表示部5が各セグメントの代表画像から、選定された静止画像を表示する過程(ステップ105)と、からなる。
映像データを読み込む過程(ステップ101)では、映像入力・蓄積部1が、解析対象となる映像コンテンツを読み取り、主記憶メモリ内の入力映像全フレームデータ記憶部6に全フレームデータを蓄積する。
映像データの全フレーム画像の品質を解析する過程(ステップ102)では、フレーム画像品質解析部2が、入力映像の全フレームデータを入力として受け取り、各フレーム画像の画像品質指標情報を算出し、各フレーム画像品質評価指標を評価指標ファイル8に出力する。出力データは、セグメント代表画像生成部4で利用されるため、参照できるように蓄積される。画像品質指標の一例として、コントラスト値といった物理特徴量を用いてもよい。コントラスト値の計算方法は、例えば、「画像処理高額基礎編:谷口慶治・編(共立出版株式会社)pp.101-104」に示される方法がある。ピントが合っていない画像は、ピントが合っている画像に比べて、コントラストが下がるため、各フレームのコントラスト値をフレームの画像品質評価指標として利用することが可能である。
映像データをセグメントに分割する過程(ステップ103)では、セグメント分割部3が、入力映像を入力映像全フレームデータ記憶部6から読み込んで、全映像データを解析し、自動的にセグメントに分割する。
セグメントの分割は、セグメント種別として、撮影者の意図が反映されるカメラワークと、映像内の動物体の有無から6種類のセグメント種別を定義している。セグメント種別は、
・ズーム・イン
・ズーム・アウト
・ズーム・インとズーム・アウトを除くカメラワークで動物体有り
・ズーム・インとズーム・アウトを除くカメラワークで動物体無し
・カメラワーク無しで動物体有り
・カメラワーク無しで動物体無し
の6種類である。各セグメントは、このセグメント種別のいずれかに分類される形で分割される。つまり、セグメント分割部3は、入力映像を受け取ると、カメラワーク検出部31が撮影者のカメラワークを検出し、カメラワークセグメントプロファイル33に格納し、さらに、動物体検出部32が、映像内の動物体の検出を行い、入力映像を自動的にセグメントに分割し、それぞれのセグメントに対して、セグメント種別のラベリングを行ない、各セグメントのセグメントプロファイルをセグメント記憶部7に出力する。セグメントプロファイルの構成要素は、セグメントの種別(ラベル)、開始フレーム番号、終了フレーム番号、映像内に動物体がある場合は、その重心座標列である。詳しい分類処理の形態については、後述する。
各セグメントに応じた代表画像を生成する過程(ステップ104)では、セグメント代表画像生成部4が、入力映像データと、各セグメントのセグメントプロファイルと、各フレームの画像品質評価基準を、それぞれ入力映像全フレームデータ記憶部6、セグメント記憶部7、評価指標ファイル8から読み込んで、予め定義していた、各セグメント種別に応じた、撮影者の意図を反映した代表画像生成手法で各セグメントの代表画像を生成し、代表画像ファイル9に出力する。詳しい処理形態については、後述する。
主題静止画像を表示する過程(ステップ105)では、表示部6が、コンテンツの主題静止画像を表示する。その手法として、時系列順に表示することや、サムネイルように複数を同時に表示してもよい。
次に、上記の映像データをセグメントに分割する過程(ステップ103)について詳述する。
図4は、本発明の一実施の形態におけるセグメント分割処理部のフローチャートである。
以下に示す処理は、セグメント分割部3が、入力映像を受け取ると、カメラワークと動物体の有無からセグメントを分割し、6種類にラベリングし、セグメントプロファイルを生成し出力するものである。
処理は大きく分類して、カメラワークによるセグメント分割処理(ステップ201〜ステップ203)と、動物体の有無によるセグメント分割処理(ステップ204〜ステップ209)と、セグメントプロファイル生成処理(ステップ210)がある。
カメラワーク処理では、カメラワーク検出部31が、入力映像内の「ズーム・イン区間」、「ズーム・アウト区間」、「ズーム・インとズーム・アウトを除くカメラワーク区間」、「カメラワーク無し区間」の4種別を検出し、入力映像をセグメントに分割する。分割されたセグメントを「カメラワークセグメント」と呼ぶ。出力として、カメラワークセグメントプロファイル33を出力する。カメラワークセグメントプロファイル33の構成要素は、カメラワーク種別と開始フレーム番号、終了フレーム番号の3つのパラメータである。カメラワーク種別は、
・ズーム・イン(CWLabel 0);
・ズーム・アウト(CWLabel 1);
・ズーム・インとズーム・アウトを除くカメラワーク(CWLabel 2);
・カメラワーク無し(CWLabel 3);
の4種類あり、カメラワークによって分割された各セグメントは上述のラベルでラベリングされる。
動物体検出処理では、動物体検出部32が、カメラワークセグメントプロファイル33を入力とするカメラワークセグメントのカメラワーク種別が、「ズーム・インとズーム・アウトを除く、カメラワーク/カメラワーク無し」の2つの場合は、その区間内で動物体がある区間と、無い区間に更に分割する。動物体がある場合は、その位置座標をも検出する。出力として、動物体の分割区間それぞれの動物体の有無と、開始フレーム番号、終了フレーム番号、動物体がある場合は動物体の位置座標を出力とする。
出力データ整理処理は、以上の2つの処理から得られた最終的に分割されたセグメントに関する情報であるセグメントプロファイル(カメラワーク種別、動物体の有無、開始フレーム番号、終了フレーム情報、動物体の位置座標)を生成し、時系列に整理して出力する。
セグメント種別のラベルは、
・ズーム・イン(Label 0);
・ズーム・アウト(Label 1);
・ズーム・インとズーム・アウトを除くカメラワークで動物体有り(Label 2);
・ズーム・インとズーム・アウトを除くカメラワークで動物体無し(Label 3);
・カメラワーク無しで動物体有り(Label 4);
・カメラワーク無しで動物体無し(Label 5);
とする。
以下に、各ステップ毎に説明する。
ステップ201)
入力は、入力映像全フレームデータ記憶部6から読み出した入力映像である。
i番目のフレーム画像をf(x,y)(i=1,2,…,N)とする。但し、Nは入力映像の総フレーム数とする。カメラのモデルを以下の式と近似的に定義することができる。
Figure 0004259421
カメラワークに対してαは、ズームに関わるパラメータ、a,bはズーム・インとズーム・アウトを除くカメラワーク(パン・チルト等)に関わるパラメータである。上式は、カメラワーク検出部31が、この3個のパラメータを各フレーム間で全て算出する。求める手法として、f(x,y)とfi+1(xi+1,yi+1)をn×nのブロックに分割する。但し、nは任意の自然数、f(x,y)の各ブロックについて、fi+1(xi+1,yi+1)上で誤差が最小となるブロックを探索することで、そのフレーム間の対応を算出することができる。この対応関係と上式から、最小二乗法により各フレームのα,a,bを求めることが可能である。
求められた各フレームのカメラパラメータ列α,a,b(i=1,2,…,N)を出力する。
ステップ202)
上記のステップ201で出力された各フレームのカメラパラメータ列α,a,b(i=1,2,…,N)を入力とし、各フレームのカメラパラメータ列から、映像をカメラワークによってセグメント分割し、カメラワークセグメントプロファイル33を出力する。分割されたセグメントをカメラワークセグメント呼ぶ。
最初に、ズーム検出を行う。入力映像のフレーム番号をx軸に、パラメータαをy軸としてプロットする。このとき、ある一定時間Tzoom以上、正の値が続く区間はズーム・イン(CWLabel 0)、また、負の値が続く区間をズーム・アウト(CWLabel 1)であると判定する。そして、このカメラワークセグメントの、カメラワーク種別をラベリングし、その開始フレーム番号、終了フレーム番号が記録される。
さらに、判定された区間は、これ以後の判定処理の対象から除去する。次に、ズーム・インとズーム・アウトを除くカメラワークの判定を行なう。ズーム検出と同様に、入力映像のフレーム番号をx軸に、パラメータaとパラメータbの自乗和をy軸としてプロットする。このとき、ある一定時間Tpan/tilt以上、正の値が続く区間はズーム・インとズーム・アウトを除くカメラワーク区間(CWLabel 2)であると判定し、カメラワーク種別をラベリングし、その開始フレーム番号、終了フレーム番号が記録される。上記のズーム・イン区間と、ズーム・アウト区間、ズーム・インとズーム・アウトを除くカメラワーク区間にもれた区間は、カメラワークが無い区間(CWLabel 3)と判定され、カメラワーク種別をラベリングし、その開始フレーム番号、終了フレーム番号が記録される。
これにより、カメラワークセグメントプロファイル33(カメラワーク種別、開始フレーム番号、終了フレーム番号)が出力される。
ステップ203)
ステップ103で分割されたカメラワークセグメントの総数をNcsとする。
以上が、カメラワーク検出部31によるカメラワーク検出処理である。
次に、動物体検出部32の処理を以下に示す。
ステップ204)
ループカウンタ(j)を初期化する。
ステップ205)
ループカウンタ(j)をインクリメントする。
ステップ206)
ステップ202で生成されたカメラワークセグメントのj番目のカメラワークセグメントプロファイル33を取り出す。
ステップ207)
上記のj番目のカメラワークセグメントのカメラワーク種別を入力とし、j番目のカメラワークセグメントのカメラワーク種別がズーム・イン、ズーム・アウトかどうか判定する。この判定は、ステップ202でカメラワークによるセグメント分割処理でセグメント毎にラベリングされているカメラワーク種別を読み取ることで判定する。
・“CWLabel 0”ならば、ズーム・イン;
・“CWLabel 1”ならばズーム・アウト;
・“CWLabel 2”ならばズーム・インとズーム・アウトを除くカメラワーク;
・“CWLabel 3”ならばカメラワーク無し;
と判定する。ズーム・イン、ズーム・アウトならば、動物体検出をする必要がないので、セグメントプロファイルを整理・出力する処理へ移行する。ズーム・イン、ズーム・アウトでなければ、動物体を検出する必要があるので動物体検出処理へ移行する。
ステップ208)
対象カメラワークセグメントに含まれる映像フレーム、上述のi番目カメラワークセグメントのカメラワーク種別、開始フレーム番号、終了フレーム番号を入力とする。
対象カメラワークセグメントに含まれる映像フレームから、動物体が存在するかどうかを判定し、その有無でさらにカメラワークセグメントを分割する。同時に分割されたセグメントの開始フレーム番号と、終了フレーム番号を算出する。動物体の検出には、オプティカル・フローを算出し、そのグルーピングによって求めることができる。詳しくは、「コンピュータビジョン:谷内田正彦編(丸善株式会社)」を参照されたい。動物体が検出された場合、そのフレーム内での重心座標を出力する。動物体が複数検出された場合、その分割区間内で、それぞれの動物体をトラッキングし、その全てのフレーム画像内で占める面積の総和が最大となる動物体を座標出力対象の動物体とする。これにより、動物体の有無、開始フレーム番号、終了フレーム番号、動物体の重心座標が出力される。
ステップ209)
全てのカメラワークセグメントを解析し終えたか判定する。判定は、ループカウンタjがNcsに等しいかによって判定する。解析しなければならないカメラワークセグメントが残っている場合は、ステップ206に戻り、全てのカメラワークセグメントの解析が終了するまで繰り返す。
ステップ210)
カメラワークセグメントプロファイル、動物体の有無、開始フレーム番号、終了フレーム番号、動物体の重心座標を入力とし、各セグメントのセグメントプロファイルを生成する。カメラワーク種別と動物体の有無からセグメント種別を判定し、ラベリングを行い、開始フレーム番号、終了フレーム番号、動物体の重心座標をセグメント記憶部7に書き出す。動物体の重心座標は、動物体がある場合はそのx座標、y座標を設定し、無い場合は、NULLを出力する。
出力は、セグメントプロファイル(セグメント種別、開始フレーム番号、終了フレーム番号、動物体の座標)である。
次に、各セグメントに応じた代表画像を生成する過程(ステップ104)について詳述する。
セグメント代表画像生成部4が、入力として、入力画像、各セグメントのセグメントプロファイル、各フレームの品質評価指標を入力画像全フレームデータ記憶部6、セグメント記憶部7、評価指標ファイル8からそれぞれ読み出して、そのセグメント種別に応じた代表画像を生成し、代表画像ファイル9に出力する。
図5は、本発明の一実施の形態におけるセグメント代表画像生成処理のフローチャートである。
総セグメントの数をNとする(ステップ301)。ループカウンタ(i)の初期化を行なう(ステップ302)。ループカウンタ(i)をインクリメントする(ステップ303)。
ステップ103によって分割されたセグメントのi番目のセグメントプロファイルを読み込む(ステップ304)。処理対象のセグメントのセグメントプロファイルのセグメント種別のラベルにより処理を場合分けする(ステップ305)。
ズーム・イン(Label 0)の場合、セグメントの開始時、終了時、若しくは、その一方の時点をTD 0とすると、その近傍のフレーム区間(TD 0−εからTD 0+ε)を画像選択区間とする(ステップ306)。但し、εは予め定めた近傍の範囲を定める値であり、これ以後使用されるεも同意である。この区間において、品質評価指標が最大となるフレーム画像を選択する(ステップ320)。(前後かその一方にするかは事前に設定しておくものとする)。
ズーム・アウト(Label 1)の場合、セグメントの終了時点をTD 1とすると、その近傍フレーム区間(TD 1−εからTD 1+ε)を画像選択区間とする(ステップ307)。この区間において、品質評価指標が最大となるフレーム画像を選択する(ステップ320)。
ズーム・インとズーム・アウトを除くカメラワークで動物体有り(Label 2)の場合、まず、動物体の重心座標列から、座標間の距離を求めることでフレーム間での動物体の動き量を計算する。動物体の動き量が閾値(Dm 1)以下の時間が一定時間Dt 1以上ある場合、動物体の極小時間をT 3とし、その近傍フレーム区間(TD 3−εからTD 3+ε)を画像選択区間と設定する(ステップ308〜ステップ309)。この区間において、品質評価指標が最大となるフレーム画像を選択する(ステップ320)。
動物体の動き量が閾値(Dm 1)以上で、かつ、動物体が画像の中央に位置するときの時刻をTD 4とし、その近傍フレーム区間(TD 4−εからTD 4+ε)を画像選択区間と設定する(ステップ310〜ステップ311)。この区間において品質評価指標が最大となるフレーム画像を選択する(ステップ320)。
それ以外の場合は、セグメントの最初、中間、最後など、事前に設定しておいた選定ルールに従って決められた時刻TD 5を検出し、その近傍フレーム区間(TD 5−εからTD 5+ε)を画像選択区間と設定する(ステップ312)。この区間において、品質評価指標が最大となるフレーム画像を選択する(ステップ320)。
ズーム・インとズーム・アウトを除くカメラワークで動物体無し(Label 3)の場合、パノラマ画像を合成する(ステップ313)。その合成方法は、「谷口行信、阿久津明人、外村佳伸:PanoramaExcerpts:パノラマ画像の自動生成・レイアウトによる映像一覧:電子情報通信学会誌、D-II Vol.J82-D-II, No3 pp.390-398(1999)」を用いてもよい。
カメラワーク無しで動物体有り(Label 4)の場合、最初に、動物体の重心座標列から、座標間の距離を求めることで、フレーム間での動物体の動き量を計算する。動物体の動き量が閾値(Dm 2)以上の時間が一定時間(Dt 2)以上ある場合、動物体の動き量の極小時間をTD 6とし、その近傍フレーム区間(TD 6−εからTD 6+ε)を画像選択区間と設定する(ステップ314〜ステップ314)。この区間において、品質評価指標が最大となるフレーム画像を選択する(ステップ320)。
動物体の動き量が閾値(Dm 2)以上で、かつ、動物体が画像の中央に位置するときの時刻TD 7とし、その近傍フレーム区間(TD 7−εからTD 7+ε)を画像選択区間と設定する(ステップ316〜ステップ317)。この区間において、品質評価指標が最大となるフレーム画像を選択する(ステップ320)。
それ以外の場合は、セグメントの最初、中間、最後など、事前に設定しておいた選定ルールに従って決めた時刻TD 8を検出し、その近傍フレーム区間(TD 8−εからTD 8+ε)を画像選択区間と設定する(ステップ318)。
この区間において、品質評価指標が最大となるフレーム画像を選択する(ステップ320)。
カメラワーク無しで動物体無し(Label 5)の場合、セグメントの最初、中間、最後など、事前に設定しておいた選定ルールに従って決めた時刻TD 9を検出し、その近傍フレーム区間(TD 9−εからTD 9+ε)を画像選択区間と設定する(ステップ319)。この区間において、品質評価指標が最大となるフレーム画像を選択する(ステップ320)。
全てのセグメントを処理したのかを判定する(ステップ321)。全てのカメラワークセグメントを解析し終えたか判断する。判定はループカウンタiがNに等しいかによって判定する。
全てのセグメントを処理したならば、セグメント代表画像を出力する。
本発明は、図3〜図5に示したフローチャートの動作をプログラムとして構築し、代表画像選出処理の際に利用されるコンピュータにインストールする、または、ネットワークを介して流通させることが可能である。
なお、本発明は、上記の実施の形態及び実施例に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。
本発明は、未編集映像コンテンツのような、シナリオの無い映像素材コンテンツに対して、主題静止画を選出する技術に適用可能である。
本発明の原理を説明するための図である。 本発明の一実施の形態における代表画像選出装置の構成図である。 本発明の一実施の形態における動作の概要を示すフローチャートである。 本発明の一実施の形態におけるセグメント分割部のフローチャートである。 本発明の一実施の形態におけるセグメント代表画像生成処理のフローチャートである。
符号の説明
1 映像入力・蓄積部
2 フレーム画像品質解析部
3 セグメント分割部
4 セグメント代表画像生成部
5 表示部
6 入力映像全フレームデータ記憶部
7 セグメント記憶部
8 評価指標ファイル
9 代表画像ファイル
31 カメラワーク検出部
32 動物体検出部
33 カメラワークセグメントプロファイル

Claims (2)

  1. 未編集の映像データから、代表画像を選出する代表画像選出方法において、
    前記未編集の映像データを読み込み、第1の記憶手段に格納する映像データ入力過程と、
    予め定義されている、カメラワークと映像内の動物体の有無に基づいた6種類のセグメント種別に基づいて、前記第1の記憶手段の映像データについて、撮影者の意図が反映されるカメラワーク及び映像内の動物体の有無を検出することによりセグメント分割し、セグメントプロファイルを第2の記憶手段に格納するセグメント分割過程と、
    少なくとも、前記第2の記憶手段に格納されているセグメントプロファイル及び、前記第1の記憶手段に格納されている映像データから各セグメント種別に応じた代表画像を選出し、第3の記憶手段に格納する代表画像生成過程と、
    前記第3の記憶手段に格納された前記代表画像を表示する表示過程と、からなり、
    前記セグメント分割過程において、前記映像データをセグメント種別に分類する際に、カメラワークが同時に起こった場合は、ズーム処理を優先させて、
    ズーム・インの場合、
    ズーム・アウトの場合、
    ズーム・インとズーム・アウトを除くカメラワークが有りで動物体有りの場合、
    ズーム・インとズーム・アウトを除くカメラワークが有りで動物体なしの場合、
    カメラワークが無く動物体が有りの場合、
    カメラワークが無く動物体が無しの場合、
    の6つの分類に基づいて行い、
    前記代表画像生成過程において、
    前記セグメント分割過程で決定された前記セグメント種別が、ズーム・インの場合には、ズーム・インの開始点、終了点、もしくはどちらか一方を代表画像として選択し、
    前記セグメント種別が、ズーム・アウトの場合には、ズーム・アウトの終了点のフレーム画像を代表画像として選択し、
    前記セグメント種別が、ズーム・インとズーム・アウトを除くカメラワークが有りで動物体有りの場合には、動物体の動き量の特徴点であるフレーム画像、明確な動き量の特徴がない場合は動物体が中央に位置する時点のフレーム画像を代表画像として選択し、さらに、動物体が中央に位置する時点のフレーム画像も無い場合は、予め設定されたルールに従って代表画像を出力し、
    前記セグメント種別が、ズーム・インとズーム・アウトを除くカメラワークが有りで動物体無しの場合には、パノラマ画像を出力し、
    カメラワークが無く動物体が有る場合は、動物体の動き量の特徴点であるフレーム画像、明確な動き量の特徴が無い場合は動物体が中央に位置する時点のフレーム画像を代表画像として選択し、更に、動物体が中央に位置する時点のフレーム画像も無い場合は、予め設定されたルールに従って代表画像を出力し、
    カメラワークが無く動物体が無い場合は、予め設定されたルールに従って代表画像を出力する
    ことを特徴とする映像の代表画像選出方法。
  2. 未編集の映像データから、代表画像を選出する映像の代表画像選出プログラムであって、
    請求項1記載の映像の代表画像選出方法の実現に用いられる処理をコンピュータに実行させることを特徴とする映像の代表画像選出プログラム。
JP2004225601A 2004-08-02 2004-08-02 映像の代表画像選出方法及びプログラム Expired - Fee Related JP4259421B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004225601A JP4259421B2 (ja) 2004-08-02 2004-08-02 映像の代表画像選出方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004225601A JP4259421B2 (ja) 2004-08-02 2004-08-02 映像の代表画像選出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2006050076A JP2006050076A (ja) 2006-02-16
JP4259421B2 true JP4259421B2 (ja) 2009-04-30

Family

ID=36028152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004225601A Expired - Fee Related JP4259421B2 (ja) 2004-08-02 2004-08-02 映像の代表画像選出方法及びプログラム

Country Status (1)

Country Link
JP (1) JP4259421B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8024376B2 (en) * 2006-03-10 2011-09-20 Pioneer Corporation Information processing apparatus, information processing method, and information processing program
WO2007108458A1 (ja) * 2006-03-23 2007-09-27 Matsushita Electric Industrial Co., Ltd. コンテンツ撮影装置
JP4909315B2 (ja) * 2008-06-05 2012-04-04 日本電信電話株式会社 映像処理装置及び方法及びプログラム及びコンピュータ読取可能な記録媒体
US8599316B2 (en) * 2010-05-25 2013-12-03 Intellectual Ventures Fund 83 Llc Method for determining key video frames
JP5532344B2 (ja) * 2011-09-28 2014-06-25 株式会社東芝 電子機器、画像データの表示方法およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06276467A (ja) * 1993-03-23 1994-09-30 Toshiba Corp 映像インデックス作成方式
JPH08191411A (ja) * 1994-11-08 1996-07-23 Matsushita Electric Ind Co Ltd シーン判別方法および代表画像記録・表示装置
JP3312105B2 (ja) * 1997-02-05 2002-08-05 株式会社東芝 動画像インデックス生成方法および生成装置
JP3096280B2 (ja) * 1997-11-10 2000-10-10 日本電信電話株式会社 電子映像文書作成利用方法及びプログラム格納媒体
JPH11341349A (ja) * 1998-05-26 1999-12-10 Nippon Telegr & Teleph Corp <Ntt> 映像編集装置及び映像編集方法並びにこの方法を記録した記録媒体

Also Published As

Publication number Publication date
JP2006050076A (ja) 2006-02-16

Similar Documents

Publication Publication Date Title
US8818038B2 (en) Method and system for video indexing and video synopsis
US7730043B1 (en) Incremental batch-mode editing of digital media objects
US6807361B1 (en) Interactive custom video creation system
JP4241709B2 (ja) 画像処理装置
JP4838011B2 (ja) 画像メタデータおよび空間情報に基づく判断基準を使用した自動デジタル画像グルーピング
US7594177B2 (en) System and method for video browsing using a cluster index
US7505051B2 (en) Method for generating a slide show of an image
JP4580183B2 (ja) 視覚的に代表するビデオサムネイルの生成
US7916894B1 (en) Summary of a video using faces
US20080019661A1 (en) Producing output video from multiple media sources including multiple video sources
EP1377047A2 (en) Computer user interface for interacting with short segments of video (cliplets) generated from digital video
EP1376584A2 (en) System and method for automatically generating video cliplets from digital video
JP2010239605A (ja) 映像編集装置
US20080019669A1 (en) Automatically editing video data
US20040264939A1 (en) Content-based dynamic photo-to-video methods and apparatuses
JP2006268843A (ja) 電子アルバム編集システム、電子アルバム編集方法、及び電子アルバム編集プログラム
US9449646B2 (en) Methods and systems for media file management
JP4496992B2 (ja) 動物体アップフレーム検出方法及びプログラム及びプログラムを格納した記憶媒体及び動物体アップショット検出方法及び動物体アップフレームあるいはショット検出方法及びプログラム及びプログラムを格納した記憶媒体
EP2180699A1 (en) Image processor, animation reproduction apparatus, and processing method and program for the processor and apparatus
JP2003303333A (ja) 画像表示制御装置
JP4639043B2 (ja) 動画像編集装置及び動画像編集方法
JP4606278B2 (ja) 映像構造化方法及び装置及びプログラム
JP5268025B2 (ja) 撮影装置
JP4259421B2 (ja) 映像の代表画像選出方法及びプログラム
US20110038509A1 (en) Determining main objects using range information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090120

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090202

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees