JP4218945B2 - Moving image processing method, moving image processing apparatus, computer-readable recording medium, and control program - Google Patents

Moving image processing method, moving image processing apparatus, computer-readable recording medium, and control program Download PDF

Info

Publication number
JP4218945B2
JP4218945B2 JP2003129455A JP2003129455A JP4218945B2 JP 4218945 B2 JP4218945 B2 JP 4218945B2 JP 2003129455 A JP2003129455 A JP 2003129455A JP 2003129455 A JP2003129455 A JP 2003129455A JP 4218945 B2 JP4218945 B2 JP 4218945B2
Authority
JP
Japan
Prior art keywords
moving image
shot
sub
section
division information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003129455A
Other languages
Japanese (ja)
Other versions
JP2004336381A (en
JP2004336381A5 (en
Inventor
洋 東條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003129455A priority Critical patent/JP4218945B2/en
Priority to US10/829,437 priority patent/US8718128B2/en
Publication of JP2004336381A publication Critical patent/JP2004336381A/en
Publication of JP2004336381A5 publication Critical patent/JP2004336381A5/ja
Application granted granted Critical
Publication of JP4218945B2 publication Critical patent/JP4218945B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、動画像を撮像装置の操作や撮像装置の状態の変化点等を利用して分割する技術に関する。
【0002】
【従来の技術】
一般に、特許文献1や特許文献2に見られるように、動画の撮像装置の操作(パン、チルト)や、撮像装置の状態の変化点(フォーカスなど)ごとに動画像の分割を行うことによって、所望の場所からの再生や、動画編集、自動的な動画像の要約を可能とし、内容の確認を容易にしている。このような方法は、特に、1つの動画中に様々な撮影対象が含まれていたり、撮影環境が変化したりした場合に有効である。
【0003】
【特許文献1】
特開平08−163488号公報
【特許文献2】
特許第3192663号公報
【0004】
【発明が解決しようとする課題】
しかしながら、1つの動画が長ければ長いほど、そして、その動画に含まれる撮影対象や撮影環境の変化が多ければ多いほど、従来の手法では、動画はたくさんの区間に分割されてしまうことになる。
【0005】
例えば、図21は従来の技術による動画像の分割を説明する図である。(a)は、同じ動画に対して、撮像装置に対する操作区間や撮像装置の状態の変化点(Gain、White Balance、被写体距離、Zoom、Pan)を項目ごとに示している。また、(b)は、これらGain、White Balance、被写体距離、Zoom、Panを用いて動画像の分割を行った結果を示している。図21に示したように、複数種類の項目による分割個所が混在することにより、動画像が多くの区間に細分化されてしまう。また、複数の種類の項目によって区間が決定されているところでは、区間が意味のある単位とならない(ここで意味のある単位とは、例えば、被写体Aが映っている区間、というものである)。例えば、図21のAの区間は、White Balanceの変化点で始まり、Pan操作の終了点で終わっており、意味のある単位となっていない。
【0006】
従って、上述のような従来技術の状況では、動画中の所望の区間を探すにも、ひとつひとつの確認に時間がかかってしまう。また、動画編集などにおいて、意味のある単位で区間を取り出したい場合は、開始点と終了点を修正しなければならないなど、結局は、ユーザへ負担を強いる結果になってしまう。
【0007】
上記のような動画像は特にアマチュアの撮影者が、撮影を行った場合に顕著に見られる傾向である。アマチュアの撮影者は、撮影に不慣れであるのと、通常は1台の撮像装置を用いて撮影を行うため、撮影対象を探しながら撮影したり、一度に多くの場所で、多くの被写体を撮影したりするの傾向があるからである。
【0008】
本発明は、上記の問題に鑑みてなされたものであり、撮影装置の操作や状態の変化が多数含まれる動画であっても、所望の場所を素早く見つけ、再生や編集作業を容易化することを目的とする。
【0009】
【課題を解決するための手段】
上記の目的を達成するための本発明による動画像処理方法は、
動画像の撮影時の状態を示す複数項目のデータのそれぞれに基づいて生成された、当該動画像を分割するための分割情報が、各項目毎に読み出し可能に登録された動画像データを処理する動画像処理方法であって、
前記複数項目より選択された複数の項目によって構成される項目グループを定義し、該項目グループに属する項目に対応する分割情報を統合して当該項目グループに対応した統合分割情報を生成する生成工程と、
前記生成工程により複数種類の項目グループについて統合分割情報を生成し、生成された複数の統合分割情報の階層順位に従い上位階層の統合分割情報による分割位置を下位階層の統合分割情報の分割位置に追加する階層化工程と、
前記階層化工程で得られた統合分割情報を前記動画像データに対応させて保持する保持工程とを備える。
【0010】
また、上記の目的を達成するための本発明による動画像処理装置は以下の構成を備える。すなわち、
動画像の撮影時の状態を示す複数項目のデータのそれぞれに基づいて生成された、当該動画像を分割するための分割情報が、各項目毎に読み出し可能に登録された動画像データを処理する動画像処理装置であって、
前記複数項目より選択された複数の項目によって構成される項目グループを定義し、該項目グループに属する項目に対応する分割情報を統合して当該項目グループに対応した統合分割情報を生成する生成手段と、
前記生成手段により複数種類の項目グループについて統合分割情報を生成し、生成された複数の統合分割情報の階層順位に従い上位階層の統合分割情報による分割位置を下位階層の統合分割情報の分割位置に追加する階層化手段と、
前記階層化手段で得られた統合分割情報を前記動画像データに対応させて保持する保持手段とを備える。
【0011】
【発明の実施の形態】
以下、本発明の実施の形態について添付の図面を用いて説明する。
【0012】
〔第1実施形態〕
図1は第1実施形態による動画像処理システムの構成を示すブロック図である。図1において1010は撮像装置であり動画像を撮像する。1020は記憶媒体であり、動画像などを格納しておくのに用いられる。1030はブラウズ装置であり、記憶媒体1020に含まれた動画像を閲覧し、再生する。以下、本実施形態による撮像装置1010とその制御方法および記憶媒体の実施形態について説明する。
【0013】
図2は本実施形態における撮像装置の構成を示すブロック図である。図2において、11はレンズ部であり、被写体距離を調整するフォーカスレンズと焦点距離を調整するズームレンズとを含み、被写体を撮像素子13上に結像させる。12は絞りであり、撮像素子13に到達する光量を調節する。13は撮像素子であり、であり、入力した光を電気信号に変換するCCDを含む。14はサンプルホールド・AGC回路であり、サンプルホールドおよびゲイン調整を行う。15はA/D変換部であり、アナログデジタル変換(A/D変換)を行う。16は映像信号処理部であり、信号を処理して映像信号を生成する。18はノイズリダクション部(NR)であり、フィールドメモリを有し、映像信号のノイズを除去する。19はレンズ位置検出部であり、レンズの位置を検出する。20はレンズ駆動部であり、レンズを駆動する。
【0014】
21はシステム制御部であり、撮像装置全体を制御する。図3はシステム制御部21の構成を示すブロック図である。システム制御部21は周知のCPU301、ROM302、RAM303、I/Oインターフェース304、およびバス305を有する。ROM302には、CPU301によって実行される後述のプログラム、テーブル値などが格納されている。
【0015】
22はユーザ操作部であり、ユーザが撮像装置を操作するためのキーが配置されている。23はズームをワイド(広角=画像縮小)方向に動作させるワイド・キー、24はテレ(望遠=画像拡大)方向に移動させるテレ・キーである。ワイド・キー23およびテレ・キー24は、例えばシーソー型の連動したキーであり、どちらのキーがどの程度の押し圧により押されているかを示す出力信号をシステム制御部21に出力する。なお押し圧は拡大縮小のスピードを決定する。29は録画ボタンであり、ONされるとシステム制御部21は撮像装置を録画状態にする。30はモードダイヤルであり、ユーザはこれを操作することで各種の設定を行う。例えば、フォーカスモード(自動/手動)、露光モード(自動、ゲイン優先、シャッタ速度優先、絞り優先、手動)、White Balance Mode(以下、WB Modeと表記する)(プリセット-太陽光、くもり、電球、蛍光灯)などである。
【0016】
設定された情報はシステム制御部21へ入力され、システム制御部21が設定に応じて撮像装置を制御する。ノイズリダクション部(NR)18は巡回型ノイズリダクション回路で構成される。26は、映像データをMPEG-2の形式に符号化するMPEG CODECである。27は記録部であり、記録媒体を駆動し、情報を記録するドライブなどで構成される。28は記録媒体であり、光ディスク、磁気ディスク、光磁気ディスク、磁気テープ、ハードディスク、不揮発性の半導体メモリ(フラッシュメモリ等)等である。などである。25は、X方向回転速度検出であり、撮像装置を水平方向に振ったときの速度をジャイロセンサなどを用いて検出する。31は、Y方向回転速度検出であり、撮像装置を垂直方向に振ったときの速度をX方向回転速度検出25と同様に、ジャイロセンサなどを用いて検出する。32は被写体までの距離を測距検出する測距検出部である。測距検出部32としては公知のものを適用でき、例えば、撮像装置1010の発光窓(図示せず)から被写体に向けて発光した赤外光が被写体に当って反射してくるのを受光窓(図示せず)から受光し、内部に設けられた受光素子、たとえばPSD(Position Sensitive Device)で測距信号に変換する。
【0017】
以上のような構成を備える撮像装置の動作概要を説明する。レンズ部11より受光した被写体からの光は、絞り12によりその光量が調整され、撮像素子13の面上に結像する。そして、撮像素子13によって電気信号に変換された後、サンプルホールド・AGC部14を介してA/D変換部15によりA/D変換され、映像信号処理部16に入力する。映像信号処理部16では、入力信号に対して輝度および色成分毎にアパーチャ補正、ガンマ補正、ホワイトバランス補正などの処理が施されて映像信号が生成され、ノイズリダクション部18へ出力する。ノイズリダクション部18では、システム制御部21からの制御信号により制御され、映像信号のノイズを除去する。ノイズが除去された映像信号は、MPEG CODEC26に出力される。MPEG CODEC26では、入力された映像信号の符号化を行う。このとき、MPEG CODEC26は、システム制御部21から入力されるカメラ付与情報(後述する)を符号化された映像信号と共にファイルとして格納し、MPEG CODEC26に接続された記録装置などに出力する。
【0018】
システム制御部21は、撮像装置各部を制御するとともに、ズーム操作キー部22のワイド・キー23およびテレ・キー24が押されていると、レンズ駆動部20の制御または電子ズーム部17の制御を行い、ズームをワイド方向またはテレ方向に移動させる。また、システム制御部21は、レンズ位置検出部19からのレンズ位置検出信号により、ズームレンズ11がテレ端(最望遠端点)、ワイド端(最広角端点)あるいはテレ端とワイド端のどこに位置する(ズーム倍率)のかを判断する。
【0019】
また、システム制御部21は、ノイズリダクション部18に出力する制御信号により、光学ズームの停止時と動作時でノイズリダクションの制御値を切り換える。これによって、ノイズリダクションの効き量、つまりノイズの除去量を可変する。このとき、切り換えられる制御値は巡回係数Kである。また、上記制御信号による制御値の切り換えは被写体の明るさによっても行われる。すなわち、被写体の明るさが暗くなるにつれて映像信号のS/Nが悪くなるので、それを補うためにノイズリダクションの効き量を大きくするように制御値を切り換える。また、システム制御部21は、被写体からの光信号の量に対し、生成する映像信号のレベルを所定値に維持するため、絞り12、サンプルホールド・AGC部14、電子シャッタ(図2では、電子シャッタを省略している)などを制御しており、これらの露出制御に用いる絞り値、AGCゲイン、電子シャッタスピードなどにより、被写体の明るさを総合的に判断する。
【0020】
以上の構成において、本実施形態の撮像装置は、撮影した各フレームにカメラ付与情報を付与する。カメラ付与情報とは、撮像装置が付与可能な動画像に関連する情報のことである。これは、システム制御部21が、映像信号処理部16、ノイズリダクション部18、電子ズーム部17、レンズ駆動部20を制御するときに使用したアパーチャ補正、ガンマ補正、WB補正に関する情報や、レンズ位置検出部19、X方向回転速度検出25、Y方向回転速度検出31、測距検出32などの検出手段から得た情報(被写体距離など)、ユーザ操作部22から得たユーザによる設定に関する情報(WB Modeなど)、ユーザ操作部22から得たユーザの操作(ズーム操作など)に関する情報など、各種付帯情報を含む。なお、図2では不図示であるが、温度計・湿度計など、他のセンサを備えれば、この情報をカメラ付与情報として用いることが可能であるし、撮像装置1010に接続されるストロボなどのアクセサリや、計測機器など、外部機器の情報も、映像との対応関係がとれれば、カメラ付与情報として用いることが可能である。
【0021】
次に、撮像装置1010の動画撮影処理の手順を図4に示したフローチャートを参照して説明する。まず、ステップS401において、ユーザが、録画ボタン29をONして、録画開始を指示したかどうかを判定する。録画開始が指示されるまで、撮像装置1010は待機状態となる。録画開始が指示されると、録画状態となり、ステップS402へ進む。このとき、録画開始の時刻を、システム制御部21からMPEG CODEC26へ送り、ファイルのヘッダに記述する。ステップS4020において、上述したように各種センサなどの情報をもとにシステム制御部21が、撮像装置1010を制御して、1フレーム分の画像を撮像する。このとき、撮像装置1010の制御情報はフレーム単位のカメラ付与情報としてRAM303に保持する。制御情報の形式の一例として、以下の表1にGain及び被写体距離(Substance Distance)に関する設定情報を示す。
【0022】
【表1】

Figure 0004218945
【0023】
次に、ステップS403において、ユーザがカメラ操作部22を介してカメラの設定を行ったかどうかを判定する。カメラの設定が行われたときは、ステップS404において、システム制御部21はカメラの設定を変更する。このとき、変更したカメラの設定情報をフレーム単位のカメラ付与情報としてRAM303に保持する。カメラ付与情報としての設定情報の形式の一例として、以下の表2に、WBに関する設定情報を示す。
【0024】
【表2】
Figure 0004218945
【0025】
次に、ステップS405において、カメラが操作されたかどうかを判定する。カメラ操作がなされたか否かは、例えば、ズーム操作であれば、ユーザ操作部22のワイド・キー23、テレ・キー24が操作されたかで判定できるし、パン・チルト操作であれば、X方向回転速度検出25、Y方向回転速度検出31により検出が可能である。カメラが操作されていれば、ステップS406に進み、システム制御部21は操作に合わせて、各種センサ情報をチェックしながら撮像装置を制御する。このとき、操作に関する情報をフレーム単位のカメラ付与情報としてRAM303に保持する。カメラ付与情報としての操作情報の形式の一例として、以下の表3に、Zoom及びPanに関する設定情報を示す。
【0026】
【表3】
Figure 0004218945
【0027】
以上のステップS402、S404、S406において、RAM303に保持されたフレーム単位のカメラ付与情報は、フレーム単位にビットフィールドで管理し、これを所定のフレーム数分保持する。次にステップS407において、RAM303に保持されたフレーム単位のカメラ付与情報を、カメラ付与情報の項目ごとに参照し、区間単位にまとめられるものがあれば、まとめてRAM303に保持する。
【0028】
以下の表4〜6に、区間単位のカメラ付与情報の項目の例を示す。区間単位にまとめるとは、例えばGainに関して区間単位にまとめるのであれば、Gainの値が0であるフレーム群に対応する区間を1つの区間、0より大きいフレーム群に対応する区間を1つの区間とする。また、被写体距離に関して区間単位にまとめるのであれば、被写体距離が一定の区間と変化している区間とで、それぞれ被写体距離一定区間(Constant Substance Distance)と被写体距離変化区間(Changing Substance Distance)とにわけて、まとめる。なお、被写体一定区間は、被写体距離を6つのSTEPで表現する。例えば、被写体距離が0から20cmであれば、STEP1とする。このSTEPは、被写体サイズの大きさが十分に変化するかどうかを基準として、分けたものである。ここで被写体サイズとは、フレーム内に占める被写体の大きさの割合のことである。つまり、被写体サイズが最大のときは、アップの映像となる。
【0029】
被写体距離変化区間は、被写体が1STEP以上変化した区間である。このとき、開始点と終了点の被写体距離を、被写体一定区間と同様の6つのSTEPで表現する。なお、変化区間の変化の方向は同一であるとする。つまり、被写体距離が大きくなり、連続して、次に小さくなるような場合は、大きくなっている間を一つの区間、小さくなっている間を一つの区間とする。
【0030】
WBであれば、同じWB modeであるフレーム群に対応する区間を一つの区間とする。また、Zoomであれば、Zoom操作の開始から終了までのフレーム群に対応する区間を一つの区間とする。Panであれば、Pan操作の開始から終了までのフレーム群に対応する区間を一つの区間とする。なお、このとき、区間の開始点と終了点のフレーム位置を時間情報(当該ショットの撮影開始からの時間)として関連付けて記憶しておく。なお、区間の開始点と終了点はフレーム位置を特定できればよいので、時間情報の代わりにフレーム番号を用いてもよい。
【0031】
【表4】
Figure 0004218945
【0032】
【表5】
Figure 0004218945
【0033】
【表6】
Figure 0004218945
【0034】
次に、ステップS408において、ユーザが、録画ボタン29をOFFするなどして、録画終了指示をしたかどうかを判定する。録画終了指示されていなければ、上述のステップS402からステップS407を繰り返し、録画を続ける。録画終了が指示された場合はステップS409へ進み、RAM303に保持された区間単位のカメラ付与情報を格納する。すなわち、区間単位のカメラ付与情報は、全て、システム制御部21からMPEG CODEC26に送られ、映像データの後半部にフッタとして付与され、記録部27へ送られる。この方法としては、例えば、区間単位のカメラ付与情報をプライベートストリームにして、TS(Transport Stream)パケットにしたものを末尾に追記すればよい。なお、本実施形態では、録画開始から終了までの1ショットを1ファイルとし、1つのショットに関するカメラ操作情報をそのファイルのフッタとして付与する。
【0035】
上記区間単位のカメラ付与情報をフッタとして格納する際の形式の一例を図5に示す。図5は、記憶媒体28の中に記録されている動画像ファイルに含まれるカメラ付与情報の格納形式を示したものである。この動画像ファイルには、動画像の情報とともに、その内容などの情報を簡潔に表現したカメラ付与情報が添付されている。すなわち、動画像ファイルはファイル内に動画像格納領域とカメラ付与情報格納領域とを保有しており、図5のカメラ付与情報の格納形式は、このカメラ付与情報格納領域の内部の構造を示したものである。カメラ付与情報の格納領域501は、固定長サイズのカメラ付与情報項目502をいくつか保有し、あまった領域を空き領域503とする構成を有する。
【0036】
図6は、図5に示したカメラ付与情報項目502の内部構造を示した図である。図6においてカメラ付与情報項目601は、固定長の項目をいくつか保有している。カメラ付与情報項目601の内部は、大きく2つに分けられ、一つはカメラ付与情報の属性情報602であり、もう一つはカメラ付与情報605である。カメラ付与情報の属性情報602はさらに内部構造を持ち、カメラ付与情報の付与対象区間情報603、カメラ付与情報のタイプ番号604を含む。
【0037】
カメラ付与情報のタイプ番号604は、カメラ付与情報を識別するための情報であり、撮影時のズーム情報であれば「10」といった具合に、個々のカメラ付与情報に対して予め割り当てられた識別用の番号を格納するものである。このタイプ番号604を利用することで、動画処理装置は、動画像ファイル内の特定のカメラ付与情報を検索することが可能になる。また、カメラ付与情報の付与対象区間情報603は、このカメラ付与情報の対象とする動画像データの区間を時間情報で表現したものである。
【0038】
次に、以上説明した撮像装置によって得られた動画像ファイルをブラウズする、本実施形態のブラウズ装置について説明する。
【0039】
図7は、本実施形態におけるブラウズ装置の制御構成を示すブロック図である。図7において、701はCPUであり、本実施形態のブラウズ装置における各種制御を実行する。702はROMであり、本装置の立ち上げ時に実行されるブートプログラムや各種データを格納する。703はRAMであり、CPU701が処理するための制御プログラムを格納するとともに、CPU701が各種制御を実行する際の作業領域を提供する。704はキーボード、705はマウスであり、ユーザによる各種入力操作環境を提供する。
【0040】
706は外部記憶装置であり、ハードディスクやフロッピー(登録商標)ディスク、光ディスク、磁気ディスク、光磁気ディスク、磁気テープ、不揮発性の半導体メモリ(例えばフラッシュメモリ)等の少なくとも何れかで構成される。707は表示器であり、ディスプレイなどで構成され、CPU701の制御下で各種処理結果等をユーザに対して表示する。708はネットワークインターフェースであり、ネットワーク上の各機器との通信を可能とする。711はバスであり、上記構成を接続する。
【0041】
図8は、本実施形態のブラウズ装置の機能構成を示すブロック図である。801は記憶媒体であり、図2の記憶媒体28に対応する。802は読取部であり、記憶媒体801上の動画像及びカメラ付与情報を読み取る。803はサブショット分割部であり、動画像データのフッタ部に付加されている上述のカメラ付与情報を基に動画像を意味のある区間(サブショット)に分割する。808はサブショット階層化部であり、サブショット分割部803で決定された区間を階層化するものである。807は、サムネイル作成部であり、サブショット階層化部808で階層化された区間に対して、サムネイルを作成するものである。806は記録部であり、記録媒体801上に、サブショット分割803、サブショット階層化部808で決定された分割点及び階層、そして、サムネイル作成部807によって作成されたサムネイルを記録する。804はユーザ操作部であり、キーボード704・マウス705を含んで構成され、動画再生指示などを与えるものである。805は閲覧・再生部であり、ユーザ操作部804を介したユーザの指示に基いて、表示器707上での動画ファイルの閲覧、再生などを可能とするものである。
【0042】
ここで、サブショット分割について更に説明する。図15は、サブショット分割の概要を説明する図である。1501から1503は同じ動画像ファイル(同じショット)中の動画像データを表しており、それぞれ観点に基づいて、意味のある区間(サブショットと呼ぶ)に分割されている。なお、「分割」するという表現は、サブショット単位の分割点を決定することを意味するものであり、実際に動画像ファイルを切り離すことを意味するものではない。
【0043】
図15において、1501は撮影した際の環境の観点で動画像を分割したものであり、ここでは、屋内の蛍光灯下で撮影された区間(a1)、屋外の太陽光下で撮影された区間(a2)の2つのサブショットに分割された例を示している。1502は、b)撮影した被写体の観点で分割しており、ここでは、被写体Aを撮影した区間(b1,b3)、被写体Bを撮影した区間(b2,b4)、被写体Cを撮影した区間(b5)の5つのサブショットに分割された例を示している。1503は、撮影した時の画角の観点で分割しており、ここでは、アップで撮影した区間(c1,c3,c5)、全体を撮影した区間(c2,c4,c6)の6つのサブショットに分割した例を挙げている。
【0044】
図18は、サブショットの階層化の概要を説明する図である。図18の1801から1803は図15の1501から1503と同じ動画像ファイルである。すなわち図18では、図15のサブショット分割の各観点に基いて階層化した結果が示されている。1801は第1階層であり撮影環境の観点の分割である。1802は第2階層であり被写体の観点の分割である。なお、階層の上位下位の決定については後述する。第1階層1801の蛍光灯下で撮影された区間(A-1)に対する下の階層として、蛍光灯下で、被写体Aを撮影した区間(A-1-1)、被写体Bを撮影した区間(A-1-2)、再び被写体Aを撮影した区間(A-1-3)が存在する。同様にA-2に対する下の階層としてA-2-1、A-2-2、A-2-3が存在する。1803は第3階層であり、被写体サイズの観点の分割である。第2階層で、蛍光灯下で被写体Bを撮影した区間(A-1-2)に対する下の階層として、被写体Bを、アップで撮影した区間(A-1-2-1)と全体で撮影した区間(A-1-2-2)が存在する。同様にA-1-3に対する下の階層としてA-1-3-1、A-1-3-2、そして、A-2-1に対する下の階層としてA-2-1、A-2-1-2、そして、A-2-2に対する下の階層としてA-2-2-1、A-2-2-2、そして、A-2-3に対する下の階層としてA-2-3-1、A-2-3-2が存在する。
【0045】
図9は、本実施形態のブラウズ装置によるユーザインターフェースの例を示す図である。901は、サムネイル及び動画再生用の表示領域である。表示領域901は、閲覧時はショットまたはサブショットのサムネイルを表示し、動画再生時は再生された動画像を表示する。902はポインタであり、ショットまたはサブショットを選択し、再生指示を行うときに使用される。903はスクロールバーであり、表示領域901にサムネイルを表示する際、表示すべきサムネイルの枚数が表示の限界(図9では9枚)を超えた場合に、これを操作することで一度に表示できないサムネイルを順に表示させることができる。904と905はサブショット表示ボタンである。「次へ」ボタン904がONされた場合は、現在選択されているショット、又は、サブショットの、一つ下の階層のサブショット一覧を表示領域901に表示する。「戻る」ボタン905がONされた場合は、「次へ」ボタンとは反対に、一つ上の階層のサブショット(或いはショット)の一覧を表示領域901に表示する。907は状態表示欄であり、サブショット表示の際、現在の階層と、当該階層のサブショット分割の観点を表示するものである。906は終了ボタンであり、本装置に処理の終了を指示するものである。
【0046】
図16は、表示領域901におけるそれぞれの操作に応じた表示状態を示すものである。(a)のショット閲覧時は、各ショットに対応するサムネイルの一覧を表示する。ポインタ902で所望のショットを選択し(図では太枠で表現され、ショットBが選択されていることを示している)、「次へ」ボタン904をONすると、選択されたショット(図ではショットB)のサブショットを表示する(b−1)。すなわち、選択されたショットの第1階層のサブショットのサムネイルの一覧が表示される。同様にポインタ902で所望のサブショットを選択し(図ではB-2)、「次へ」ボタン904をONすることによって、選択されたサブショットの下の階層のサブショットを表示させていくことが出来る((b-2)は第2階層を、(b-3)は第3階層を示す)。
【0047】
また、「戻る」ボタン905をONすれば、逆に、一つ上の階層のサブショットまたはショットの表示をさせることができる((b-3)から(b-2)→(b-1)→(a)など)。更に、サブショットをポインタ902で選択し((b-3)ではB-2-2-2が選択されている)、この状態でダブルクリックすると、選択したサブショットの先頭より動画像が再生され、表示領域901に表示される(c)。なお、(a)におけるショット閲覧時より所望のショットを選択し、ダブルクリックして、当該ショットの先頭から動画を再生させてみることも可能であることはいうまでもない。
【0048】
このようにユーザは動画像の所望の区間を、上の階層のサブショットから順に表示させ、探していくことができる。図18の例であれば、「蛍光灯下で」(第1階層)、「被写体Bを」(第2階層)、「アップで」(第3階層)したところ、というように、観点毎に順に絞り込んでいくことができる。
【0049】
以上のような本実施形態のブラウズ装置の動作について図10を参照してより詳細に説明する。図10は、本実施形態によるブラウズ装置の動作例を示したフローチャートである。
【0050】
本装置の処理は大きく、ステップS1001からステップS1005までのサブショット分割・階層化処理と、ステップS1006からステップS1011までのブラウジング処理とに分けられる。
【0051】
まず、サブショット分割処理から述べる。ステップS1001において、読取部802は記憶媒体801より全ての動画像ファイルを読み出し、それぞれに含まれる動画像データと複数のカメラ付与情報(以下、カメラ付与情報リストと記す)を得る。次に、ステップS1002において、サブショット分割部803は、読み出されたカメラ付与情報リストをもとに、観点別にサブショット分割を行い、各観点毎に分割点を決定する(処理の詳細は後述する)。次に、ステップSS1003においてサブショット階層化部808は、図18で説明したようなサブショットの階層化を行う。次に、ステップS1004において、サムネイル作成部807は、当該ブラウズ装置でサブショットを一覧するために表示するサムネイル画像を作成する。サムネイル画像はサブショットの区間の先頭フレームを動画像から取得し、縮小することによって得ることが出来る。ただし、もちろん、一覧表示の形態、及びサムネイルの生成は上記に限られるものではなく、サブショットの内容をおおよそ把握できればどのような形態であっても構わない。
【0052】
次に、ステップS1005において、記録部806は、階層化されたサブショット分割の結果を記憶媒体801に記録する。なお、記憶媒体801への記録は必須のものではなく、例えばRAM等を介して、閲覧・再生部805が分割結果を参照できるようにしてもよい。しかしながら、サブショット情報を一旦記憶媒体801に記録しておくことにより、他の機器においても階層化されたサブショット分割の結果を利用することができるようになる。
【0053】
ここでサブショット情報を格納する際の形式の例を説明する。図13は、記憶媒体801の中に記録されている動画像ファイルのサブショット情報の格納形式を示したものである。図13に示すように、図5において説明したカメラ付与情報格納領域の後にサブショット情報格納領域を追加し保有する。図13に示されるサブショット情報の格納形式はこのサブショット格納領域の内部の構造を示したものである。
【0054】
サブショット格納領域1301は、さらに内部で2つの領域に別れており、一つはサブショット・インデックスの格納領域1302であり、もう一つはサムネイル画像の格納領域1305である。サブショット・インデックスの格納領域1302は、固定長サイズのサブショット・インデックス1303をいくつか保有し、あまった領域を空き領域1304とする構成を有する。また、サムネイル画像の格納領域1305は、サムネイル画像1306をいくつか保有し、余った領域を空き領域1307とする構成を有する。
【0055】
図14は、図13中のサブショット・インデックス1303の内部構造を示した図である。サブショット・インデックス1401は、固定長の項目をいくつか保有している。サブショットID1405は、個々のサブショットを識別するためのIDでる。サブショットの区間情報1402は、サブショットの区間を時間情報で表現したものであり、ショット内の1つのサブショットを指示するためのものである。なお、サブショット区間は、カメラ付与情報と同様にフレーム番号で表してもよい。観点のタイプ番号1403は、サブショット分割時の観点(後述する)を識別するための番号である。階層1406は、当該サブショットが何階層目であるかを示すものである。Parent ID1407は、親となるサブショットのサブショットIDを記述するものである。もし、最も上位の階層のサブショットであれば、特別なID(0など)を付与しておく。サムネイル画像の格納位置情報1404は、サブショットに対応する、サムネイル画像の格納領域中のサムネイル画像の格納位置を、例えば本領域の先頭からのオフセットで表すものである。
【0056】
次に、図11A〜Dを用いてステップS1002のサブショット分割処理の詳細な手順を説明する。
【0057】
まず、「撮影環境」の観点に関するサブショット分割を行う。ステップS1101において、撮影環境の観点に関するカメラ付与情報項目が存在するかをチェックする。撮影環境に関連する具体的な項目としては、フォーカス、IRIS、Gain、WB、AE Modeなど様々なものがあるが、本実施形態では説明のために、WBとGainを用いる。WBは、撮影の環境に応じて設定が変更される。例えば、太陽光の下では、ユーザによりプリセットの太陽光に設定され、蛍光灯の下では、ユーザによって、プリセットの蛍光灯に設定される。そこで、WB Modeが違う場合は撮影環境も変化したと推定できる。また、Gainは、非常に暗い環境での撮影時にプラスになり、撮像装置が画像の明るさを補正する手段として用いられる。よって、Gainがプラスであるかどうかで撮影環境が変化していると推定できる。
【0058】
さて、WBとGainのどちらもカメラ付与情報項目リストの中に存在しなければ、「撮影環境」を観点とするサブショット分割はできないので、ステップS1102からS1104までをスキップし、次のステップS1105へ進む。WBまたはGainのどちらか一つが存在するならば、ステップS1102へ進み、WBまたはGainの付与対象区間をそのままサブショット区間とし、サブショットの区間情報1402へそのままコピーする。WBとGainの両方が存在するならば、ステップS1103へ進み、WBとGainの付与対象区間のORをとり、その結果をサブショット区間としてサブショットの区間情報1402へそのままコピーする。次に、ステップS1104において、ステップS1102またはステップS1103で決定されたサブショット区間に対してそれぞれ観点のタイプ番号として「撮影環境」を表す1を付与し、観点タイプ番号1403として記録する。
【0059】
このように、「撮影環境」の観点の例では、カメラ付与情報の中から、観点に合致する複数の種類の項目だけを選択し、それぞれの区間のORを取ることによって、サブショット区間を決定している。よって、観点に関係のない項目の区間を取り除くことが可能となる。
【0060】
次に、「被写体」の観点に関するサブショット分割を行う。ステップS1105において、被写体の観点に関するカメラ付与情報項目が存在するかをチェックする。被写体に関連する具体的な項目としては、Pan、Tilt、被写体距離(Subject Distance)など様々なものがあるが、本実施形態では説明のために、Panと被写体距離を用いる。被写体Aから被写体Bへと撮影中に視点を移動させるには、ユーザは撮像装置を水平方向に振り動かすPan操作を行う必要がある。よって、Pan操作が行われる前と後では被写体が変化していると推定できる。また、被写体Aを撮影している時に、被写体Aと撮像装置1010の間に被写体Bが現れると、急激に被写体距離が変化する。よって、このように急激に被写体距離が変化していると被写体が変化していると推定できる。
【0061】
さて、Panと被写体距離のどちらもカメラ付与情報項目の中に存在しなければ、被写体の観点に関するサブショット分割(ステップS1106からS1125まで)をスキップし、次のステップS1126へ進む。
【0062】
Panのみが存在する場合は、ステップS1106へ進み、Panの付与対象区間を全てサブショット区間対象リストへコピーする。サブショット区間対象リストは、テンポラリとして使用するもので、カメラ付与情報格納領域501と同じ形式である。次に、ステップS1107へ進み、サブショット区間対象リストに、Pan操作中以外の区間を無操作区間として挿入する。このとき、カメラ付与情報のタイプ番号604(図6)には、無操作を表すために、特殊な番号、例えば0などを記録する。次に、ステップS11080へ進み、サブショット区間対象リスト中の無操作区間の開始位置からパンの終了までをサブショット区間とし、サブショットの区間情報14020へコピーしていく。ただし、例外として、ショットの終端が無操作区間である場合は、これをそのままサブショット区間とする(図示せず)。本実施形態では無操作区間の開始位置からパンの終了までをサブショット区間とするが、これは、パン中は、被写体が変化している区間であるので一つ前の区間の一部とみなし、一つのサブショット区間とするためである。
【0063】
一方、ステップS1105において被写体距離のみが存在すると判定された場合は、ステップS1109へ進み、被写体距離の付与対象区間を全てサブショット区間対象リストへコピーする。次に、ステップS1110へ進み、サブショット区間対象リストより先頭から順にひとつの区間を取り出し、被写体距離変化区間(Changing Subject Distance)であるか被写体距離一定区間(Constant Subject Distance)であるかを判定する(表4)。被写体距離一定区間であれば、ステップS1111とS1112の処理をスキップし、ステップS1113へ進む。
【0064】
ステップS1110において、被写体距離変化区間であれば、ステップS1111に進み、被写体距離の変化量(Start Substance Distance StepとEnd Substance Distance Stepの差の絶対値)が、所定値A未満であるかを判定する。所定値Aは特に限定されるものではないが、本実施形態では2であるとする。つまり、ステップS1111の条件を満たさない場合は、急激な被写体距離の変化があったときである。このときは、ステップS1112をスキップし、ステップS1113へ進む。一方、ステップS1111の条件を満たす時は、急激な被写体の変化がなかったときであるので、この場合はステップS1112へ進み、サブショット区間対象リスト中の一つ前の区間とマージする。被写体距離の変化が緩やかな場合は、被写体が変化したものではなく、同一の被写体との間の距離が変化したものと推定でき、このような区間はサブショット分割区間の対象にはならないためである。
【0065】
ステップS1113は終了判定であり、サブショット区間対象リストの全ての区間について上述のステップS1110〜S1112の処理を行ったかを判定する。未処理の区間があればステップS1110へ戻り、上述の処理を繰り返す。全ての区間について処理が行われていれば、ステップS1114へ進み、サブショット区間対象リストの中の被写体距離一定区間の開始位置から被写体距離変化区間の終了までをサブショット区間とし、サブショットの区間情報1402へコピーしていく。ただし、例外として、ショットの終端が被写体距離一定区間である場合は、これをそのままサブショット区間とする(図示せず)。これは、被写体距離が急激に変化しているときは、被写体が変化している区間であるので、一つ前の区間の一部とみなし、一つのサブショット区間とするためである。
【0066】
また、ステップS1105において、Panと被写体距離の両方が存在すると判定された場合は、ステップS1115へ進む。ステップS1115からステップS1117は、ステップS1106からステップS1108と、そして、ステップS1119からステップS1123は、ステップS1109からステップS1114と同じであるので、説明は省略する。ただし、ステップS1118とステップS1123において、サブショットの区間情報1402へ直接コピーせずに、サブショット区間対象リスト同様にテンポラリである、カメラ付与情報格納領域501と同じ形式の、サブショット区間候補リスト1とサブショット区間リスト2に一時的にコピーしておく。そして、次のステップS11240において、サブショット区間候補リスト1とサブショット区間候補リスト2のORをとりながら、サブショットの区間情報1402へコピーする。
【0067】
次に、ステップS1125において、ステップS1108、S1114、S1124のいずれかによって決定されたサブショット区間に対して、観点のタイプ番号として「被写体」を表す2を付与する。
【0068】
このように、「被写体」の観点の例では、カメラ付与情報の中から、観点に合致する複数の種類の項目だけを選択し、かつ、それぞれの項目が、その変化量などが特定の条件をみたす区間を抽出し、それらのORを取ることによって、サブショット区間を決定している。よって、観点に関係のない項目の区間を取り除くことが可能となると共に、観点に関係のある項目であっても、影響の小さい区間を取り除くことが可能となる。
【0069】
次に、「被写体サイズ」の観点に関するサブショット分割を行う。ステップS1126において、被写体サイズの観点に関するカメラ付与情報項目が存在するかをチェックする。被写体サイズに関連する具体的な項目としては、Zoom、Digital Zoom、被写体距離など様々なものがあるが、本実施形態では説明のために、Zoomと被写体距離を用いる。被写体サイズを調整し、例えば、被写体Aの全体を写した後に、被写体Aの顔をアップで撮影するためには、ユーザは被写体距離を一定に保ち、Zoomをテレ側に操作するか、または、Zoomを操作せず、被写体Aに近づいて、被写体距離を小さくする必要がある。また、例えば、被写体Aがユーザ(撮影者)から遠ざかっているときに被写体Aを同じサイズで撮影するためには、ユーザはZoomをテレ側に操作する必要がある。よって、Zoomと被写体距離の付帯情報を組み合わせることによって、被写体サイズが変更されているかどうか推定できる。
【0070】
カメラ付与情報項目の中でZoomと被写体距離のどちらか一方でもかけていれば被写体サイズの観点に関するサブショット分割は行えないので、ステップS1127からS1139までをスキップする。
【0071】
ステップS1126において、Zoomと被写体距離の両方の付帯情報が存在するならば、ステップS1127へ進み、被写体距離を先頭から順にひとつの区間を取り出し、被写体距離変化区間であるか被写体距離一定区間であるかを判定する。被写体距離一定区間であれば、ステップS1128からステップS1131の処理を行う。一方、被写体距離変化区間であれば、ステップS1132からステップS1135の処理を行う。ステップS1136は終了判定であり、被写体距離の全区間について、上記の一連の処理を行ったかを判定するものである。
【0072】
被写体距離一定区間の場合について説明する。まず、ステップS1128において、現在の区間内にZoomが存在するかを判定する。Zoomが存在しなければ、ステップS1131に進み、注目している区間を被写体サイズ一定区間としてサブショット対象区間リストへコピーする。存在すればステップS1129へ進む。ステップS1129において、Zoomの操作量(Start MagnificationとEnd Magnificationの差の絶対値)が所定値B以上であるかを判定する。このような判定を行う理由は、操作量が小さい場合は、微調整しただけであると判断出来るからである。所定値Bとしては、1.5倍程度が望ましいが、特に限定されるものではない。Zoomの操作量がこの所定値B未満のときはサブショット分割区間の対象にはならないので、次のステップS1130をスキップする。
【0073】
一方、Zoomの操作量が所定値B以上の場合は、ステップS1130へ進む。このときは、被写体サイズを変更するのに十分な量であり、なおかつ、被写体距離は一定であるので、Zoom区間は被写体サイズを変更している区間である。そこで、現在の被写体距離区間とZoom区間のORを取り、サブショット対象区間リストへコピーする。例えば、現在の被写体距離区間中に一つのZoom区間があれば、被写体距離区間の先頭からZoom区間の先頭まで、Zoom区間の先頭から終了まで、Zoom区間の終了から被写体距離区間の終了まで、の3つの区間になり、タイプは順に被写体サイズ一定区間、被写体サイズ変化区間、被写体サイズ一定区間となる。
【0074】
次に、ステップS1127で被写体距離が変化していると判定された場合(被写体距離変化区間の場合)について説明する。まず、ステップS1132において、現在の区間内にZoomが存在するかを判定する。Zoomが存在しない場合は、次のステップ1135に進む。Zoomが操作されていないので、被写体距離が変化していれば被写体サイズが変化していると推定できる。このときは、ステップS1135に進み、現在の区間をサブショット対象区間リストへ変化区間としてコピーする。
【0075】
一方、ステップS1132において、現在の区間内にZoomが存在する場合は、ステップS1133に進む。このときは、Zoomと被写体距離が同時に変化しているので、2つの量を組み合わせなければ評価できない。評価方法には、様々なものが考えられるが、例えば、以下の式で評価することによって、被写体サイズが変化しているかどうかを推定できる。
総合変化量=((Start Substance Distance Step−End Substance Distance Step)−H×(Start Magnification - End Magnification))の絶対値
ここで、Hは係数であり、ズームレンズなどの特性等で決まるものである。本実施形態ではH=1であるとする。
【0076】
例えば、被写体に近づき(表4のSTEP2からSTEP1へ)、Zoomをワイド側へ操作した(3倍から2倍へ)場合、上記の式より(2−1)−(3−2)の絶対値になるので、総合変化量は0となる。これは、被写体サイズが変化しないことを示す。一方、例えば、被写体に近づき(STEP2からSTEP1へ)、Zoomをテレ側へ操作した(3倍から4倍へ)とき、上記の式より、(2−1)−(3−4)の絶対値なので、総合変化量は2となる。これは被写体サイズが変化することを示す。よって、総合変化量が大きければ、被写体サイズが変化していると推定できる。
【0077】
従って、ステップS1133では、上記総合変化量が所定値C以上であれば、被写体サイズが変化していると判断する。なお、所定値Cは、特に限定されるものではないが、ここでは1であるとする。総合変化量が所定値C以上であればステップS1135(前述)へ進む。また、総合変化量が所定値C未満であれば、結局被写体サイズは変化していないと推定できるので、ステップS1134へ進み、現在の被写体距離の区間を一定区間としてサブショット対象区間リストへコピーする。
【0078】
ステップS1136の終了判定により、全ての区間について上記処理を終了していると判定されれば、ステップS1137へ進む。ステップS1137では、サブショット対象区間リスト中で一定区間が連続していれば、それらをマージする。連続した区間の間では、結局、被写体サイズの変化がないためである。次に、ステップS1138へ進み、サブショット区間対象リストの中の一定区間の開始位置から変化区間の終了までをサブショット区間とし、サブショットの区間情報1402へコピーしていく。ただし、ショットの終端が一定区間である場合は、例外として、これをそのままサブショット区間とする(図示せず)。これは、被写体サイズが変化している区間は、一つ前の区間の一部とみなし、一つのサブショット区間とするためである。次に、ステップS1139において、ステップS1138で決定されたサブショット区間に対してそれぞれ観点のタイプ番号として、「被写体サイズ」を表す3を付与する。
【0079】
このように、「被写体サイズ」の観点の例では、カメラ付与情報の中から、観点に合致する複数の種類の項目だけを選択し、かつ、それぞれの項目を組み合わせ、その区間だけでなく変化量なども考慮することで、特定の条件をみたす区間のみを抽出することによって、サブショット区間を決定している。よって、観点に関係のない項目の区間を取り除くことが可能となると共に、複数の項目の単純なORでは抽出できない、観点に応じた区間を取り出すことが可能となる。
【0080】
以上、述べたステップS1002の処理によって、複数種類のカメラ付与情報から、観点毎に応じたサブショット区間を取り出すことが可能となる。
【0081】
次に、ステップS1003におけるサブショットの階層化処理の詳細な手順を図17を参照して説明する。
【0082】
まず、ステップS1701において、ステップS1002において決定されたサブショット区間の数を観点ごとに求め、階層化順序リストに結果を格納する。階層化順序リストについて図19を参照して説明する。図19は階層化順序リストの例である。階層化順位リストは、観点タイプと分割数から構成されている。先頭の観点タイプから順に階層化を行う。初期値では、観点タイプは1,2,3の順になっている(図19の(a))。これは、ユーザが所望の区間を探す際に、撮影環境(観点タイプ1)、被写体(観点タイプ2)、被写体サイズ(観点タイプ3)と絞り込んでいくのが最も一般的であるので、この順に階層化するのが、通常は望ましいからである。また、ステップS1701では、図19の(a)に示した例のように各観点の分割数が格納されたものとして説明を続ける。
【0083】
ステップS1702において、階層化順序リストを分割数で昇順にソートする。図19の(a)の状態であれば、ステップS1702の処理によって図19の(b)のように順番が入れ代わる。このように順番を入れ替える理由は次のとおりである。撮影された動画像によっては、被写体は変わらず、撮影環境だけが頻繁に変わっているものや、被写体サイズの変化はほとんどなく、被写体だけが頻繁に変化して多数の被写体が含まれるもの等が存在する。そのような場合、より少ない分割数の観点を上の階層とすることで、上の階層のサブショットがより多くの下の階層のサブショットを含むことが出来る。これにより、ユーザが所望の区間を探す際に、まず上の階層で大きく絞り込むことが出来るようになり、素早く所望の区間にたどり着けるようになるからである。ただし、分割数が同数のものがある場合は、初期値の状態が通常は望ましい順序であるので、初期値の順序が優先される。
【0084】
次に、ステップS1703においてNへ初期値として1を設定する。次に、ステップS1704において、階層化順序リストのN番目の分割数が0であるかどうかをチェックする。0であれば、N番目の観点では分割されてないので、ステップS1705へ進みNをインクリメントして、再びステップS1704へ進む。0でなければ、次のステップS1706へ進み、N番目の観点タイプの先頭のサブショットのサブショット・インデックスから順にサブショットID1401を付与し、夫々の階層1403にはN番目の階層であることを表すNをそのまま付与する。次にステップS1707に進み、Nが3より小さいかどうかを判定する。これは終了判定であり、本実施形態では、3階層目までしか存在しない例を説明しているので、N=3となった時点で階層化の処理が終了する。
【0085】
次に、ステップS1708において、N+1番目の観点タイプをもつサブショット・インデックス格納領域1301中のサブショット・インデックスリストをサブショットリスト1へコピーする。サブショットリスト1はテンポラリとして使用されるものであり、サブショット・インデックス格納領域1301と同じ構成要素からなる。
【0086】
次に、ステップS1709において、Xに初期値として1を、Yに初期値として1を設定する。次に、ステップS1710に進み、XがN番目の階層の分割数(サブショット数)以下であるかをチェックする。即ち、次のステップS1711からステップS1716までの処理をN番目の観点の全てのサブショットに対して行ったかどうかの終了判定である。XがN番目の分割数以下である間は、以下のステップS1711〜S1716の処理を実行する。
【0087】
ステップS1711において、N番目の観点タイプのX番目のサブショットとサブショットリスト1のY番目のサブショットの区間を比較する。まず、X番目のサブショット区間がY番目のサブショット区間を含む場合はステップS1713へ進む。これは、図20の(a)の場合に相当する。なお、図20の(a)において、2001はX番目のサブショット区間を、2002はY番目のサブショット区間を示す。ステップS1713では、Y番目のサブショットをそのままX番目のサブショットの下の階層のサブショットとするため、Y番目のサブショットのParentID1403にX番目のサブショットのサブショットID1401を付与する。そして、ステップS1714へ進み、Yをインクリメントした後、ステップS1711へ戻る。
【0088】
また、ステップS1711において、Y番目のサブショット区間の開始点または終了点のいずれかがX番目のサブショット区間の外になった場合はステップS1712へ進む。これは、図20の(b)の場合に相当する。なお、図20の(b)において、2003がX番目のサブショット区間を、2004がY番目のサブショット区間を示す。ステップS1712では、Y番目のサブショットの区間外となった開始点または終了点をX番目のサブショットの区間に合わせて分割する。図20の(b)では、区間外の終了点側の区間2006と、X番目のサブショット区間内の2005の部分に分割される。なお、2005を新たなY番目のサブショットとして扱う。次にステップS1713からS1714の処理を行う(前述)。
【0089】
また、ステップS1711において、Y番目のサブショット区間がX番目のサブショット区間を含む場合はステップS1715へ進む。これは、図20の(c)に相当する。なお、図20の(c)において、2007がX番目のサブショット区間を、2008がY番目のサブショット区間を示す。この場合、X番目のサブショットは、その下の階層によって更に分割することができないので、ステップS1715において、X番目のサブショットの区間に対応する区間をサブショットリスト1から削除する(本実施形態の階層化の目的は、サブショットの区間を徐々に絞り込んで所望の区間にたどり着くことにあるので、上位階層の区間を分割できない下位階層を設けても無意味だからである)。2009は残りの区間であり、Y+1番目の区間として扱う。そして、ステップS1716へ進み、Xをインクリメントした後、ステップS1710へ戻る。
【0090】
また、ステップS1711において、Y番目のサブショット区間がX番目のサブショット区間の外であった場合はそのままステップS1716へ進む。これは、図20の(d)に相当する。ここで、2010はX番目のサブショット区間を、2011がY番目のサブショット区間である。
【0091】
次に、図10に戻り、ステップS1006からステップS1011のブラウジング処理について述べる。
【0092】
ステップS1006において、各動画像ファイル(ショット)を代表するサムネイルを表示領域901に表示する。ショットを代表するサムネイルとしては、例えば、先頭に登録されているサブショットのサムネイルを使用する方法が考えられる。しかし、もちろん、ショット用のサムネイルを別途作成しておくなどの方法を用いても構わない。ショットの中身を概観できる目的が達成されればよい。なお、本実施形態では、サムネイルは表示領域9010の中で、ファイルのヘッダに記述されている撮影開始時刻順に、一番上の行から下の行へ、行の中では、左から右へ向かって並べられるものとする。
【0093】
次に、ステップS1007において、サブショット表示指示があったかを判定する。これは、ポインタ902によりショット又はサブショットが指定され、サブショット表示ボタン904、905がONされたかどうかによって判定できる。但し、ショット一覧表示のときに「戻る」ボタン905をONした場合は例外であり、それより上の階層へは移行できないので表示内容に変化は生じない。ボタン904も905もONされていなければステップS1008をスキップし、ステップS1009に進む。
【0094】
一方、ボタン904、905のいずれかがONされた場合は、ステップS1008に進む。そしてONされたのが「次へ」ボタン904の場合は、より下の階層のサブショットを、「戻る」ボタン905の場合は、より上の階層のサブショットを表示する。このとき、状態表示欄907には、現在の階層と観点を表示し、ユーザが判別可能なようにしている。
【0095】
次に、ステップS1009において、動画の再生指示が行われたかどうかを判定する。これは、ポインタ902を使って特定のショットまたはサブショットをダブルクリックしたかどうかで判定できる。再生指示がされていなければ、ステップS1010をスキップして、ステップS1011に進む。再生が指示されていれば、ステップS1010において、指定されたショットまたはサブショットの先頭から動画像を再生する。なお、再生後はもとのショット、または、サブショット一覧表示に戻る(図示せず)。次にステップS1011において、終了が指示されたかどうかを判定する。これは、終了ボタン906がONされたかどうかで判定できる。終了が指示されていなければステップS1007へ戻り、上記の処理を繰り返す。また、終了が指示されていれば、本処理を終了する。
【0096】
以上のように、第1実施形態によれば、ユーザはサブショットの選択とサブショット表示を指示することにより効果的に絞り込みを行うことができ、所望の区間(サブショット)に素早くたどり着くことが可能となる。このため、再生、或いは、動画編集などに容易に利用することが可能となるのである。
【0097】
〔第2実施形態〕
本発明における第2実施形態について、説明する。
【0098】
第1実施形態では、撮像装置1010に備えられているセンサや操作部の情報、または、制御情報を、カメラ付与情報として付与した。第2実施形態では、撮像データを解析することによって、抽出が可能なカメラ付与情報を、撮影後に付与し、利用するというものである。
【0099】
動画像処理装置の構成、及び、撮像装置1010の構成等は第1実施形態と同様であるので、説明を省略し、相違点のみを以下に述べる。
【0100】
図12は本実施形態によるブラウザ装置の機能構成を示すブロック図である。図12において1201から1207の各構成は第1実施形態の801から807と同じものであるので説明は省略する。
【0101】
1208はカメラ付与情報抽出部であり、読取部1202を介して記憶媒体1201より読み出された映像データを解析し、撮像装置1010で付与していないカメラ付与情報を抽出する。ここでは、例としてパン、チルトが撮像装置1010によって付与されていないものとして説明する。
【0102】
パン・チルトを映像データから抽出する手法としては、ハフ変換を用いて動きのベクトルの消失点を求め、複数有る消失点のうちの最大の投票数を得た消失点を背景に対する消失点とし、パン・チルトに関する拘束式を説くなどの手法がある。パン・チルトと消失点との関係やパン・チルトを求める手法は、例えば「金谷健一著、『画像理解』、森北出版」などに詳しい。このように、映像データを解析することによって、求めたカメラ付与情報を更に追加して、サブショット分割部12030で活用することが可能である。
【0103】
以上のようにして得られたパン、チルト情報は、図5で説明したカメラ付与情報格納領域に追加され、図14のようなサブショット情報格納領域を生成する際に用いられる。
【0104】
〔他の実施形態〕
上記第1、第2実施形態では、撮像装置1010とブラウズ装置1030の2つの装置を用いて構成されたが、撮像装置1010が十分な処理能力があれば、撮像装置1010にブラウズ装置1030の機能を包含させ、1つの装置で構成してもかまわない。この場合であっても、サブショット情報を記憶媒体1020に記録するようにすれば、他の機器においてサブショット分割の結果を利用することが可能となる。
【0105】
また、第1、第2実施形態では、サブショット分割部803、サムネイル作成部807とユーザ操作部804、閲覧・再生部805を一つの機器に構成したが、図13、図14のサブショット情報を記憶媒体1020(801)に記録するようにすれば、上記各部を別の機器として構成してももちろん構わない。
【0106】
また、第1、第2実施形態では、サブショット分割部803、サムネイル作成部807、カメラ付与情報抽出部1208は、ブラウズ装置1030上に構成したが、撮像装置1010が十分な処理能力があれば、これらを、撮像装置1010上に構成しても構わない。この場合、図13、図14のサブショット情報を記憶媒体1020(記憶媒体28)に記録することによって、ブラウズ装置1030はブラウズが可能となる。
【0107】
また、第1、第2実施形態では、区間単位のカメラ付与情報(図5、図6)を撮影中に生成し、記憶媒体1020に記録したが、撮像装置1010に十分なメモリや処理能力がなければ、フレーム単位のカメラ付与情報を記録しておき、後で、区間ごとにまとめる処理を行ってもよい。その際、フレーム単位にカメラ付与情報を格納する方法は、画像データの管理情報中の未使用領域などに、格納する方法がある。具体的には、例えば、MPEG-2ストリームであれば、ピクチャヘッダのユーザ領域に格納する方法がある。また、撮像装置1010に区間単位のカメラ付与情報を記録する能力があっても、フレーム単位のカメラ付与情報も同時に冗長に記録しておいても、もちろん、構わない。こうしておけば、ファイル操作が行われ、区間単位のカメラ付与情報が損なわれ、変更が必要となった場合でも、フレーム単位のカメラ付与情報から、再集計し、区間単位のカメラ付与情報を作成しなおすことが可能となる。
【0108】
また、第1、第2実施形態では、区間単位のカメラ付与情報、サブショット情報をバイナリ形式で格納したが、撮像装置1010に十分な処理能力があれば、或いは、ブラウズ装置1030を使用して、テキスト形式や独自のDTD(Document Type Definition)を定義し、XML(Extensible Markup Language)形式等で表現する事ももちろんかまわない。また、MPEG7にしたがった形式で格納する場合は、Segment DSに格納すれば良い。
【0109】
また、第1、第2実施形態では、カメラ付与情報、及び、サブショット情報を記憶媒体1020を介してやり取りしたが、IEEE1394などの通信手段を設け、これによってやり取りするように構成しても構わない。
【0110】
また、第1、第2の実施形態では、1つのショットを1つの動画像ファイルとしたが、複数のショットを1つの動画像ファイルとしても構わない。この場合は、各ショットとカメラ付与情報、サブショット情報の対応がとれるように、識別番号などを振り、関連付けしておけばよい。
【0111】
また、第1、第2実施形態では、サブショット分割の観点として、撮影環境、被写体、被写体サイズの3つを上げたが、これに限られるものではなく、例えば、エフェクトを付与しているかどうか、など、様々な観点が考えられる。また、分割の観点が増えれば、これに合わせて階層の数を増やしても構わない。
【0112】
また、第1、第2実施形態では、サブショット分割の結果を、ブラウジングに利用したが、サブショットを基本単位とし、観点種別の指定手段を設ければ、動画編集、フレーム印刷、ダイジェスト再生など、様々な方法で利用することができる。例えば、動画編集であれば、編集対象のショットを、観点別にサブショット分割すれば、その分割位置を編集のIn・Out点の指定に利用できる。また、フレーム印刷であれば、サブショットごとに、フレーム印刷の候補を、例えば、サブショット区間の中央のフレームを抜き出して提示することで、観点別にフレーム印刷候補を提示できる。また、ダイジェスト再生であれば、サブショットの先頭の数秒ずつを再生させることで、指定された観点別のダイジェスト再生を行うことが出来る。
【0113】
また、第1、第2実施形態では、図20の(c)のときは分割されないために下の階層はなしとした。例えば、注目しているサブショット(2階層目とする)の下の階層(3階層目)に相当する区間が、分割されず、注目しているサブショットと同じ区間であった場合には、3階層目を設けなかったとしている。この場合、ブラウズ時に、「次へ」ボタン904を押しても「下の階層はありません」と警告を表示するか、予め「次へ」ボタン904を押下できないようにしておくようになる。しかしながら、同じ区間でも3階層目を設けておき、ブラウズ時に、「次へ」ボタン904を押した場合は、同じ区間を持つサムネイルが1つだけ表示されるようにしてもよい。
【0114】
また、第1、第2実施形態では、図9に示したようなユーザインターフェースとしたが、これに限られるものではなく、例えば、何階層目かを直接指示できるボタンなどを設けてもよい。
【0115】
また、第1、2の実施形態では、ステップS1702において、階層化順序リストを分割数で昇順にソートしたが、一般的な階層化順序のみで常に階層化するのでよければ、省略しても構わない。また、予めユーザが階層化順序を指示するようにしておいても構わない。すなわち、図19の(a)の階層化順序リストにおける各観点の階層順位をユーザによって所望に設定可能としてもよい。また、ステップS1702のソート処理を実行するか否かをユーザによって指定可能としてもよい。
【0116】
以上説明したように本発明によれば、観点毎の単位に動画像を分割し、階層化されたサブショットを得ることが可能となり、ユーザは、サブショットの選択とサブショット表示の指示を繰り返すことで、サブショットの絞込みを行うことが可能となる。これにより、ユーザは素早く所望のサブショットを入手することができる。
【0117】
なお、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
【0118】
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
【0119】
プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発生のメモリカード、ROMなどを用いることができる。
【0120】
また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0121】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0122】
【発明の効果】
以上説明したように、本発明によれば、撮影装置の操作や状態の変化が多数含まれる動画であっても、所望の場所を素早く見つけ、再生や編集作業を容易化することができる。
【図面の簡単な説明】
【図1】実施形態における動画像処理システムの概略構成を表すブロック図である。
【図2】実施形態による撮像装置の構成を示すブロック図である。
【図3】図2の撮像装置におけるシステム制御部の構成を示すブロック図である。
【図4】実施形態の撮像装置による動画撮像処理の手順を示すフローチャートである。
【図5】カメラ付与情報の格納形式の一例を示す図である。
【図6】図5に示すカメラ付与情報項目の内部構造の一例を示す図である。
【図7】実施形態によるブラウズ装置の制御構成を示すブロック図である。
【図8】ブラウズ装置の第1実施形態における機能構成を示すブロック図である。
【図9】ブラウズ装置のユーザインターフェースの一例を示す図である。
【図10】ブラウズ装置の動作例を示したフローチャートである。
【図11A】ブラウズ装置のサブショット分割処理の詳細な手順を示したフローチャートである。
【図11B】ブラウズ装置のサブショット分割処理の詳細な手順を示したフローチャートである。
【図11C】ブラウズ装置のサブショット分割処理の詳細な手順を示したフローチャートである。
【図11D】ブラウズ装置のサブショット分割処理の詳細な手順を示したフローチャートである。
【図12】第2実施形態におけるブラウズ装置の機能構成を示すブロック図である。
【図13】実施形態によるサブショット情報の格納形式の一例を示す図である。
【図14】図13に示すサブショット・インデックスの内部構造の一例を示す図である。
【図15】サブショット分割の概要を説明する図である。
【図16】図9に示したユーザインターフェースにおける表示領域の動作の一例を示す図である。
【図17】ブラウズ装置のサブショットの階層化処理の詳細な手順を示したフローチャートである。
【図18】階層化されたサブショットの概要を説明する図である。
【図19】階層化順序リストの一例を示す図である。
【図20】階層化処理におけるサブショットの区間の関係の例を説明する図である。
【図21】一般的な動画分割を説明する図である。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for dividing a moving image using an operation of an imaging device, a change point of a state of the imaging device, or the like.
[0002]
[Prior art]
In general, as seen in Patent Document 1 and Patent Document 2, by dividing a moving image for each operation (panning, tilting) of a moving image capturing apparatus and each change point (focus, etc.) of the state of the imaging apparatus, It enables playback from a desired location, editing of moving images, automatic summarization of moving images, and easy confirmation of the contents. Such a method is particularly effective when various shooting targets are included in one moving image or the shooting environment changes.
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 08-163488
[Patent Document 2]
Japanese Patent No. 3192663
[0004]
[Problems to be solved by the invention]
However, the longer a movie is and the more changes in the shooting target and shooting environment included in the movie, the more the movie is divided into more sections in the conventional method.
[0005]
For example, FIG. 21 is a diagram for explaining division of a moving image according to a conventional technique. (A) has shown the operation area with respect to an imaging device and the change point (Gain, White Balance, subject distance, Zoom, Pan) of the state of an imaging device for every item with respect to the same moving image. Further, (b) shows the result of dividing a moving image using Gain, White Balance, subject distance, Zoom, and Pan. As shown in FIG. 21, the moving image is subdivided into many sections due to a mixture of the divided portions by a plurality of types of items. Further, where a section is determined by a plurality of types of items, the section is not a meaningful unit (here, a meaningful unit is, for example, a section in which subject A is shown). . For example, the section A in FIG. 21 starts at the change point of White Balance and ends at the end point of the Pan operation, and is not a meaningful unit.
[0006]
Therefore, in the situation of the prior art as described above, it takes time to check each one to search for a desired section in the moving image. In addition, in moving image editing or the like, if it is desired to extract a section in a meaningful unit, the start point and end point must be corrected, which eventually results in a burden on the user.
[0007]
The above moving images tend to be noticeable particularly when an amateur photographer takes a picture. Amateur photographers are unfamiliar with shooting, and usually use a single imaging device to shoot, so they can shoot while looking for a shooting target, or shoot many subjects at many places at once. Because there is a tendency to do.
[0008]
The present invention has been made in view of the above problems, and can easily find a desired place and facilitate reproduction and editing work even for a moving image including a large number of operations and state changes of a photographing apparatus. With the goal.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, a moving image processing method according to the present invention comprises:
The division information for dividing the moving image generated based on each of the plurality of items of data indicating the shooting state of the moving image processes the moving image data registered so as to be readable for each item. A moving image processing method,
Selected from the multiple items plural A generation step of defining an item group constituted by items, integrating division information corresponding to items belonging to the item group, and generating integrated division information corresponding to the item group;
In the generation step, integrated division information is generated for a plurality of types of item groups, and the division position based on the upper division integrated division information is added to the division position of the lower division integrated division information in accordance with the hierarchical order of the plurality of generated integrated division information. Hierarchization process to
A holding step of holding the integrated division information obtained in the hierarchizing step in correspondence with the moving image data.
[0010]
In order to achieve the above object, a moving image processing apparatus according to the present invention comprises the following arrangement. That is,
The division information for dividing the moving image generated based on each of the plurality of items of data indicating the shooting state of the moving image processes the moving image data registered so as to be readable for each item. A moving image processing apparatus,
Selected from the multiple items plural Generating means for defining an item group constituted by items, integrating division information corresponding to items belonging to the item group, and generating integrated division information corresponding to the item group;
The generation unit generates integrated division information for a plurality of types of item groups, and adds a division position based on the upper division integrated division information to a division position of the lower division integrated division information according to the hierarchical order of the plurality of generated integrated division information. Hierarchization means to
Holding means for holding the integrated division information obtained by the hierarchizing means in correspondence with the moving image data.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
[0012]
[First Embodiment]
FIG. 1 is a block diagram showing a configuration of a moving image processing system according to the first embodiment. In FIG. 1, reference numeral 1010 denotes an imaging device that captures a moving image. A storage medium 1020 is used to store moving images and the like. Reference numeral 1030 denotes a browsing device which browses and reproduces a moving image included in the storage medium 1020. Hereinafter, an imaging device 1010 according to the present embodiment, a control method thereof, and an embodiment of a storage medium will be described.
[0013]
FIG. 2 is a block diagram illustrating a configuration of the imaging apparatus according to the present embodiment. In FIG. 2, reference numeral 11 denotes a lens unit that includes a focus lens that adjusts the subject distance and a zoom lens that adjusts the focal distance, and forms an image of the subject on the image sensor 13. A diaphragm 12 adjusts the amount of light reaching the image sensor 13. Reference numeral 13 denotes an image sensor, which includes a CCD that converts input light into an electrical signal. Reference numeral 14 denotes a sample hold / AGC circuit, which performs sample hold and gain adjustment. Reference numeral 15 denotes an A / D converter, which performs analog / digital conversion (A / D conversion). Reference numeral 16 denotes a video signal processing unit that processes a signal to generate a video signal. Reference numeral 18 denotes a noise reduction unit (NR) which has a field memory and removes noise from the video signal. Reference numeral 19 denotes a lens position detection unit that detects the position of the lens. Reference numeral 20 denotes a lens driving unit that drives the lens.
[0014]
A system control unit 21 controls the entire imaging apparatus. FIG. 3 is a block diagram showing a configuration of the system control unit 21. The system control unit 21 has a known CPU 301, ROM 302, RAM 303, I / O interface 304, and bus 305. The ROM 302 stores later-described programs executed by the CPU 301, table values, and the like.
[0015]
Reference numeral 22 denotes a user operation unit, on which keys for the user to operate the imaging apparatus are arranged. Reference numeral 23 denotes a wide key for moving the zoom in the wide (wide angle = image reduction) direction, and reference numeral 24 denotes a tele key for moving in the tele (telephoto = image enlargement) direction. The wide key 23 and the tele key 24 are, for example, seesaw-type interlocking keys, and output to the system control unit 21 an output signal indicating which key is being pressed with what level of pressure. The pressing pressure determines the speed of enlargement / reduction. Reference numeral 29 denotes a recording button. When the recording button 29 is turned on, the system control unit 21 puts the imaging apparatus into a recording state. Reference numeral 30 denotes a mode dial. The user operates this to perform various settings. For example, focus mode (automatic / manual), exposure mode (automatic, gain priority, shutter speed priority, aperture priority, manual), White Balance Mode (hereinafter referred to as WB Mode) (preset-sunlight, cloudy, light bulb, Fluorescent lamp).
[0016]
The set information is input to the system control unit 21, and the system control unit 21 controls the imaging device according to the setting. The noise reduction unit (NR) 18 includes a cyclic noise reduction circuit. An MPEG codec 26 encodes video data in the MPEG-2 format. Reference numeral 27 denotes a recording unit, which includes a drive that drives a recording medium and records information. Reference numeral 28 denotes a recording medium, such as an optical disk, a magnetic disk, a magneto-optical disk, a magnetic tape, a hard disk, a non-volatile semiconductor memory (flash memory or the like), and the like. Etc. Reference numeral 25 denotes X-direction rotational speed detection, which detects the speed when the imaging apparatus is shaken in the horizontal direction using a gyro sensor or the like. Reference numeral 31 denotes Y-direction rotational speed detection, which detects the speed when the imaging apparatus is shaken in the vertical direction using a gyro sensor or the like, similar to the X-direction rotational speed detection 25. Reference numeral 32 denotes a distance measuring detector that detects the distance to the subject. A well-known one can be applied as the distance detecting unit 32. For example, infrared light emitted from a light emitting window (not shown) of the imaging apparatus 1010 toward the subject is reflected on the subject and reflected from the light receiving window. Light is received from (not shown) and converted into a distance measurement signal by a light receiving element provided therein, for example, PSD (Position Sensitive Device).
[0017]
An outline of the operation of the imaging apparatus having the above configuration will be described. The light from the subject received by the lens unit 11 is adjusted in light quantity by the diaphragm 12 and imaged on the surface of the image sensor 13. Then, after being converted into an electric signal by the image pickup device 13, it is A / D converted by the A / D conversion unit 15 via the sample hold / AGC unit 14 and input to the video signal processing unit 16. In the video signal processing unit 16, processing such as aperture correction, gamma correction, and white balance correction is performed on the input signal for each luminance and color component to generate a video signal, which is output to the noise reduction unit 18. The noise reduction unit 18 is controlled by a control signal from the system control unit 21 and removes noise from the video signal. The video signal from which the noise has been removed is output to the MPEG CODEC 26. The MPEG CODEC 26 encodes the input video signal. At this time, the MPEG codec 26 stores the camera assignment information (described later) input from the system control unit 21 as a file together with the encoded video signal, and outputs the file to a recording device connected to the MPEG codec 26.
[0018]
The system control unit 21 controls each part of the imaging apparatus, and controls the lens driving unit 20 or the electronic zoom unit 17 when the wide key 23 and the tele key 24 of the zoom operation key unit 22 are pressed. And move the zoom in the wide or tele direction. Further, the system control unit 21 determines where the zoom lens 11 is located at the tele end (maximum telephoto end point), the wide end (maximum wide angle end point), or the tele end and wide end based on the lens position detection signal from the lens position detection unit 19. Judge whether it is (zoom magnification).
[0019]
Further, the system control unit 21 switches the control value of the noise reduction between when the optical zoom is stopped and when the optical zoom is stopped according to the control signal output to the noise reduction unit 18. As a result, the amount of noise reduction, that is, the amount of noise removal is varied. At this time, the control value to be switched is a cyclic coefficient K. The control value switching by the control signal is also performed according to the brightness of the subject. That is, since the S / N of the video signal becomes worse as the brightness of the subject becomes darker, the control value is switched so as to increase the effect of noise reduction in order to compensate for it. Further, the system control unit 21 maintains the level of the generated video signal at a predetermined value with respect to the amount of the optical signal from the subject, so that the diaphragm 12, the sample hold / AGC unit 14, the electronic shutter (in FIG. 2, the electronic shutter) The brightness of the subject is comprehensively determined based on the aperture value, AGC gain, electronic shutter speed, and the like used for exposure control.
[0020]
In the above configuration, the imaging apparatus according to the present embodiment provides camera addition information to each captured frame. The camera assignment information is information related to a moving image that can be assigned by the imaging apparatus. This is because information on aperture correction, gamma correction, and WB correction used when the system control unit 21 controls the video signal processing unit 16, the noise reduction unit 18, the electronic zoom unit 17, and the lens driving unit 20, and the lens position Information obtained from detection means such as the detection unit 19, X-direction rotational speed detection 25, Y-direction rotational speed detection 31, and distance measurement detection 32 (subject distance, etc.), information regarding user settings obtained from the user operation unit 22 (WB Mode), and various additional information such as information on user operations (such as zoom operations) obtained from the user operation unit 22. Although not shown in FIG. 2, if other sensors such as a thermometer and a hygrometer are provided, this information can be used as camera-giving information, a strobe connected to the imaging device 1010, etc. Information on external devices such as accessories and measuring devices can also be used as camera-provided information if a correspondence relationship with the video is obtained.
[0021]
Next, the procedure of the moving image shooting process of the imaging apparatus 1010 will be described with reference to the flowchart shown in FIG. First, in step S401, it is determined whether the user has turned on the recording button 29 and instructed to start recording. Until the start of recording is instructed, the imaging apparatus 1010 is in a standby state. When the start of recording is instructed, the recording state is entered, and the process proceeds to step S402. At this time, the recording start time is sent from the system control unit 21 to the MPEG CODEC 26 and described in the header of the file. In step S4020, as described above, the system control unit 21 controls the imaging device 1010 based on information on various sensors and captures an image for one frame. At this time, control information of the imaging apparatus 1010 is held in the RAM 303 as camera-giving information in units of frames. As an example of the format of the control information, Table 1 below shows setting information related to Gain and subject distance.
[0022]
[Table 1]
Figure 0004218945
[0023]
Next, in step S <b> 403, it is determined whether the user has set a camera via the camera operation unit 22. When the camera setting is performed, in step S404, the system control unit 21 changes the camera setting. At this time, the changed camera setting information is stored in the RAM 303 as frame-based camera provision information. As an example of the format of the setting information as the camera assignment information, the setting information related to WB is shown in Table 2 below.
[0024]
[Table 2]
Figure 0004218945
[0025]
Next, in step S405, it is determined whether or not the camera has been operated. Whether or not the camera is operated can be determined based on whether the wide key 23 and the tele key 24 of the user operation unit 22 are operated, for example, in the case of a zoom operation. Detection is possible by the rotational speed detection 25 and the Y-direction rotational speed detection 31. If the camera is operated, the process proceeds to step S406, and the system control unit 21 controls the imaging apparatus while checking various sensor information in accordance with the operation. At this time, information relating to the operation is held in the RAM 303 as camera-giving information in units of frames. As an example of the format of the operation information as the camera assignment information, Table 3 below shows setting information regarding Zoom and Pan.
[0026]
[Table 3]
Figure 0004218945
[0027]
In steps S402, S404, and S406 described above, the camera-attached information for each frame held in the RAM 303 is managed in a bit field for each frame, and is held for a predetermined number of frames. Next, in step S407, the camera unit-by-frame information held in the RAM 303 is referred to for each item of the camera-added information.
[0028]
Tables 4 to 6 below show examples of items of camera provision information in units of sections. For example, if the unit is grouped with respect to Gain, the unit corresponding to the frame group in which the Gain value is 0 is defined as one segment, and the segment corresponding to the frame group greater than 0 is defined as one segment. To do. Also, if subject distances are grouped into sections, subject distances are constant and changing, and subject distance is constant (Constant Substance Distance) and subject distance change (Changing Substance Distance). I'll summarize. In the fixed subject section, the subject distance is expressed by six STEPs. For example, if the subject distance is 0 to 20 cm, STEP1 is set. This STEP is divided based on whether or not the subject size changes sufficiently. Here, the subject size is a ratio of the size of the subject in the frame. That is, when the subject size is the maximum, the image is up.
[0029]
The subject distance change section is a section in which the subject has changed by 1 STEP or more. At this time, the subject distance between the start point and the end point is expressed by six STEPs similar to those in the fixed subject section. It is assumed that the change direction of the change section is the same. That is, when the subject distance increases and decreases continuously in succession, a period during which the subject distance is increased is defined as one section and a period during which the subject distance is decreased is defined as one section.
[0030]
In the case of WB, a section corresponding to a frame group in the same WB mode is set as one section. In the case of Zoom, a section corresponding to a frame group from the start to the end of the Zoom operation is defined as one section. In the case of Pan, the section corresponding to the frame group from the start to the end of the Pan operation is defined as one section. At this time, the frame positions of the start point and end point of the section are stored in association with each other as time information (time from the start of shooting of the shot). Note that the frame number may be used instead of the time information because the start point and end point of the section only need to be able to specify the frame position.
[0031]
[Table 4]
Figure 0004218945
[0032]
[Table 5]
Figure 0004218945
[0033]
[Table 6]
Figure 0004218945
[0034]
Next, in step S408, it is determined whether or not the user gives an instruction to end recording by turning off the recording button 29 or the like. If the recording end instruction is not instructed, the above steps S402 to S407 are repeated to continue recording. When the end of recording is instructed, the process proceeds to step S409, and the section-specific camera assignment information stored in the RAM 303 is stored. That is, all the camera assignment information for each section is sent from the system control unit 21 to the MPEG CODEC 26, added as a footer to the second half of the video data, and sent to the recording unit 27. As this method, for example, the camera-giving information for each section may be a private stream and a TS (Transport Stream) packet may be added at the end. In this embodiment, one shot from the start to the end of recording is set as one file, and camera operation information related to one shot is assigned as a footer of the file.
[0035]
FIG. 5 shows an example of a format for storing the above-mentioned section-unit camera assignment information as a footer. FIG. 5 shows a storage format of the camera assignment information included in the moving image file recorded in the storage medium 28. This moving image file is accompanied by camera-attached information that briefly expresses information such as the contents of the moving image information. That is, the moving image file has a moving image storage area and a camera assignment information storage area in the file, and the storage format of the camera assignment information in FIG. 5 shows the internal structure of the camera assignment information storage area. Is. The storage area 501 for camera assignment information has a configuration in which several camera assignment information items 502 of a fixed length size are held, and the remaining area is used as a free area 503.
[0036]
FIG. 6 is a diagram showing the internal structure of the camera assignment information item 502 shown in FIG. In FIG. 6, a camera assignment information item 601 has several items of fixed length. The inside of the camera assignment information item 601 is roughly divided into two, one is the attribute information 602 of the camera assignment information, and the other is the camera assignment information 605. The camera grant information attribute information 602 further has an internal structure and includes camera grant information grant target section information 603 and camera grant information type number 604.
[0037]
The camera assignment information type number 604 is information for identifying the camera assignment information. For zoom information at the time of shooting, for example, “10”, the identification information assigned in advance to each camera assignment information. Is stored. By using this type number 604, the moving image processing apparatus can search for specific camera-assigned information in the moving image file. Further, the provision target section information 603 of the camera provision information represents a section of moving image data targeted by the camera provision information by time information.
[0038]
Next, the browsing apparatus according to the present embodiment for browsing a moving image file obtained by the imaging apparatus described above will be described.
[0039]
FIG. 7 is a block diagram showing a control configuration of the browsing apparatus in the present embodiment. In FIG. 7, reference numeral 701 denotes a CPU, which executes various controls in the browsing apparatus of this embodiment. Reference numeral 702 denotes a ROM which stores a boot program and various data executed when the apparatus is started up. A RAM 703 stores a control program for processing by the CPU 701 and provides a work area when the CPU 701 executes various controls. A keyboard 704 and a mouse 705 provide various input operation environments for the user.
[0040]
Reference numeral 706 denotes an external storage device, which includes at least one of a hard disk, a floppy (registered trademark) disk, an optical disk, a magnetic disk, a magneto-optical disk, a magnetic tape, and a nonvolatile semiconductor memory (for example, a flash memory). Reference numeral 707 denotes a display, which includes a display and displays various processing results and the like for the user under the control of the CPU 701. A network interface 708 enables communication with each device on the network. Reference numeral 711 denotes a bus, which connects the above configurations.
[0041]
FIG. 8 is a block diagram illustrating a functional configuration of the browsing apparatus according to the present embodiment. Reference numeral 801 denotes a storage medium, which corresponds to the storage medium 28 in FIG. Reference numeral 802 denotes a reading unit that reads a moving image and camera addition information on the storage medium 801. A sub-shot division unit 803 divides a moving image into meaningful sections (sub-shots) based on the above-described camera assignment information added to the footer unit of moving image data. Reference numeral 808 denotes a sub-shot hierarchizing unit that hierarchizes the sections determined by the sub-shot dividing unit 803. A thumbnail creating unit 807 creates thumbnails for the sections hierarchized by the sub-shot hierarchizing unit 808. Reference numeral 806 denotes a recording unit that records on the recording medium 801 the sub-shot division 803, the division points and layers determined by the sub-shot hierarchization unit 808, and the thumbnail created by the thumbnail creation unit 807. A user operation unit 804 includes a keyboard 704 and a mouse 705, and gives a moving image reproduction instruction and the like. Reference numeral 805 denotes a browsing / playback unit that enables browsing and playback of a moving image file on the display 707 based on a user instruction via the user operation unit 804.
[0042]
Here, sub-shot division will be further described. FIG. 15 is a diagram for explaining the outline of sub-shot division. Reference numerals 1501 to 1503 represent moving image data in the same moving image file (the same shot), and are divided into meaningful sections (called sub-shots) based on the respective viewpoints. Note that the expression “divide” means to determine a division point in units of sub-shots, and does not mean to actually separate the moving image file.
[0043]
In FIG. 15, reference numeral 1501 denotes a moving image divided from the viewpoint of the environment at the time of shooting. Here, a section (a1) shot under an indoor fluorescent lamp and a section shot under outdoor sunlight. The example divided into two sub-shots of (a2) is shown. 1502 is divided from the viewpoint of the photographed subject. Here, the sections (b1, b3) where the subject A is photographed, the sections (b2, b4) where the subject B is photographed, and the sections where the subject C is photographed (b) An example of dividing into five sub-shots of b5) is shown. 1503 is divided in view of the angle of view at the time of shooting. Here, six sub-shots of a section (c1, c3, c5) shot up and a section (c2, c4, c6) shot the whole are shown. The example divided into is given.
[0044]
FIG. 18 is a diagram for explaining the outline of hierarchization of sub-shots. 1801 to 1803 in FIG. 18 are the same moving image files as 1501 to 1503 in FIG. That is, FIG. 18 shows a result of hierarchization based on each viewpoint of the sub-shot division of FIG. Reference numeral 1801 denotes a first hierarchy, which is a division from the viewpoint of the shooting environment. Reference numeral 1802 denotes a second hierarchy, which is a division from the viewpoint of the subject. The determination of the upper and lower levels of the hierarchy will be described later. As a lower layer with respect to the section (A-1) photographed under the fluorescent lamp of the first layer 1801, a section (A-1-1) in which the subject A is photographed under the fluorescent lamp, and a section (in which the subject B is photographed) A-1-2), there is a section (A-1-3) where the subject A is captured again. Similarly, A-2-1, A-2-2, and A-2-3 exist as lower layers for A-2. Reference numeral 1803 denotes a third hierarchy, which is a division from the viewpoint of subject size. In the second layer, as a lower layer for the section (A-1-2) where the subject B was photographed under fluorescent light, the subject B was photographed with the section (A-1-2-1) photographed up and the whole Section (A-1-2-2) exists. Similarly, A-1-3-1 and A-1-3-2 as the lower hierarchy for A-1-3, and A-2-1 and A-2- as the lower hierarchy for A-2-1. 1-2 and A-2-2-2 as the lower hierarchy for A-2-2, and A-2-3- as the lower hierarchy for A-2-3 1, A-2-3-2 exists.
[0045]
FIG. 9 is a diagram showing an example of a user interface by the browsing device of the present embodiment. Reference numeral 901 denotes a thumbnail and moving image playback display area. A display area 901 displays thumbnails of shots or sub-shots at the time of browsing, and displays reproduced moving images at the time of moving image reproduction. A pointer 902 is used when selecting a shot or a sub-shot and giving a reproduction instruction. Reference numeral 903 denotes a scroll bar. When displaying thumbnails in the display area 901, if the number of thumbnails to be displayed exceeds the display limit (9 in FIG. 9), it cannot be displayed at once by operating this. Thumbnails can be displayed in order. Reference numerals 904 and 905 denote sub-shot display buttons. When the “next” button 904 is turned on, a list of sub-shots of the next lower layer of the currently selected shot or sub-shot is displayed in the display area 901. When the “return” button 905 is turned on, a list of sub-shots (or shots) one level higher is displayed in the display area 901, contrary to the “next” button. Reference numeral 907 denotes a status display column that displays the current layer and the viewpoint of sub-shot division of the layer when displaying the sub-shot. Reference numeral 906 denotes an end button that instructs the apparatus to end the process.
[0046]
FIG. 16 shows a display state corresponding to each operation in the display area 901. When viewing shots in (a), a list of thumbnails corresponding to each shot is displayed. When a desired shot is selected with the pointer 902 (in the figure, it is represented by a thick frame and indicates that the shot B is selected), when the “next” button 904 is turned ON, the selected shot (shot in the figure) is selected. The sub-shot of B) is displayed (b-1). That is, a list of thumbnails of sub-shots in the first layer of the selected shot is displayed. Similarly, the desired sub-shot is selected with the pointer 902 (B-2 in the figure), and the “next” button 904 is turned on to display the sub-shots in the hierarchy below the selected sub-shot. ((B-2) shows the second layer, (b-3) shows the third layer).
[0047]
On the other hand, if the “return” button 905 is turned on, it is possible to display the sub-shots or shots in the upper hierarchy (from (b-3) to (b-2) → (b-1) → (a) etc.). Furthermore, when a sub-shot is selected with the pointer 902 (B-2-2-2 is selected in (b-3)) and double-clicked in this state, a moving image is reproduced from the head of the selected sub-shot. Is displayed in the display area 901 (c). Needless to say, it is possible to select a desired shot from the time of viewing the shot in (a) and double-click to reproduce the moving image from the head of the shot.
[0048]
In this way, the user can display and search for a desired section of the moving image in order from the sub-shot of the upper hierarchy. In the example of FIG. 18, “under fluorescent light” (first layer), “subject B” (second layer), “up” (third layer), and so on, for each viewpoint. You can narrow down in order.
[0049]
The operation of the browsing apparatus of the present embodiment as described above will be described in detail with reference to FIG. FIG. 10 is a flowchart showing an operation example of the browsing apparatus according to the present embodiment.
[0050]
The processing of this apparatus is broadly divided into sub-shot division / hierarchization processing from step S1001 to step S1005 and browsing processing from step S1006 to step S1011.
[0051]
First, sub-shot division processing will be described. In step S1001, the reading unit 802 reads all moving image files from the storage medium 801, and obtains moving image data and a plurality of camera attachment information (hereinafter referred to as a camera attachment information list) included therein. In step S1002, the sub-shot division unit 803 performs sub-shot division for each viewpoint based on the read camera assignment information list, and determines a division point for each viewpoint (details of the process will be described later). To do). Next, in step SS1003, the sub-shot hierarchy unit 808 performs sub-shot hierarchy as described with reference to FIG. Next, in step S1004, the thumbnail creation unit 807 creates a thumbnail image to be displayed for listing the sub-shots with the browse device. The thumbnail image can be obtained by acquiring the first frame of the sub-shot section from the moving image and reducing it. However, of course, the form of the list display and the generation of thumbnails are not limited to the above, and any form may be used as long as the contents of the sub-shot can be roughly grasped.
[0052]
Next, in step S1005, the recording unit 806 records the hierarchical sub-shot division result in the storage medium 801. Note that recording in the storage medium 801 is not essential, and the browsing / playback unit 805 may refer to the division result via, for example, a RAM or the like. However, once the sub-shot information is recorded in the storage medium 801, the hierarchical sub-shot division result can be used in other devices.
[0053]
Here, an example of a format for storing the sub-shot information will be described. FIG. 13 shows a storage format of sub-shot information of a moving image file recorded in the storage medium 801. As shown in FIG. 13, a sub-shot information storage area is added and held after the camera assignment information storage area described in FIG. The sub-shot information storage format shown in FIG. 13 shows the internal structure of the sub-shot storage area.
[0054]
The sub-shot storage area 1301 is further divided into two areas. One is a sub-shot index storage area 1302 and the other is a thumbnail image storage area 1305. The sub-shot index storage area 1302 has a structure in which several sub-shot indexes 1303 having a fixed length are held, and the remaining area is used as a free area 1304. Further, the thumbnail image storage area 1305 has a configuration in which several thumbnail images 1306 are held and the remaining area is used as a free area 1307.
[0055]
FIG. 14 is a diagram showing the internal structure of the sub-shot index 1303 in FIG. The sub-shot index 1401 has several items of fixed length. The sub-shot ID 1405 is an ID for identifying each sub-shot. The sub-shot section information 1402 expresses a sub-shot section with time information, and is used to indicate one sub-shot in the shot. Note that the sub-shot section may be represented by a frame number in the same manner as the camera assignment information. The viewpoint type number 1403 is a number for identifying a viewpoint (described later) at the time of sub-shot division. The level 1406 indicates the level of the sub-shot. Parent ID 1407 describes the sub-shot ID of the parent sub-shot. If it is a sub-shot of the highest hierarchy, a special ID (such as 0) is assigned. The thumbnail image storage position information 1404 represents the storage position of the thumbnail image in the thumbnail image storage area corresponding to the sub-shot, for example, by an offset from the head of this area.
[0056]
Next, a detailed procedure of the sub-shot division process in step S1002 will be described with reference to FIGS.
[0057]
First, sub-shot division related to the viewpoint of “imaging environment” is performed. In step S1101, it is checked whether there is a camera assignment information item regarding the viewpoint of the shooting environment. Specific items related to the shooting environment include various items such as focus, IRIS, Gain, WB, and AE Mode. In the present embodiment, WB and Gain are used for explanation. The setting of WB is changed according to the shooting environment. For example, under sunlight, the user sets the preset sunlight, and under the fluorescent lamp, the user sets the preset fluorescent lamp. Therefore, if the WB Mode is different, it can be estimated that the shooting environment has also changed. Further, Gain becomes positive when shooting in a very dark environment, and is used as a means for the image pickup apparatus to correct the brightness of the image. Therefore, it can be estimated that the shooting environment changes depending on whether Gain is positive.
[0058]
If neither WB nor Gain is present in the camera assignment information item list, sub-shot division cannot be performed from the viewpoint of “imaging environment”, so steps S1102 to S1104 are skipped, and the next step S1105 is performed. move on. If either WB or Gain exists, the process proceeds to step S1102, where the WB or Gain grant target section is used as it is as a sub-shot section, and is copied to the sub-shot section information 1402 as it is. If both WB and Gain exist, the process proceeds to step S1103, the OR of the WB and Gain grant target sections is taken, and the result is directly copied to the sub-shot section information 1402 as a sub-shot section. Next, in step S1104, 1 representing “imaging environment” is assigned as the viewpoint type number to each of the sub-shot sections determined in step S1102 or S1103, and the viewpoint type number 1403 is recorded.
[0059]
As described above, in the example of the viewpoint of “shooting environment”, only a plurality of types of items that match the viewpoint are selected from the camera assignment information, and the sub-shot section is determined by ORing each section. is doing. Therefore, it is possible to remove sections of items that are not related to the viewpoint.
[0060]
Next, sub-shot division related to the “subject” viewpoint is performed. In step S1105, it is checked whether there is a camera assignment information item related to the viewpoint of the subject. Specific items related to the subject include various items such as Pan, Tilt, and subject distance (Subject Distance). In the present embodiment, Pan and subject distance are used for explanation. In order to move the viewpoint from the subject A to the subject B during shooting, the user needs to perform a Pan operation that swings the imaging device in the horizontal direction. Therefore, it can be estimated that the subject has changed before and after the Pan operation. In addition, when the subject B appears between the subject A and the imaging device 1010 while photographing the subject A, the subject distance changes abruptly. Therefore, it can be estimated that the subject has changed if the subject distance has changed rapidly.
[0061]
If neither Pan nor subject distance exists in the camera assignment information item, sub-shot division (from steps S1106 to S1125) regarding the subject viewpoint is skipped, and the process proceeds to the next step S1126.
[0062]
If only Pan exists, the process advances to step S1106 to copy all the Pan assignment target sections to the sub-shot section target list. The sub-shot section target list is used as a temporary, and has the same format as the camera assignment information storage area 501. Next, the process proceeds to step S1107, and a section other than the Pan operation is inserted as a no-operation section in the sub-shot section target list. At this time, a special number, such as 0, is recorded in the type number 604 (FIG. 6) of the camera assignment information to indicate no operation. Next, the process proceeds to step S11080, and the section from the start position of the no-operation section to the end of panning in the sub-shot section target list is set as the sub-shot section and copied to the sub-shot section information 14020. However, as an exception, when the end of a shot is a no-operation section, this is used as it is as a sub-shot section (not shown). In this embodiment, the sub-shot section is from the start position of the no-operation section to the end of panning, but this is regarded as a part of the previous section since the subject is changing during panning. This is to make one sub-shot section.
[0063]
On the other hand, if it is determined in step S1105 that only the subject distance exists, the process advances to step S1109 to copy all subject distance assignment target sections to the sub-shot section target list. In step S1110, one section is extracted from the sub-shot section target list in order from the top, and it is determined whether the section is a subject distance changing section (Changing Subject Distance) or a constant subject distance section (Constant Subject Distance). (Table 4). If the subject distance is constant, the process of steps S1111 and S1112 is skipped, and the process proceeds to step S1113.
[0064]
If it is a subject distance change section in step S1110, the process proceeds to step S1111 to determine whether the subject distance change amount (the absolute value of the difference between the Start Substance Distance Step and the End Substance Distance Step) is less than a predetermined value A. . The predetermined value A is not particularly limited, but is 2 in the present embodiment. That is, when the condition of step S1111 is not satisfied, there is a sudden change in the subject distance. In this case, step S1112 is skipped and the process proceeds to step S1113. On the other hand, when the condition of step S1111 is satisfied, there is no sudden change of the subject. In this case, the process proceeds to step S1112 and merges with the previous section in the sub-shot section target list. If the subject distance changes slowly, it can be estimated that the subject has not changed, but the distance to the same subject has changed, and such a section is not subject to the sub-shot division section. is there.
[0065]
Step S1113 is an end determination, and it is determined whether or not the above-described steps S1110 to S1112 have been performed for all sections of the sub-shot section target list. If there is an unprocessed section, the process returns to step S1110 and the above process is repeated. If processing has been performed for all the sections, the process proceeds to step S1114, and the sub-shot section is defined as the sub-shot section from the start position of the subject distance constant section to the end of the subject distance change section in the sub-shot section target list. Copy to information 1402. However, as an exception, when the end of a shot is a section with a constant subject distance, this is used as a sub-shot section (not shown). This is because when the subject distance is changing rapidly, it is a section where the subject is changing, so that it is regarded as a part of the previous section and is taken as one sub-shot section.
[0066]
If it is determined in step S1105 that both Pan and subject distance exist, the process proceeds to step S1115. Steps S1115 to S1117 are the same as steps S1106 to S1108, and steps S1119 to S1123 are the same as steps S1109 to S1114. However, in step S1118 and step S1123, the subshot section candidate list 1 is not copied directly to the subshot section information 1402 but is temporary like the subshot section target list and has the same format as the camera-assigned information storage area 501. Are temporarily copied to the sub-shot section list 2. In the next step S11240, the sub-shot section candidate list 1 and the sub-shot section candidate list 2 are ORed with each other and copied to the sub-shot section information 1402.
[0067]
Next, in step S1125, 2 representing “subject” is assigned as the viewpoint type number to the sub-shot section determined in any of steps S1108, S1114, and S1124.
[0068]
In this way, in the example of the “subject” viewpoint, only a plurality of types of items that match the viewpoint are selected from the camera assignment information, and each item has a specific condition such as the amount of change. The sub-shot section is determined by extracting the sections to be viewed and taking their OR. Therefore, it is possible to remove sections of items that are not related to the viewpoint, and it is possible to remove sections having a small influence even if the items are related to the viewpoint.
[0069]
Next, sub-shot division related to the “subject size” is performed. In step S1126, it is checked whether there is a camera addition information item related to the subject size. Specific items related to the subject size include various items such as Zoom, Digital Zoom, and subject distance. In the present embodiment, Zoom and subject distance are used for explanation. For example, in order to shoot the face of the subject A up after the subject size is adjusted and the entire subject A is photographed, the user keeps the subject distance constant and operates the Zoom to the tele side, or It is necessary to reduce the subject distance by approaching the subject A without operating the Zoom. Further, for example, in order to photograph the subject A with the same size when the subject A is moving away from the user (photographer), the user needs to operate Zoom to the tele side. Therefore, it can be estimated whether or not the subject size has been changed by combining Zoom and incidental information of the subject distance.
[0070]
If either Zoom or subject distance is applied in the camera assignment information item, sub-shot division cannot be performed in terms of subject size, so steps S1127 to S1139 are skipped.
[0071]
In step S1126, if there is incidental information on both Zoom and subject distance, the process proceeds to step S1127, and one section is extracted from the beginning in order of the subject distance to determine whether the subject distance change section or the subject distance constant section. Determine. If the subject distance is constant, the processing from step S1128 to step S1131 is performed. On the other hand, if it is the subject distance changing section, the processing from step S1132 to step S1135 is performed. Step S1136 is an end determination, and it is determined whether the above-described series of processing has been performed for all sections of the subject distance.
[0072]
A case where the subject distance is constant will be described. First, in step S1128, it is determined whether Zoom exists in the current section. If Zoom does not exist, the process proceeds to step S1131, and the section of interest is copied to the sub-shot target section list as a section with a fixed subject size. If it exists, the process proceeds to step S1129. In step S1129, it is determined whether the zoom operation amount (absolute value of the difference between Start Magnification and End Magnification) is greater than or equal to a predetermined value B. The reason for making such a determination is that when the operation amount is small, it can be determined that only fine adjustment has been performed. The predetermined value B is preferably about 1.5 times, but is not particularly limited. When the operation amount of Zoom is less than the predetermined value B, it is not a target of the sub-shot division section, so the next step S1130 is skipped.
[0073]
On the other hand, if the Zoom operation amount is equal to or greater than the predetermined value B, the process proceeds to step S1130. At this time, since the amount is sufficient to change the subject size and the subject distance is constant, the Zoom section is a section in which the subject size is changed. Therefore, the OR of the current subject distance section and the Zoom section is taken and copied to the sub-shot target section list. For example, if there is one Zoom section in the current subject distance section, from the beginning of the subject distance section to the beginning of the Zoom section, from the beginning of the Zoom section to the end, from the end of the Zoom section to the end of the subject distance section, There are three sections, and types are a subject size constant section, a subject size change section, and a subject size constant section in order.
[0074]
Next, the case where it is determined in step S1127 that the subject distance has changed (in the case of the subject distance change section) will be described. First, in step S1132, it is determined whether Zoom exists in the current section. If Zoom does not exist, the process proceeds to the next step 1135. Since Zoom has not been operated, if the subject distance has changed, it can be estimated that the subject size has changed. At this time, the process proceeds to step S1135, and the current section is copied as a changed section to the sub-shot target section list.
[0075]
On the other hand, if Zoom exists in the current section in step S1132, the process proceeds to step S1133. At this time, since the Zoom and the subject distance change at the same time, the evaluation cannot be made unless the two quantities are combined. Various evaluation methods are conceivable. For example, it is possible to estimate whether or not the subject size has changed by evaluating the following expression.
Total change = absolute value of ((Start Substance Distance Step-End Substance Distance Step)-H x (Start Magnification-End Magnification))
Here, H is a coefficient, which is determined by characteristics such as a zoom lens. In this embodiment, it is assumed that H = 1.
[0076]
For example, when approaching the subject (from STEP2 to STEP1 in Table 4) and operating Zoom to the wide side (from 3 times to 2 times), the absolute value of (2-1)-(3-2) from the above formula Therefore, the total change amount becomes zero. This indicates that the subject size does not change. On the other hand, for example, when approaching the subject (from STEP2 to STEP1) and operating Zoom to the tele side (from 3 times to 4 times), the absolute value of (2-1)-(3-4) from the above formula Therefore, the total change amount is 2. This indicates that the subject size changes. Therefore, if the total change amount is large, it can be estimated that the subject size has changed.
[0077]
Accordingly, in step S1133, if the total change amount is equal to or greater than the predetermined value C, it is determined that the subject size has changed. The predetermined value C is not particularly limited, but is assumed to be 1 here. If the total change amount is equal to or greater than the predetermined value C, the process proceeds to step S1135 (described above). If the total change amount is less than the predetermined value C, it can be estimated that the subject size has not changed, and thus the process proceeds to step S1134 to copy the current subject distance section as a fixed section to the sub-shot target section list. .
[0078]
If it is determined in step S1136 that the process has been completed for all sections, the process proceeds to step S1137. In step S1137, if certain sections are continuous in the sub-shot target section list, they are merged. This is because there is no change in the subject size between successive sections. Next, the process proceeds to step S1138, where the period from the start position of a certain section in the sub-shot section target list to the end of the change section is set as a sub-shot section and copied to the sub-shot section information 1402. However, if the end of the shot is a certain section, the exception is the sub-shot section (not shown) as an exception. This is because the section in which the subject size is changed is regarded as a part of the previous section and is set as one sub-shot section. Next, in step S1139, 3 representing “subject size” is assigned to each of the sub-shot sections determined in step S1138 as the viewpoint type number.
[0079]
In this way, in the example of the “subject size” viewpoint, only a plurality of types of items that match the viewpoint are selected from the camera assignment information, and each item is combined, and not only the section but also the amount of change In consideration of the above, the sub-shot section is determined by extracting only the section satisfying the specific condition. Accordingly, it is possible to remove sections of items that are not related to the viewpoint, and it is possible to extract sections according to the viewpoint that cannot be extracted by a simple OR of a plurality of items.
[0080]
As described above, the processing in step S1002 described above makes it possible to extract sub-shot sections corresponding to each viewpoint from a plurality of types of camera assignment information.
[0081]
Next, a detailed procedure of the sub-shot layering process in step S1003 will be described with reference to FIG.
[0082]
First, in step S1701, the number of sub-shot sections determined in step S1002 is obtained for each viewpoint, and the result is stored in the hierarchical order list. The hierarchical order list will be described with reference to FIG. FIG. 19 is an example of a hierarchical order list. The hierarchical rank list is composed of viewpoint types and the number of divisions. Hierarchization is performed in order from the first viewpoint type. In the initial value, the viewpoint types are in the order of 1, 2, and 3 ((a) of FIG. 19). This is because it is most common to narrow down the shooting environment (viewpoint type 1), subject (viewpoint type 2), and subject size (viewpoint type 3) when the user searches for a desired section. This is because stratification is usually desirable. In step S1701, the description will be continued assuming that the number of divisions for each viewpoint is stored as in the example shown in FIG.
[0083]
In step S1702, the hierarchical order list is sorted in ascending order by the number of divisions. In the state of (a) of FIG. 19, the order is changed as shown in (b) of FIG. 19 by the process of step S1702. The reason for changing the order in this way is as follows. Depending on the captured video, the subject does not change, only the shooting environment changes frequently, or the subject size hardly changes, only the subject changes frequently and includes many subjects. Exists. In such a case, the upper layer sub-shot can include more lower layer sub-shots by setting the lower division point of view as the upper layer. As a result, when the user searches for a desired section, the user can first narrow down greatly in the upper hierarchy and can quickly reach the desired section. However, when there are the same number of divisions, the order of the initial values is given priority because the state of the initial values is usually a desirable order.
[0084]
In step S1703, 1 is set as an initial value to N. Next, in step S1704, it is checked whether or not the Nth division number in the hierarchical order list is zero. If it is 0, it is not divided from the Nth viewpoint, so the process proceeds to step S1705, N is incremented, and the process proceeds again to step S1704. If it is not 0, the process proceeds to the next step S1706, in which subshot IDs 1401 are assigned in order from the subshot index of the first subshot of the Nth viewpoint type, and each hierarchy 1403 indicates that it is the Nth hierarchy. N to represent is assigned as it is. Next, proceeding to step S1707, it is determined whether N is less than 3. This is an end determination, and in the present embodiment, an example in which only the third hierarchy exists is described. Therefore, the hierarchy process ends when N = 3.
[0085]
In step S 1708, the sub-shot index list in the sub-shot index storage area 1301 having the (N + 1) th viewpoint type is copied to the sub-shot list 1. The sub-shot list 1 is used as a temporary, and includes the same components as the sub-shot / index storage area 1301.
[0086]
In step S1709, X is set to 1 as an initial value, and Y is set to 1 as an initial value. Next, proceeding to step S1710, it is checked whether X is equal to or less than the number of divisions (number of sub-shots) of the Nth layer. That is, it is an end determination as to whether or not the processing from the next step S1711 to step S1716 has been performed for all sub-shots from the Nth viewpoint. While X is equal to or smaller than the Nth division number, the following processes of steps S1711 to S1716 are executed.
[0087]
In step S1711, the section between the Xth subshot of the Nth viewpoint type and the Yth subshot of the subshot list 1 is compared. First, if the Xth subshot section includes the Yth subshot section, the process proceeds to step S1713. This corresponds to the case of FIG. In FIG. 20A, 2001 indicates the Xth sub-shot interval, and 2002 indicates the Y-th sub-shot interval. In step S1713, the sub-shot ID 1401 of the X-th sub-shot is assigned to the Parent ID 1403 of the Y-th sub-shot in order to use the Y-th sub-shot as it is as a sub-shot of the hierarchy below the X-th sub-shot. Then, the process proceeds to step S1714, Y is incremented, and the process returns to step S1711.
[0088]
If it is determined in step S1711 that either the start point or the end point of the Yth sub-shot period is outside the Xth sub-shot period, the process proceeds to step S1712. This corresponds to the case of FIG. In FIG. 20B, 2003 represents the Xth sub-shot section, and 2004 represents the Y-th subshot section. In step S1712, the start point or end point outside the Y-th sub-shot interval is divided in accordance with the X-th sub-shot interval. In FIG. 20 (b), it is divided into a section 2006 on the end point side outside the section and a portion 2005 in the Xth sub-shot section. Note that 2005 is treated as a new Yth sub-shot. Next, the processing from steps S1713 to S1714 is performed (described above).
[0089]
In step S1711, if the Yth subshot section includes the Xth subshot section, the process proceeds to step S1715. This corresponds to (c) of FIG. In FIG. 20C, 2007 indicates the Xth sub-shot section, and 2008 indicates the Y-th subshot section. In this case, since the Xth sub-shot cannot be further divided by the hierarchy below it, in step S1715, the section corresponding to the section of the Xth sub-shot is deleted from the sub-shot list 1 (this embodiment). The purpose of the hierarchization is to gradually narrow down the sub-shot section to reach the desired section, so it is meaningless to provide a lower hierarchy that cannot divide the upper hierarchy section). 2009 is the remaining section, which is treated as the (Y + 1) th section. Then, the process proceeds to step S1716. After incrementing X, the process returns to step S1710.
[0090]
If the Yth sub-shot section is outside the Xth sub-shot section in step S1711, the process proceeds to step S1716. This corresponds to (d) of FIG. Here, 2010 is the Xth sub-shot section, and 2011 is the Yth sub-shot section.
[0091]
Next, returning to FIG. 10, the browsing process from step S1006 to step S1011 will be described.
[0092]
In step S1006, a thumbnail representing each moving image file (shot) is displayed in the display area 901. As a thumbnail representing a shot, for example, a method of using a thumbnail of a sub-shot registered at the top can be considered. However, of course, a method of separately creating a thumbnail for shots may be used. It is only necessary to achieve the purpose of overviewing the contents of the shot. In the present embodiment, thumbnails move from the top line to the bottom line in the display area 9010 in the order of shooting start times described in the file header, and from left to right in the line. Shall be arranged.
[0093]
In step S1007, it is determined whether a sub-shot display instruction has been issued. This can be determined based on whether a shot or sub-shot is designated by the pointer 902 and the sub-shot display buttons 904 and 905 are turned on. However, when the “return” button 905 is turned on during the shot list display, there is an exception, and the display content does not change because it is not possible to move to a higher hierarchy. If neither button 904 nor 905 is ON, step S1008 is skipped and the process proceeds to step S1009.
[0094]
On the other hand, if any of the buttons 904 and 905 is turned on, the process proceeds to step S1008. When the “next” button 904 is turned on, the sub-shot of the lower layer is displayed. When the “return” button 905 is turned on, the sub-shot of the higher layer is displayed. At this time, the status display column 907 displays the current hierarchy and viewpoint so that the user can discriminate.
[0095]
Next, in step S1009, it is determined whether a moving image playback instruction has been issued. This can be determined by whether a specific shot or sub-shot is double-clicked using the pointer 902. If the reproduction instruction has not been given, step S1010 is skipped and the process proceeds to step S1011. If reproduction is instructed, in step S1010, the moving image is reproduced from the head of the designated shot or sub-shot. After reproduction, the display returns to the original shot or sub-shot list display (not shown). Next, in step S1011, it is determined whether termination has been instructed. This can be determined by whether the end button 906 is turned on. If the end is not instructed, the process returns to step S1007 to repeat the above processing. Further, if the end is instructed, this processing is ended.
[0096]
As described above, according to the first embodiment, the user can effectively narrow down by instructing sub-shot selection and sub-shot display, and can quickly reach a desired section (sub-shot). It becomes possible. Therefore, it can be easily used for reproduction or moving image editing.
[0097]
[Second Embodiment]
A second embodiment of the present invention will be described.
[0098]
In the first embodiment, information on sensors and operation units provided in the imaging apparatus 1010 or control information is assigned as camera provision information. In the second embodiment, the camera-attached information that can be extracted by analyzing the imaging data is provided after shooting and used.
[0099]
Since the configuration of the moving image processing device, the configuration of the imaging device 1010, and the like are the same as those in the first embodiment, description thereof will be omitted and only the differences will be described below.
[0100]
FIG. 12 is a block diagram showing a functional configuration of the browser device according to the present embodiment. In FIG. 12, the components 1201 to 1207 are the same as the components 801 to 807 in the first embodiment, and a description thereof will be omitted.
[0101]
Reference numeral 1208 denotes a camera assignment information extraction unit that analyzes video data read from the storage medium 1201 via the reading unit 1202 and extracts camera assignment information that has not been assigned by the imaging apparatus 1010. Here, as an example, it is assumed that panning and tilting are not given by the imaging device 1010.
[0102]
As a method of extracting pan / tilt from video data, the vanishing point of the motion vector is obtained by using the Hough transform, and the vanishing point that obtained the maximum number of votes among the plural vanishing points is set as the vanishing point with respect to the background. There are techniques such as explaining a constraint formula related to pan / tilt. The relationship between pan / tilt and vanishing points and methods for obtaining pan / tilt are detailed in “Kenya Kanaya,“ Image Understanding ”, Morikita Publishing”, etc. As described above, by analyzing the video data, it is possible to further add the obtained camera assignment information and use it in the sub-shot division unit 12030.
[0103]
The pan / tilt information obtained as described above is added to the camera addition information storage area described with reference to FIG. 5, and is used when a sub-shot information storage area as shown in FIG. 14 is generated.
[0104]
[Other Embodiments]
In the first and second embodiments, the image capturing apparatus 1010 and the browse apparatus 1030 are used. However, if the image capturing apparatus 1010 has sufficient processing capability, the function of the browse apparatus 1030 is included in the image capturing apparatus 1010. It may be configured by one device. Even in this case, if the sub-shot information is recorded in the storage medium 1020, the result of the sub-shot division can be used in other devices.
[0105]
In the first and second embodiments, the sub-shot division unit 803, the thumbnail creation unit 807, the user operation unit 804, and the browsing / playback unit 805 are configured as one device, but the sub-shot information in FIGS. Can be configured as separate devices, as long as it is recorded in the storage medium 1020 (801).
[0106]
In the first and second embodiments, the sub-shot division unit 803, the thumbnail creation unit 807, and the camera assignment information extraction unit 1208 are configured on the browse device 1030. However, if the imaging device 1010 has sufficient processing capability. These may be configured on the imaging device 1010. In this case, the browsing apparatus 1030 can perform browsing by recording the sub-shot information of FIGS. 13 and 14 in the storage medium 1020 (storage medium 28).
[0107]
Further, in the first and second embodiments, the camera assignment information (FIGS. 5 and 6) in units of sections is generated during shooting and recorded in the storage medium 1020. However, the imaging device 1010 has sufficient memory and processing capability. If not, camera-attached information in units of frames may be recorded, and processing for grouping the sections later may be performed. At this time, there is a method of storing the camera assignment information in units of frames, such as in an unused area in the management information of image data. Specifically, for example, in the case of an MPEG-2 stream, there is a method of storing in a user area of a picture header. Of course, even if the imaging device 1010 has the ability to record the camera-giving information for each section, the camera-giving information for each frame may be recorded redundantly at the same time. In this way, even if file operations are performed and the camera assignment information for each section is damaged and changes are required, the camera assignment information for each section is created by recalculating the camera assignment information for each frame. It can be corrected.
[0108]
Further, in the first and second embodiments, the camera-giving information and sub-shot information for each section are stored in binary format. However, if the imaging device 1010 has sufficient processing capability, or the browsing device 1030 is used. Of course, a text format or an original DTD (Document Type Definition) may be defined and expressed in an XML (Extensible Markup Language) format or the like. Further, when storing in a format according to MPEG7, it may be stored in Segment DS.
[0109]
Further, in the first and second embodiments, the camera assignment information and the sub-shot information are exchanged via the storage medium 1020. However, a communication unit such as IEEE1394 may be provided and exchanged thereby. Absent.
[0110]
In the first and second embodiments, one shot is used as one moving image file, but a plurality of shots may be used as one moving image file. In this case, it is only necessary to assign an identification number or the like so that each shot can be associated with the camera assignment information and the sub-shot information.
[0111]
In the first and second embodiments, the shooting environment, the subject, and the subject size are increased from the viewpoint of sub-shot division. However, the present invention is not limited to this. For example, whether or not an effect is applied. Various viewpoints can be considered. If the number of divisions increases, the number of hierarchies may be increased accordingly.
[0112]
In the first and second embodiments, the result of sub-shot division is used for browsing. However, if a sub-shot is used as a basic unit and a viewpoint type designation means is provided, video editing, frame printing, digest reproduction, etc. Can be used in various ways. For example, in the case of moving image editing, if a shot to be edited is divided into sub-shots according to viewpoints, the division position can be used for designating In / Out points for editing. In the case of frame printing, for each sub-shot, frame printing candidates can be presented according to viewpoints, for example, by extracting and presenting the center frame of the sub-shot section. In the case of digest playback, digest playback for each designated viewpoint can be performed by playing back the first few seconds of each sub-shot.
[0113]
Further, in the first and second embodiments, the lower layer is not provided because it is not divided at the time of (c) in FIG. For example, if the section corresponding to the lower layer (third layer) below the target sub-shot (second layer) is not divided and is the same section as the target sub-shot, The third level is not provided. In this case, even when the “next” button 904 is pressed during browsing, a warning “no lower layer” is displayed, or the “next” button 904 cannot be pressed in advance. However, a third layer may be provided even in the same section, and when the “next” button 904 is pressed during browsing, only one thumbnail having the same section may be displayed.
[0114]
In the first and second embodiments, the user interface as shown in FIG. 9 is used. However, the present invention is not limited to this. For example, a button or the like that can directly indicate the level of the hierarchy may be provided.
[0115]
In the first and second embodiments, the hierarchization order list is sorted in ascending order by the number of divisions in step S1702, but may be omitted if it is always possible to hierarchize only in a general hierarchization order. Absent. In addition, the user may instruct the hierarchization order in advance. That is, the hierarchical order of each viewpoint in the hierarchical order list in FIG. 19A may be set as desired by the user. Also, it may be possible for the user to specify whether or not to execute the sort processing in step S1702.
[0116]
As described above, according to the present invention, it is possible to divide a moving image into units for each viewpoint and obtain hierarchical sub-shots, and the user repeats sub-shot selection and sub-shot display instructions. This makes it possible to narrow down the sub-shots. As a result, the user can quickly obtain a desired sub-shot.
[0117]
An object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus stores the storage medium. Needless to say, this can also be achieved by reading and executing the program code stored in.
[0118]
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
[0119]
As a storage medium for supplying the program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile raw memory card, a ROM, or the like is used. be able to.
[0120]
Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer is actually executed based on an instruction of the program code. It goes without saying that the case where the functions of the above-described embodiment are realized by performing a part or all of the processing and the processing is included.
[0121]
Further, after the program code read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
[0122]
【The invention's effect】
As described above, according to the present invention, it is possible to quickly find a desired place and facilitate reproduction and editing even for a moving image including many changes in the operation and state of the photographing apparatus.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a schematic configuration of a moving image processing system according to an embodiment.
FIG. 2 is a block diagram illustrating a configuration of the imaging apparatus according to the embodiment.
3 is a block diagram illustrating a configuration of a system control unit in the imaging apparatus of FIG. 2;
FIG. 4 is a flowchart illustrating a procedure of moving image imaging processing by the imaging apparatus of the embodiment.
FIG. 5 is a diagram illustrating an example of a storage format of camera assignment information.
6 is a diagram showing an example of an internal structure of a camera assignment information item shown in FIG. 5. FIG.
FIG. 7 is a block diagram showing a control configuration of the browsing apparatus according to the embodiment.
FIG. 8 is a block diagram showing a functional configuration of the browse device according to the first embodiment.
FIG. 9 is a diagram illustrating an example of a user interface of the browsing apparatus.
FIG. 10 is a flowchart showing an operation example of the browse device.
FIG. 11A is a flowchart showing a detailed procedure of sub-shot division processing of the browsing apparatus.
FIG. 11B is a flowchart showing a detailed procedure of sub-shot division processing of the browsing apparatus.
FIG. 11C is a flowchart showing a detailed procedure of sub-shot division processing of the browsing apparatus.
FIG. 11D is a flowchart showing a detailed procedure of sub-shot division processing of the browsing apparatus.
FIG. 12 is a block diagram illustrating a functional configuration of a browsing device according to the second embodiment.
FIG. 13 is a diagram illustrating an example of a storage format of sub-shot information according to the embodiment.
14 is a diagram showing an example of an internal structure of a sub-shot index shown in FIG.
FIG. 15 is a diagram illustrating an outline of sub-shot division.
16 is a diagram showing an example of an operation of a display area in the user interface shown in FIG.
FIG. 17 is a flowchart showing a detailed procedure of sub-shot stratification processing of the browsing device.
FIG. 18 is a diagram for explaining an outline of hierarchized sub-shots;
FIG. 19 is a diagram illustrating an example of a hierarchical order list.
FIG. 20 is a diagram illustrating an example of a relationship between sub-shot sections in a hierarchization process;
FIG. 21 is a diagram for explaining general moving image division;

Claims (12)

動画像の撮影時の状態を示す複数項目のデータのそれぞれに基づいて生成された、当該動画像を分割するための分割情報が、各項目毎に読み出し可能に登録された動画像データを処理する動画像処理方法であって、
前記複数項目より選択された複数の項目によって構成される項目グループを定義し、該項目グループに属する項目に対応する分割情報を統合して当該項目グループに対応した統合分割情報を生成する生成工程と、
前記生成工程により複数種類の項目グループについて統合分割情報を生成し、生成された複数の統合分割情報の階層順位に従い上位階層の統合分割情報による分割位置を下位階層の統合分割情報の分割位置に追加する階層化工程と、
前記階層化工程で得られた統合分割情報を前記動画像データに対応させて保持する保持工程とを備えることを特徴とする動画像処理方法。
The division information for dividing the moving image generated based on each of the plurality of items of data indicating the shooting state of the moving image processes the moving image data registered so as to be readable for each item. A moving image processing method,
A generation step of defining an item group composed of a plurality of items selected from the plurality of items, and integrating division information corresponding to the items belonging to the item group to generate integrated division information corresponding to the item group; ,
In the generation step, integrated division information is generated for a plurality of types of item groups, and the division position based on the upper division integrated division information is added to the division position of the lower division integrated division information in accordance with the hierarchical order of the plurality of generated integrated division information. Hierarchization process to
A moving image processing method comprising: a holding step of holding the integrated division information obtained in the hierarchizing step in association with the moving image data.
前記複数の統合分割情報の階層順位を、各統合分割情報の分割数に基づいて設定する設定工程を更に備えることを特徴とする請求項1に記載の動画像処理方法。  The moving image processing method according to claim 1, further comprising a setting step of setting a hierarchical order of the plurality of integrated division information based on the number of divisions of each integrated division information. 前記設定工程は、分割数の少ない統合分割情報の階層順位を上位とすることを特徴とする請求項2に記載の動画像処理方法。  The moving image processing method according to claim 2, wherein in the setting step, the hierarchical rank of the integrated division information having a small number of divisions is set higher. 前記複数の統合分割情報の階層順位は、各項目グループに関して予め設定された階層順序に従うことを特徴とする請求項1に記載の動画像処理方法。  The moving image processing method according to claim 1, wherein the hierarchical order of the plurality of integrated division information follows a hierarchical order set in advance for each item group. 前記複数の統合分割情報の階層順位を指定する指定工程を更に備えることを特徴とする請求項1に記載の動画像処理方法。  The moving image processing method according to claim 1, further comprising a designation step of designating a hierarchical order of the plurality of integrated division information. 前記階層化工程によって得られた各階層の統合分割情報によって特定される動画像の各区間を代表する代表画像を生成し保持する保持工程と、
1つの階層の1つの区間が指定された場合に、当該階層の下位階層における当該指定された区間に含まれる区間の代表画像を表示する表示工程とを更に備えることを特徴とする請求項1に記載の動画像処理方法。
A holding step of generating and holding a representative image representing each section of the moving image specified by the integrated division information of each layer obtained by the layering step;
The display step of displaying a representative image of a section included in the designated section in a lower hierarchy of the hierarchy when one section of one hierarchy is designated. The moving image processing method described.
前記表示工程で表示された代表画像より選択された代表画像に対応する動画像の区間について予め定められた処理を実行する実行工程を更に備えることを特徴とする請求項6に記載の動画像処理方法。  The moving image processing according to claim 6, further comprising an execution step of executing a predetermined process for a section of the moving image corresponding to the representative image selected from the representative image displayed in the display step. Method. 前記階層化工程で得られた統合分割情報を前記動画像データに対応させて記憶媒体に記憶する記憶工程を更に備えたことを特徴とする請求項1に記載の動画像処理方法。  2. The moving image processing method according to claim 1, further comprising a storing step of storing the integrated division information obtained in the hierarchizing step in a storage medium in association with the moving image data. 前記項目グループとは、撮影した際の環境、撮影した被写体、撮影した際の被写体サイズ、動画像に付与した効果、のいずれかであることを特徴とする請求項1乃至8のいずれかに記載の動画像処理方法。  9. The item group according to claim 1, wherein the item group is any one of an environment at the time of photographing, a photographed subject, a subject size at the time of photographing, and an effect given to a moving image. Video processing method. 動画像の撮影時の状態を示す複数項目のデータのそれぞれに基づいて生成された、当該動画像を分割するための分割情報が、各項目毎に読み出し可能に登録された動画像データを処理する動画像処理装置であって、
前記複数項目より選択された複数の項目によって構成される項目グループを定義し、該項目グループに属する項目に対応する分割情報を統合して当該項目グループに対応した統合分割情報を生成する生成手段と、
前記生成手段により複数種類の項目グループについて統合分割情報を生成し、生成された複数の統合分割情報の階層順位に従い上位階層の統合分割情報による分割位置を下位階層の統合分割情報の分割位置に追加する階層化手段と、
前記階層化手段で得られた統合分割情報を前記動画像データに対応させて保持する保持手段とを備えることを特徴とする動画像処理装置。
The division information for dividing the moving image generated based on each of the plurality of items of data indicating the shooting state of the moving image processes the moving image data registered so as to be readable for each item. A moving image processing apparatus,
Generating means for defining an item group composed of a plurality of items selected from the plurality of items, and integrating integrated division information corresponding to the items belonging to the item group to generate integrated division information corresponding to the item group; ,
The generation unit generates integrated division information for a plurality of types of item groups, and adds a division position based on the upper division integrated division information to a division position of the lower division integrated division information according to the hierarchical order of the plurality of generated integrated division information. Hierarchization means to
A moving image processing apparatus comprising: holding means for holding the integrated division information obtained by the hierarchizing means in association with the moving image data.
請求項1乃至9のいずれか1項に記載の動画像処理方法をコンピュータに実行させるための制御プログラムを格納したコンピュータによる読み取りが可能な記録媒体。Recording medium reading that can by computer a control program stored for executing the moving image processing method according to the computer in any one of claims 1 to 9. 請求項1乃至9のいずれか1項に記載の動画像処理方法をコンピュータに実行させるための制御プログラム。A control program for executing the moving image processing method according to the computer in any one of claims 1 to 9.
JP2003129455A 2003-05-07 2003-05-07 Moving image processing method, moving image processing apparatus, computer-readable recording medium, and control program Expired - Fee Related JP4218945B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003129455A JP4218945B2 (en) 2003-05-07 2003-05-07 Moving image processing method, moving image processing apparatus, computer-readable recording medium, and control program
US10/829,437 US8718128B2 (en) 2003-05-07 2004-04-22 Moving image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003129455A JP4218945B2 (en) 2003-05-07 2003-05-07 Moving image processing method, moving image processing apparatus, computer-readable recording medium, and control program

Publications (3)

Publication Number Publication Date
JP2004336381A JP2004336381A (en) 2004-11-25
JP2004336381A5 JP2004336381A5 (en) 2006-06-29
JP4218945B2 true JP4218945B2 (en) 2009-02-04

Family

ID=33505287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003129455A Expired - Fee Related JP4218945B2 (en) 2003-05-07 2003-05-07 Moving image processing method, moving image processing apparatus, computer-readable recording medium, and control program

Country Status (1)

Country Link
JP (1) JP4218945B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145546A1 (en) 2012-03-28 2013-10-03 パナソニック株式会社 Image processing device and computer program

Also Published As

Publication number Publication date
JP2004336381A (en) 2004-11-25

Similar Documents

Publication Publication Date Title
JP5022370B2 (en) Content shooting device
TWI388212B (en) An image processing apparatus, an image reproduction apparatus, an image processing method, and a memory medium
EP2219372B1 (en) Image processing device, dynamic image reproduction device, and processing method and program used in the devices
US8078618B2 (en) Automatic multimode system for organizing and retrieving content data files
CN101662584B (en) Information processing apparatus and method
JP4989516B2 (en) Display control device, imaging device, display control method, program, and storage medium
KR101296152B1 (en) Thumbnail generation device and method of generating thumbnail
US8004594B2 (en) Apparatus, method, and program for controlling display of moving and still images
KR20100043138A (en) Image processing device, dynamic image reproduction device, and processing method and program in them
US20080250037A1 (en) Content recording apparatus, content playback apparatus, content playback system, image capturing apparatus, processing method for the content recording apparatus, the content playback apparatus, the content playback system, and the image capturing apparatus, and program
EP2180699A1 (en) Image processor, animation reproduction apparatus, and processing method and program for the processor and apparatus
US20060244847A1 (en) Electronic camera device, image recording apparatus and image recording application software
US20080123966A1 (en) Image Processing Apparatus
JP4154012B2 (en) Recording medium storing program for realizing image display method and image composition apparatus
JP4218945B2 (en) Moving image processing method, moving image processing apparatus, computer-readable recording medium, and control program
WO2012070371A1 (en) Video processing device, video processing method, and video processing program
US8718128B2 (en) Moving image processing method and apparatus
JP4698961B2 (en) Electronic camera and electronic camera control program
JP2006101076A (en) Method and device for moving picture editing and program
JP2000209541A (en) Moving picture reproducing device and storage medium storing moving picture reproduction program
JP4217528B2 (en) Moving image processing method and apparatus
JP2005184348A (en) Video image processor and representative image setting method
JP2005143014A (en) Device, method, and program for image processing
JP2011234180A (en) Imaging apparatus, reproducing device, and reproduction program
JP5828251B2 (en) Image processing apparatus and digital camera

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060501

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081107

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081110

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4218945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131121

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees