JP5369595B2 - 画像処理装置と画像処理方法および撮像装置とコンピュータ・プログラム - Google Patents

画像処理装置と画像処理方法および撮像装置とコンピュータ・プログラム Download PDF

Info

Publication number
JP5369595B2
JP5369595B2 JP2008263751A JP2008263751A JP5369595B2 JP 5369595 B2 JP5369595 B2 JP 5369595B2 JP 2008263751 A JP2008263751 A JP 2008263751A JP 2008263751 A JP2008263751 A JP 2008263751A JP 5369595 B2 JP5369595 B2 JP 5369595B2
Authority
JP
Japan
Prior art keywords
image data
unit
moving image
data
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008263751A
Other languages
English (en)
Other versions
JP2010093687A (ja
Inventor
禎 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008263751A priority Critical patent/JP5369595B2/ja
Publication of JP2010093687A publication Critical patent/JP2010093687A/ja
Application granted granted Critical
Publication of JP5369595B2 publication Critical patent/JP5369595B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、画像処理装置と画像処理方法および撮像装置とコンピュータ・プログラムに関する。詳しくは、動画データから静止画データと一致する部分の動作データを読み出してつなげることで、ユーザの意図に近い動画のダイジェストを容易に生成するものである。
近年、動画と静止画を同時に得ることができるビデオカメラが実用化されている。このビデオカメラを用いることにより、ユーザは被写体を撮像して動画を記録メディアに記録しているとき、デジタルカメラを用いることなく、静止画を記録することができるようになる。さらに、このようなビデオカメラでは、動画の視聴中にシャッターボタンを押すだけで、後から静止画を切り出して記録メディアに記録する機能も実現されている。
また、特許文献1では、動画と静止画が混在して記録される記録メディアを用いて、動画と静止画を組み合わせたスライドショー作成が行われている。この特許文献1では、動画について最初から最後まで再生してしまうと長時間のスライドショーになってしまうことから、予めユーザのお気に入りの場面を示すブックマークを動画に対して指定することで、スライドショー候補にその動画が選ばれた場合は、全ての動画を再生せずにブックマーク前後の動画のみを再生することが行われている。
特開2007−228406号公報
ところで、引用文献1のように、ブックマークを指定する操作を行うものとした場合、撮像時にお気に入りの場面とするか否かを意識してブックマークを挿入する作業や、スライドショーを作成するために予め動画を再生してブックマークを挿入する作業が必要となる。これは、ユーザにとって面倒な作業である。また、近年ハードディスクなどの記録メディアの大容量化により、手軽に長時間の動画を記録できるようになっており、長時間の動画からお気に入りの場面にブックマークを挿入することは、さらに面倒な作業となる。
そこで、本発明はユーザ自身が好みの画像部分を選び出す手間を減らし、ユーザの意図に近い動画のダイジェストを容易に生成できる画像処理装置と画像処理方法および撮像装置とコンピュータ・プログラムを提供するものである。
この発明の第1の側面は、静止画データが示す静止画の一覧を生成する静止画一覧生成部と、前記静止画の一覧から選択された静止画データと一致するフレーム位置を、動画データから検出する検出部と、前記検出部で検出されたフレーム位置を基準として前記動画データから所定期間分の動画データを読み出す動画データ読出部と、前記動画データ読出部で読み出された所定期間分の動画データを、前記選択された静止画の撮像時刻順にダイジェストのデータとして用い、前記ダイジェストのデータにフレーム単位またはGOP単位で前記動画データのチャプタ情報の埋め込みを行うダイジェスト生成部とを備える画像処理装置および画像処理方法にある。
この発明では、動画データから静止画データと一致するフレーム位置が検出される。例えば動画データから抽出した撮像時の日時データと位置データを含む属性情報と、静止画データから抽出した撮像時の日時データと位置データを含む属性情報を抽出して、この属性情報を比較することで、動画データから静止画データと撮像時の日時データと位置データが一致するフレーム位置が検出される。この検出されたフレーム位置を基準として動画データから所定期間分例えば前後数秒程度の動画データが読み出されて、この読み出された動画データをつなげてダイジェストが生成される。
また、静止画データが示す静止画の一覧が生成されて、この静止画の一覧から静止画を選択すると、選択された静止画データから属性情報が抽出されて、この抽出された属性情報に基づきダイジェストが生成される。このダイジェストの表示中に再生指示がなされたときは、表示中のダイジェストを含むチャプタの動画データが読み出されて、動画の再生が行われる。
さらに、動画データを生成したときの撮像期間内に含まれる静止画データの読み出しが行われて、この撮像期間内に含まれる静止画データに対して重み付けが行われる。例えば、前後の静止画データと日時や位置が近いとき重要度が低いものとされる。ここで、ダイジェストの再生時間が所定再生時間よりも長くなるときは、重要度の低い静止画の静止画データが削除されて、一致するフレーム位置の検出に用いられる静止画データのデータ数を少なくすることでダイジェストの再生時間が所定再生時間以下とされる。
この発明の第2の側面は、撮像データを生成する撮像部と、前記撮像データを処理して動画データとする動画データ信号処理部と、前記撮像データから抽出したデータを処理して静止画データとする静止画データ信号処理部と、前記動画データを記録メディアに記録する動画データ記録部と、前記静止画データを記録メディアに記録する静止画データ記録部と、静止画データが示す静止画の一覧を生成する静止画一覧生成部と、前記静止画の一覧から選択された静止画データと一致するフレーム位置を、動画データから検出する検出部と、前記動画データから前記静止画データと一致するフレーム位置を検出する検出部と、前記検出部で検出されたフレーム位置を基準として前記記録メディアに記録された動画データから所定期間分の動画データを読み出す動画データ読出部と、前記動画データ読出部で読み出された所定期間分の動画データを、前記選択された静止画の撮像時刻順にダイジェストのデータとして用い、前記ダイジェストのデータにフレーム単位またはGOP単位で前記動画データのチャプタ情報の埋め込みを行うダイジェスト生成部とを備える撮像装置にある。
この発明は、撮像部で生成された撮像データが処理されて動画データとして記録メディアに記録される。また、撮像部で生成された撮像データから例えば1フレームのデータが抽出されて静止画データとして記録メディアに記録される。記録メディアに記録された動画データから、記録メディアに記録された静止画データと一致するフレーム位置が検出されて、検出されたフレーム位置を基準として動画データから所定期間分例えば前後あわせて数秒程度の動画データが読み出されて、この読み出された動画データをつなげてダイジェストが生成される。
この発明の第3の側面は、コンピュータを、静止画データが示す静止画の一覧を生成する静止画一覧生成機能手段と、前記静止画の一覧から選択された静止画データと一致するフレーム位置を、動画データから検出する検出機能手段と、前記検出機能手段で検出されたフレーム位置を基準として前記動画データから所定期間分の動画データを読み出す動画データ読出機能手段と、前記動画データ読出機能手段で読み出された所定期間分の動画データを、前記選択された静止画の撮像時刻順にダイジェストのデータとして用い、前記ダイジェストのデータにフレーム単位またはGOP単位で前記動画データのチャプタ情報の埋め込みを行うダイジェスト生成機能手段として機能させるためのコンピュータ・プログラムにある。
なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能な汎用コンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、光ディスクや磁気ディスク、半導体メモリなどの記憶媒体、あるいは、ネットワークなどの通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。
この発明によれば、動画データから静止画データと一致するフレーム位置が検出されて、このフレーム位置を基準として動画データから所定期間分の動画データが読み出される。また、読み出された所定期間分の動画データがダイジェストのデータとして用いられる。このため、お気に入りの場面をユーザが静止画として記録しておけば、動画データから好みの画像部分を選び出す操作等を行わなくとも、ユーザの意図に近い動画のダイジェストを容易に生成できる。
以下、発明を実施するための最良の形態(以下実施の形態とする)について説明する。この説明では、下記に示すように画像記録装置の構成と動作について説明したのち、本願発明の画像処理装置の構成と動作についての説明を行うものとする。また、画像記録装置と画像処理装置が例えば撮像装置である場合を例示している。
1.画像記録装置の構成
2.画像記録装置の動作
2−1.画像記録装置の表示動作
2−2.画像記録装置の動画記録動作
2−3.画像記録装置の静止画記録動作
3.本発明の画像処理装置の構成
4.本発明の画像処理装置の動作
4−1.画像処理装置の動画一覧表示動作
4−2.画像処理装置の動画再生動作
4−3.画像処理装置の静止画一覧表示動作
4−4.画像処理装置のダイジェスト再生動作(静止画マニュアル選択の場合)
4−5.画像処理装置のダイジェスト再生動作(静止画自動選択の場合)
4−6.画像処理装置のダイジェスト再生からのチャプタ再生動作
<1.画像記録装置の構成>
図1は、画像記録装置の構成を示している。
画像記録装置(ビデオカメラ)10の撮像部101は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサなどの撮像素子を用いて構成されている。撮像部101は、光電変換を行い、撮像素子上に結像された被写体画像の撮像データを生成する。また、撮像部101は、制御部108からの制御信号に基づき、動画記録が開始されたときは、生成した撮像データを撮像データ格納部102へ転送する処理を行い、動画記録が終了されたとき撮像データの転送を終了する。
撮像データ格納部102は、半導体メモリなどで構成されている。撮像データ格納部102は、撮像部101から入力される撮像データを複数画像分(複数フレーム分)、一時記憶する。
収音部103は、マイクロフォン等を用いて構成されている。収音部103は、制御部108からの制御信号に基づき、動画記録が開始されたときは周囲の音声の収音を行ってアナログ音声信号を生成する。また、収音部103は、生成したアナログ音声信号をA/D変換によってデジタルの音声データに変換して、この音声データを収音データ格納部104へ転送する。さらに、収音部103は、制御部108からの制御信号に基づき、動画記録が終了されたとき収音データ格納部104への音声データの転送を終了する。
収音データ格納部104は、半導体メモリなどで構成されている。収音データ格納部104は、収音部103から供給された音声データを一定時間分、一時記憶する。
GPS部105は、全地球測位システム(Global Positioning System)で用いられているGPS衛星からの電波を受信して、現在の位置や日時等を示す属性情報を生成するものである。GPS部105は、制御部108からの制御信号に基づき、動画記録が開始されたときはGPS衛星からの電波を受信することにより得られた属性情報をGPSデータ格納部106へ転送する。また、GPS部105は、制御部108からの制御信号に基づき、動画記録が終了されたとき、GPSデータ格納部106への属性情報の転送を終了する。
GPSデータ格納部106は、半導体メモリなどで構成されている。GPSデータ格納部106は、GPS部105から供給される属性情報を一定時間分、一時記憶する。
入力部107は、ユーザからの指示入力を受けて、受け付けた指示内容をデコードし、各種命令を制御部108へ転送する。この入力部107には、動作モードを設定するためにユーザが操作するモードスイッチ、動画記録を開始または終了するときにユーザが操作する録画ボタン、静止画記録を行うときにユーザが操作するシャッターボタン等が設けられている。
制御部108は、入力部107から入力される各種命令に基づき、画像記録装置10の動作が命令に対応した動作となるように制御信号を生成して各部の動作を制御する。
動画データ信号処理部109は、撮像データ格納部102から受信した撮像データに対して、データ転送先に適した各種動画データ処理を行う。例えば、動画データ信号処理部109は、補正処理、外部表示器で動画表示を行う場合に最適な動画データ処理や解像度変換、表示部125で動画表示を行う場合に最適な動画データ処理等を行う。また、動画データ信号処理部109は、処理後の動画データを、動画データ格納部110、画像データ格納部122、画像データ格納部123へ転送する。また、動画データ信号処理部109は、サムネイルの生成を行う。サムネイルは、例えばチャプタの先頭の画像を示すものとする。なお、チャプタとは、例えば1つのタイトル内を前半と後半、あるいは1幕目、2幕目などのように分けた場合の各部分を指すものである。
動画データ格納部110は、半導体メモリなどで構成されている。動画データ格納部110は、動画データ信号処理部109から供給された動画データを複数フレーム分、一時記憶することができるものである。
動画データエンコード部111は、動画データ格納部110に格納された動画データをMPEGビデオなどの動画フォーマットに圧縮符号化して、多重化部115へ転送する。 音声データ信号処理部112は、収音データ格納部104から受信したデータに対して、ノイズ除去やデータ転送先に適した音声データ処理を行う。例えば、音声データ信号処理部112は、音声出力器で音声出力を行う場合に最適な音声データ処理、内蔵スピーカ部129で音声出力を行う場合に最適な音声データ処理等を行う。また、音声データ信号処理部112は、音声信号処理後の音声データを、音声データ格納部113、音声データ格納部126、音声データ格納部127へ転送する。
音声データ格納部113は、半導体メモリなどで構成されている。音声データ格納部113は、音声データ信号処理部112から入力された音声データを数秒分、一時記憶することができるものである。
音声データエンコード部114は、音声データ格納部113に格納された音声データをMPEGオーディオなどの音声フォーマットに圧縮符号化して、多重化部115へ転送する。
多重化部115は、動画データエンコード部111で圧縮符号化された動画データに、サムネイルと音声データエンコード部114で圧縮符号化された音声データ、およびGPSデータ格納部106に格納されている位置データ・日時データ等の属性情報を多重化する処理を行う。また、多重化部115は、多重化処理後の動画データを動画データ記録部116へ転送する。
動画データ記録部116は、多重化部115より転送された動画データの記録を行うものある。動画データ記録部116は、記録メディア例えばDVD(Digital Versatile Disc)やBlu−ray Disc(商標)などの光ディスクや、ハードディスクなどの磁気ディスク、半導体メモリなどの比較的容量の大きい記録メディアに対して、動画データの記録を行う。また、画像記録装置10は、有線、無線のネットワークインターフェースを備えて、外部サーバ上のディスクに対して動画データ記録部116により記録を行ってもよい。
静止画データ取得部117は、制御部108からの制御信号に基づき、静止画取得命令を受信すると、撮像データ格納部102に格納されている撮像データから1フレーム分の撮像データを静止画データとして抜き出し、静止画データ信号処理部118へ転送する。
静止画データ信号処理部118は、静止画データ取得部117から受信した静止画データに対して、補正処理などのデータ転送先に適した各種データ処理を行い、静止画データエンコード部119へ転送する。また、静止画データ取得部117は、サムネイルを生成する。
静止画データエンコード部119は、静止画データ信号処理部118より取得した静止画データをJPEGなどのフォーマットに圧縮符号化して、メタデータ埋込部120へ転送する。
メタデータ埋込部120は、静止画データエンコード部119よって圧縮符号化された静止画データに対して、サムネイルやGPSデータ格納部106より取得した位置データ・日時データ等の属性情報の埋め込み処理を行う。メタデータ埋込部120は、例えばサムネイルや属性情報をExifデータとして静止画データに埋め込む。
静止画データ記録部121は、メタデータ埋込部120で位置データ・日時データ等の属性情報の埋め込みが行われた静止画データの記録を行うものである。静止画データ記録部121は、記録メディア例えばDVD(Digital Versatile Disc)やBlu−ray Disc(商標)などの光ディスクや、ハードディスクなどの磁気ディスク、半導体メモリなどの比較的容量の大きい記録メディアに対して、静止画データの記録を行う。また、画像記録装置10は、有線、無線のネットワークインターフェースを備えて、外部サーバ上のディスクに対して静止画データ記録部121により記録を行ってもよい。また、静止画データ記録部121により書き込みを行う記録メディアは、動画データ記録部116にて書き込みを行う記録メディアを兼ねるものとしてもよい。
画像データ格納部122は、外部表示器で動画表示を行う場合に最適な動画データ処理が行われた動画データを動画データ信号処理部109より受信して、一時記憶することができるものである。
画像データ格納部123は、表示部125で動画表示を行う場合に最適な動画データ処理が行われた動画データを動画データ信号処理部109より受信して、一時記憶することができるものである。
画像データ外部出力部124は、HDMIなどのインターフェースを含み、テレビジョンなどの外部表示器に対して、画像データ格納部122より受信した動画データを送信する。
表示部125は、液晶パネルなど画像記録装置10に内蔵された表示機器であり、画像データ格納部123より受信した動画データに基づいて画像表示を行う。
音声データ格納部126は、音声出力器で音声出力を行う場合に最適な音声信号処理が行われた音声データを音声データ信号処理部112より受信して、一時記憶することができるものである。
音声データ格納部127は、内蔵スピーカ部129で音声出力を行う場合に最適な音声信号処理が行われた音声データを音声データ信号処理部112より受信して、一時記憶することができるものである。
音声データ外部出力部128は、ピンジャックや光出力端子を備え、スピーカシステムなどの音声出力器に対して、音声データ格納部126より受信した音声データを送信する。
内蔵スピーカ部129は、本機器に内蔵されたスピーカで、音声データ格納部127より受信した音声データに基づいた音声出力を行う。
<2.画像記録装置の動作>
次に、画像記録装置の動作について、図2〜図4,図6のフローチャートを用いて説明する。図2のフローチャートは、画像記録装置の動作概要を示している。
ステップS1201において、画像記録装置は記録モードを開始する。画像記録装置は、入力部107で記録モード開始命令が発行されたことを判別したとき、動作モードを記録モードに設定する。また、画像記録装置は、動作モードを記録モードに設定したとき、ステップS1202,S1203,S1205へ移行する。
ステップS1202において、画像記録装置は表示動作を行う。画像記録装置は、各部の動作を制御して後述する表示動作を行ったのちステップS1207へ移行する。
ステップS1203において、画像記録装置は動画記録開始であるか否か判別する。画像記録装置は、入力部107で動画記録開始命令が発行されていると判別したときステップS1204へ移行し、動画記録開始命令が発行されていないと判別したときステップS1207へ移行する。
ステップS1204において、画像記録装置は動画記録動作を行う。画像記録装置は、各部の動作を制御して後述する動画記録動作を行ったのちステップS1207へ移行する。
ステップS1205において、画像記録装置は静止画記録開始であるか否か判別する。画像記録装置は、入力部107で静止画記録命令が発行されていると判別したときステップS1206へ移行し、静止画記録命令が発行されていないと判別したときステップS1207へ移行する。
ステップS1206において、画像記録装置は静止画記録動作を行う。画像記録装置は、各部の動作を制御して後述する静止画記録動作を行ったのちステップS1207へ移行する。
ステップS1207において、画像記録装置は記録モードの終了であるか否か判別する。画像記録装置は、入力部107で記録モード終了命令が発行されていると判別したときステップS1208へ移行し記録モードを終了し、記録モード終了命令が発行されていないと判別したときステップS1202,S1203,S1205へ移行する。
次に、図2のフローチャートの具体的動作について例示する。なお、以下の説明では、画像記録装置10がビデオカメラであり、記録メディアとしてハードディスク装置(以下「HDD」という))を用いるものとする。
ビデオカメラ10は、電源スイッチがオン状態とされて、モードスイッチが動画記録モードに切り替えられたとき、記録モードを開始する(S1201)。
ビデオカメラ10は、表示動作を行い、撮像部101で撮像した被写体の画像を例えば表示部125に表示する(S1202)。
ビデオカメラ10は、録画開始操作が行われたとき、動画記録を開始してHDDに動画を記録する(S1203→S1204)。
ビデオカメラ10は、シャッター操作が行われたとき、静止画記録を開始してHDDに静止画を記録する(S1205→S1206)。なお、静止画記録は動画記録の最中にも行うことを可能とすることで、現在の場面を動画と写真の両方で残すことができるようになる。
ビデオカメラ10は、モードスイッチが動画記録モード以外、例えば再生モードに切り替えられたとき、またはビデオカメラ10の電源スイッチがオフ状態とされたとき、記録モードを終了させる(S1207→S1208)。
<2−1.画像記録装置の表示動作>
図3は、画像記録装置における表示動作のフローチャートを示している。
ステップS1301において、画像記録装置は表示動作を開始させて、ステップS1302からの動画データの処理とS1307からの音声データの処理へ移行する。
ステップS1302において、画像記録装置は撮像データの取得を行う。撮像部101は、被写体画像を示す撮像データを生成して撮像データ格納部102に供給する。撮像データ格納部102は、複数フレーム分の撮像データを一時記憶してステップS1303へ移行する。
ステップS1303において、画像記録装置は動画データ信号処理を行う。動画データ信号処理部109は、撮像データ格納部102で一時記憶されている撮像データに対して、上述のようにデータ転送先に適した各種動画データ処理を行う。さらに、動画データ信号処理部109は、外部表示器に表示する動画の動画データを画像データ格納部122、表示部125に表示する動画の動画データを画像データ格納部123へ転送したのちステップS1304,S1305へ移行する。
ステップS1304において、画像記録装置は動画表示を行う。表示部125は、画像データ格納部123に転送された動画データを用いて動画表示を行いステップS1312へ移行する。
ステップS1305において、画像記録装置は外部表示器の接続を判別する。画像データ外部出力部124は、外部表示器が接続されていると判別したときステップS1306へ移行し、外部表示器が接続されていないと判別したときステップS1312へ移行する。
ステップS1306において、画像記録装置は動画データ出力を行う。画像データ外部出力部124は、画像データ格納部122に転送された動画データを外部表示器に出力する処理を行い、出力処理終了後にステップS1312へ移行する。
ステップS1307において、画像記録装置は音声データの取得を行う。収音部103は、周囲の音声を収音して音声データの生成を行い、生成した音声データを収音データ格納部104に供給する。収音データ格納部104は、一定時間分の音声データを一時記憶してステップS1308へ移行する。
ステップS1308において、画像記録装置は音声データ信号処理を行う。音声データ信号処理部112は、上述のように、HDDの駆動音などをはじめとした各種ノイズ除去などの処理を行う。さらに、音声データ信号処理部112は、音声出力器から出力する音声の音声データを音声データ格納部126、内蔵スピーカ部129から出力する音声の音声データを音声データ格納部127へ転送したのちステップS1309,S1310へ移行する。
ステップS1309において、画像記録装置は音声出力を行う。内蔵スピーカ部129は、音声データ格納部127に転送された音声データを用いて音声出力を行いステップS1312へ移行する。
ステップS1310において、画像記録装置は音声出力器の接続を判別する。音声データ外部出力部128は、音声出力器が接続されていると判別したときステップS1311へ移行し、音声出力器が接続されていないと判別したときステップS1312へ移行する。
ステップS1311において、画像記録装置は音声データ出力を行う。音声データ外部出力部128は、音声データ格納部126に転送された音声データを音声出力器に出力する処理を行い、出力処理終了後にステップS1312へ移行する。
ステップS1312において、画像記録装置は表示動作を終了する。例えば、表示部125は動画表示、画像データ外部出力部124は動画データ出力、内蔵スピーカ部129は音声出力、音声データ外部出力部128は音声データ出力をそれぞれ終了する。
次に、図3のフローチャートの具体的動作について例示する。表示動作を開始すると(S1301)、ビデオカメラ10は、撮像部101で生成した撮像データを、例えばSRAM(Static Random Access Memory)などを用いて構成した撮像データ格納部102に、一時的に数フレーム分記憶する(S1302)。
ビデオカメラ10は、撮像データ格納部102に記憶されている動画データを、動画データ信号処理部109で信号処理する。ビデオカメラ10の動画データ信号処理部109は、DSP(Digital Signal Processor)などの信号処理用集積回路を用いて構成されており、補正などの処理や後段の表示部や外部表示器にあわせた解像度とする変換処理を行う。例えば内蔵される表示部125の液晶パネルが「640×480」の解像度であり、外部表示器であるHDTVが「1920×1080」などの解像度である場合、それぞれの解像度の動画データとする変換処理を行う(S1303)。
ビデオカメラ10は、内蔵している液晶パネルで、被写体の撮像画像を表示する(S1304)。また、ビデオカメラ10の例えばHDMI(商標)端子にHDMIケーブルでテレビジョン装置が接続されているとき、ビデオカメラ10は、動画データの出力を行い、被写体の撮像画像をテレビジョン装置に表示させる(S1305→S1306)。
また、ビデオカメラ10は、収音部103で周囲の音声を取得して生成した音声データを、例えばSRAM(Static Random Access Memory)などを用いて構成した収音データ格納部104に、一時的に一定時間分記憶させる(S1307)。
ビデオカメラ10は、収音データ格納部104に記憶されている音声データを、音声データ信号処理部112で信号処理する。ビデオカメラ10の音声データ信号処理部112は、DSP(Digital Signal Processor)などの信号処理用集積回路を用いて構成されており、ノイズ除去などの処理や、後段の音声出力器にあわせた変換処理を行う。例えば内蔵スピーカ部129に対しては、D/A変換を行って得られたアナログ信号の音声信号を転送する。また、外部の音声出力器とSPDIF(Sony Philips Digital Interface)で接続される場合、SPDIFフォーマットにあわせた変換を行う(S1308)。
ビデオカメラ10は、収音した周囲の音を内蔵スピーカ部129から出力する(S1309)。また、ビデオカメラ10の例えばHDMI(商標)端子にHDMIケーブルでテレビジョン装置が接続されているとき、ビデオカメラ10は、収音した周囲の音をテレビジョン装置から出力させる(S1310→S1311)。
<2−2.画像記録装置の動画記録動作>
図4は、画像記録装置における動画記録動作のフローチャートを示している。
ステップS1401において、画像記録装置は動画記録動作を開始させて、ステップS1402からの動画データの処理とステップS1405からの音声データの処理とステップS1408からのGPSデータの処理へ移行する。
ステップS1402において、画像記録装置は撮像データの取得を行う。撮像部101は、被写体画像を示す撮像データを生成して撮像データ格納部102に供給する。撮像データ格納部102は、複数フレーム分の撮像データを一時記憶してステップS1403へ移行する。
ステップS1403において、画像記録装置は動画データ信号処理を行う。動画データ信号処理部109は、撮像データ格納部102で一時記憶されている撮像データに対して補正などの各種動画データ処理を行う。また、動画データ信号処理部109は、処理後の動画データを動画データ格納部110へ転送してステップS1404へ移行する。さらに、動画データ信号処理部109は動画データ処理としてサムネイルの生成を行い、生成したサムネイルを動画データ格納部110へ転送する。
ステップS1404において、画像記録装置は動画データエンコードを行う。動画データエンコード部111は、動画データ格納部110に一時記憶されている動画データの圧縮符号化を行う。また、動画データエンコード部111は、圧縮符号化後の動画データを多重化部115へ転送してステップS1409へ移行する。
ステップS1405において、画像記録装置は音声データの取得を行う。収音部103は、周囲の音声を収音して音声データの生成を行い、生成した音声データを収音データ格納部104に供給する。収音データ格納部104は、一定時間分の音声データを一時記憶してステップS1406へ移行する。
ステップS1406において、画像記録装置は音声データ信号処理を行う。音声データ信号処理部112は、上述のように、HDDの駆動音などをはじめとした各種ノイズ除去などの処理を行う。さらに、音声データ信号処理部112は、信号処理後の音声データを音声データ格納部113へ転送したのちステップS1407へ移行する。
ステップS1407において、画像記録装置は音声データエンコードを行う。音声データエンコード部114は、音声データ格納部113に一時記憶されている音声データの圧縮符号化を行う。また、音声データエンコード部114は、圧縮符号化後の音声データを多重化部115へ転送してステップS1409へ移行する。
ステップS1408において、画像記録装置はGPSデータの取得を行う。GPS部105は、複数の衛星からの電波を受信し、受信した電波から得られた情報を用いて測位を行い、日時データや位置データを示す属性情報を生成してGPSデータ格納部106に供給する。GPSデータ格納部106は、属性情報を一定時間記録してステップS1409へ移行する。
ステップS1409において、画像記録装置は多重化処理を行う。多重化部115は、ステップS1404により得られた動画データに、サムネイルやステップS1407により得られた音声データ、ステップS1408により得られた属性情報を多重化する。ステップS1408により得られた属性情報は、例えば動画データのフレーム毎にあるいはGOP(Group of Picture)毎に得られるように多重化する。また、多重化部115は、多重化後の動画データを動画データ記録部116へ転送してステップS1410へ移行する。ここで、ステップS1408により得られた属性情報は、T
ステップS1410において、画像記録装置は記録処理を行う。動画データ記録部116は、多重化後の動画データを動画データ記録メディアに記録したのちステップS1411へ移行する。
ステップS1411において、画像記録装置は、動画記録動作終了であるか否か判別する。制御部108は、入力部107で動画記録終了命令が発行されていると判別したときステップS1412へ移行し、動画記録終了命令が発行されていないと判別したときステップS1402,S1405,S1408へ移行して、引き続き動画記録を行う。
ステップS1412において、画像記録装置は動画記録動作を終了する。例えば、動画データや音声データの圧縮符号化やGPSデータの取得、多重化等の処理をそれぞれ終了する。
次に、図4のフローチャートの具体的動作について例示する。録画ボタンが操作されて動画記録動作を開始すると(S1401)、ビデオカメラ10は、撮像部101で生成した撮像データを、例えばSRAM(Static Random Access Memory)などを用いて構成した撮像データ格納部102に、数フレーム分記憶する(S1402)。
ビデオカメラ10は、撮像データ格納部102に記憶されている動画データを、動画データ信号処理部109で信号処理して、動画データ格納部110へ転送する。動画データ信号処理部109は、DSP(Digital Signal Processor)などの信号処理用集積回路を用いて構成して、補正などの処理を行う(S1403)。
ビデオカメラ10は、動画データ格納部110に記憶されている動画データを、動画データエンコード部111で圧縮符号化して多重化部115へ転送する。動画データエンコード部111は、DSP(Digital Signal Processor)などの信号処理用集積回路を用いて構成して、動画データをH.264/AVC等の規格に対応したフォーマットに圧縮符号化する(S1404)。
また、ビデオカメラ10は、収音部103で周囲の音声を取得して生成した音声データを、例えばSRAM(Static Random Access Memory)などを用いて構成した収音データ格納部104に、一時的に一定時間分記憶させる(S1405)。
ビデオカメラ10は、収音データ格納部104に記憶されている音声データを、音声データ信号処理部112で信号処理して、音声データ格納部113へ転送する。ビデオカメラ10の音声データ信号処理部112は、DSP(Digital Signal Processor)などの信号処理用集積回路を用いて構成されており、ノイズ除去などの処理を行う(S1406)。
ビデオカメラ10は、音声データ格納部113に記憶されている音声データを、音声データエンコード部114で圧縮符号化して多重化部115へ転送する。音声データエンコード部114は、DSP(Digital Signal Processor)などの信号処理用集積回路を用いて構成して、音声データをAC−3等のフォーマットに圧縮符号化する(S1407)。
ビデオカメラ10は、GPS部105で属性情報を生成して、GPSデータ格納部106に格納させる(S1408)。
また、ビデオカメラ10は、多重化部115で動画データや音声データおよび属性情報の多重化を行う。例えば、多重化部115は、圧縮符号化された動画データと音声データおよび位置データや日時データをそれぞれPES(Packetized Elementary Stream)パケット化する。さらに、多重化部115は、各PESパケットを固定長のパケットに分割して多重化してMPEG2−TSのストリームを生成する(S1409)。
ビデオカメラ10は、多重化後の動画データを動画データ記録部116で記録メディアに記録させる。例えば動画データ記録部116は、AVCHD形式でハードディスクに記録する(S1410)。
その後、ビデオカメラ10は、動画記録終了命令が発行されたとき、例えば録画ボタンが再度操作されたとき動画記録動作を終了する(S1411→S1412)。
図5はAVCHD形式のファイルの基本構造を示している。ファイルは、ディレクトリ構造により階層的に管理される。記録メディア上には、1つのディレクトリ(図5の例ではルート(root)ディレクトリ)が作成される。ルートディレクトリの下に、ディレクトリ"BDMV"が置かれる。さらに必要に応じて、ルートディレクトリの下にディレクトリ"AVCHDTN"が置かれる。ディレクトリ"AVCHDTN"には、チャプタの先頭等を示す画像を所定サイズに縮小したサムネイルが置かれる。ディレクトリ"BDMV"の下には、ファイル"index.bdmv"およびファイル"MovieObject.bdmv"、ディレクトリ"PLAYLIST"、ディレクトリ"CLIPINF"、ディレクトリ"STREAM"およびディレクトリ"BACKUP"が置かれる。
ファイル"index.bdmv"は、ディレクトリ"BDMV"の内容について記述される。すなわち、このファイル"index.bdmv"がインデックスレイヤにおけるインデックステーブルに対応する。また、ファイル"MovieObject.bdmv"は、1つ以上の動画の情報が格納される。
ディレクトリ"PLAYLIST"は、プレイリストのデータベースが置かれるディレクトリである。すなわち、ディレクトリ"PLAYLIST"は、プレイリストに関するファイルであるファイル"xxxxx.mpls"を含む。このプレイリストに関するファイルでは、チャプタ単位での再生等を行うことができるように、チャプタの位置が記述される。
ディレクトリ"CLIPINF"は、クリップのデータベースが置かれるディレクトリである。すなわち、ディレクトリ"CLIPINF"は、クリップAVストリームファイルのそれぞれに対するクリップインフォメーションファイルであるファイル"zzzzz.clpi"を含む。
ディレクトリ"STREAM"は、動画データや音声データのストリームファイルが置かれるディレクトリである。ストリームファイルは、MPEG2(Moving Pictures Experts Group 2)のトランスポートストリーム(以下、MPEG2 TSと略称する))からなる。ディレクトリ"BACKUP"は、各ディレクトリおよびファイルのバックアップが格納される。
なお、動画データの多重化はMPEG−TSに限られるものではなく、他の形式で多重化を行うものといてもよい。また、動画データのファイル形式もAVCHD形式に限られるものではなく、他の形式例えばDVD−Video規格を用いるものとしてもよい。
<2−3.画像記録装置の静止画記録動作>
図6は、画像記録装置における静止画記録動作のフローチャートを示している。
ステップS1501において、画像記録装置は静止画記録動作を開始させて、ステップS1502からの静止画データの処理とステップS1505からのGPSデータの処理へ移行する。
ステップS1502において、画像記録装置は静止画データの取得を行う。撮像部101は、被写体画像を示す撮像データを生成して撮像データ格納部102に供給する。撮像データ格納部102は、撮像データを一時記憶する。静止画データ取得部117は、撮像データ格納部102から1フレームの撮像データを静止画データとして抜き出してステップS1503へ移行する。
ステップS1503において、画像記録装置は静止画データ信号処理を行う。静止画データ信号処理部118は、静止画データ取得部117で抜き出された静止画データに対して補正などの各種データ処理を行う。さらに、静止画データ信号処理部118は、処理後の静止画データを静止画データエンコード部119へ転送してステップS1504へ移行する。また、静止画データ信号処理部118はサムネイルを生成する。
ステップS1504において、画像記録装置は静止画データエンコードを行う。静止画データエンコード部119は、静止画データ信号処理部118で処理された静止画データの圧縮符号化を行う。また、静止画データエンコード部119は、圧縮符号化後の静止画データをメタデータ埋込部120へ転送してステップS1506へ移行する。
ステップS1505において、画像記録装置はGPSデータの取得を行う。GPS部105は、複数の衛星からの電波を受信し、受信した電波から得られた情報を用いて測位を行い、日時データや位置データを示す属性情報を生成してGPSデータ格納部106に供給する。GPSデータ格納部106は、日時データや位置データを一定時間記録してステップS1506へ移行する。
ステップS1506において、画像記録装置はメタデータ埋め込み処理を行う。メタデータ埋込部120は、静止画データエンコード部より転送された静止画データに対して、サムネイルやGPSデータ格納部106より転送された属性情報をメタデータとして埋め込む。また、メタデータ埋込部120は、メタデータの埋め込みが完了した静止画データを静止画データ記録部121へ転送してステップS1507へ移行する。
ステップS1507において、画像記録装置は記録処理を行う。静止画データ記録部121は、メタデータが埋め込まれた静止画データを静止画データ記録メディアに記録したのちステップS1508へ移行する。
ステップS1508において、画像記録装置は静止画記録動作を終了する。例えば、静止画データの取得やGPSデータの取得、メタデータの埋め込み等の処理をそれぞれ終了する。
次に、図6のフローチャートの具体的動作について例示する。静止画記録動作を開始する(S1501)と、ビデオカメラ10は、撮像部101で生成した撮像データを、例えばSRAM(Static Random Access Memory)などを用いて構成した撮像データ格納部102に記憶する。また、静止画データ取得部117で、静止画記録命令が発行された瞬間、すなわちシャッターボタンが操作された瞬間のフレーム画像を示す撮像データを撮像データ格納部102から抜き出して静止画データとする(S1502)。
ビデオカメラ10は、静止画データ取得部117で取得した静止画データを、静止画データ信号処理部118で信号処理して、静止画データエンコード部119へ転送する。静止画データ信号処理部118は、DSP(Digital Signal Processor)などの信号処理用集積回路を用いて構成して、補正などの処理やサムネイルの生成を行う(S1503)。
ビデオカメラ10は、補正などの処理が行われた静止画データを、静止画データエンコード部119で圧縮符号化してメタデータ埋込部120へ転送する。静止画データエンコード部119は、DSP(Digital Signal Processor)などの信号処理用集積回路を用いて構成して、静止画データをJPEG等のフォーマットに圧縮符号化する(S1504)。
また、ビデオカメラ10は、GPS部105で生成した属性情報をGPSデータ格納部106に格納させる(S1505)。
ビデオカメラ10は、メタデータ埋込部120で静止画データにサムネイルや位置データと日時データを埋め込む処理を行う。例えば、メタデータ埋込部120はExif規格を用いるものとして、位置データと日時データを属性情報として、この属性情報やサムネイルを静止画データに埋め込む(S1506)。
ビデオカメラ10は、メタデータ埋め込み後の静止画データを、静止画データ記録部121で記録メディアに記録させる。例えば静止画データ記録部121は、メタデータが埋め込まれた静止画データのファイルをディスクに記録する(S1507)。
静止画データを記録する際のファイル形式としては、例えば日本電子情報技術産業協会(JEITA)によってExif規格が定められている。このExif規格では、静止画データとして圧縮タイプのJPEGデータをExif規格のファイルに含めることが規定されている。
図7は、圧縮符号化処理された静止画データのファイル基本構造を例示している。Exif規格のファイルは、マーカセグメントSOI,APP1,APP2,DQT,DHT,DRI,SOF,SOS,EOIと、画像データ格納領域GDを含んでいる。マーカセグメントSOIは圧縮データの先頭を示すものである。マーカセグメントAPP1はExifの付属情報を格納する領域である。マーカセグメントAPP2はExif拡張データを格納する領域である。マーカセグメントDQTは量子化テーブルを定義するものである。マーカセグメントDHTはハフマンテーブルを定義するものである。マーカセグメントDRIは、リスタートマーカの挿入間隔を定義するものである。マーカセグメントSOFはフレームに関する各種パラメータを示すものである。マーカセグメントSOSはスキャンに関する各種パラメータを示すものである。マーカセグメントEOIは圧縮データの終了を示すものである。
マーカセグメントAPP1は、APP1マーカや、Exif識別コード、TIFFヘッダおよびその他の付属情報、サムネイルを格納している。付属情報は、圧縮符号化された静止画データに関する付属情報を格納する0th IFDと、撮像日時の日時データや撮像情報PIや音声情報をはじめとするExif固有の付属情報を格納するExif IFDと、GPSの情報を格納するGPS Info IFD、サムネイル画像に関する付属情報を格納する1st IFDとを含んでいる。
撮像情報PIでは、露出時間やレンズF値、ISO感度、シャッタースピード、絞り値、露出プログラム、露出時間、レンズ焦点距離等のデータが含まれる。GPS InfoIFDに格納される情報には、撮像時における緯度や経度といった地理的位置を表す位置データ等が含まれる。なお、静止画データのファイル形式は、Exif規格以外の形式を用いるものとしてもよい。
<3.本発明の画像処理装置の構成>
次に、本願発明の画像処理装置の概略構成について図8を用いて説明する。この画像処理装置は、動画データから静止画データと一致するフレーム位置を検出する検出部と、検出部で検出されたフレーム位置を基準として動画データから所定期間分の動画データを読み出す動画データ読出部と、動画データ読出部で読み出された所定期間分の動画データをダイジェストのデータとして用いるダイジェスト生成部とを備えるものである。なお、以下の説明では、動画データから静止画データと一致するフレーム位置を検出する検出部において、動画データと静止画データのそれぞれに埋め込まれている属性情報を比較して、比較結果に基づき動画データから静止画データと一致するフレーム位置を検出する構成を例示している。
画像処理装置(ビデオカメラ)20の入力部201は、ユーザからの指示入力を受けて、受けた指示内容をデコードし、各種命令を制御部202へ転送する。この入力部107には、動作モードを設定するためにユーザが操作するモードスイッチ、記録されている動画や静止画を再生する再生ボタン、一覧表示されたサムネイルからユーザの所望するサムネイルを選択するためのサムネイル選択ボタン、動画のダイジェストの生成や提示を行うためのダイジェスト開始ボタン、チャプタ再生を行うためのチャプタ再生ボタン等が設けられている。
制御部202は、入力部201から入力される各種命令に基づき、画像処理装置20の動作が命令に対応する動作となるように制御信号を生成して各部の動作を制御する。
動画データ読出部203は、制御部202、動画データ選択部208、属性情報比較部230のいずれかより、動画データ読出命令を受け取ると、動画データが記録された記録メディアから、サムネイルや指定の動画の動画データを読み出して、読み出した動画データをデータ分離部204へ転送する。
データ分離部204は、動画データ読出部203からの多重化されている動画データのデータ分離を行う。データ分離部204は、分離後の動画データやサムネイルを動画データデコード部205、分離した音声データを音声データデコード部209、分離した属性情報を動画属性情報抽出部229へ転送する。
動画データデコード部205は、データ分離部204により分離した動画データの伸張復号化を行う。動画データデコード部205は、伸張復号化を行うことにより得られた動画データを動画データ格納部206へ転送する。
動画データ格納部206は、動画データデコード部205より入力される動画データを複数フレーム分、一時記憶する。また、動画データ格納部206はデータ分離部204により分離したサムネイルを一時記憶する。
動画一覧生成部207は、動画データ格納部206に記憶されているサムネイルのデータを取り出して組み合わせ、動画選択画面の画像データを生成して、後述する画像セレクタ等を介して表示部215に動画選択画面を表示させる。
動画データ選択部208は、制御部202からの制御信号に基づき、動画一覧生成部207により生成された動画一覧の画像から、ユーザがいずれの動画を選択したか判別して、判別した動画の情報と共に、動画データ読出命令を動画データ読出部203へ転送する。また、動画データ選択部208は、判別した動画の情報を撮像日時抽出部240へ転送する。
音声データデコード部209は、データ分離部204で分離された音声データの伸張復号化を行う。音声データデコード部209は、伸張復号化を行うことにより得られた音声データを音声セレクタ216へ転送する。
画像セレクタ210は、動画データや動画一覧の画像データ、後述する静止画データ格納部225から転送された静止画データや、静止画一覧生成部226から転送された画像データを受信し、現在の再生モードにあわせたデータを選択して画像データ信号処理部211へ転送する。
画像データ信号処理部211は、画像セレクタ210から受信した画像データに対して、解像度変換や補正処理などのデータ転送先に適した各種画像データ処理を行う。例えば、画像データ信号処理部211は、補正処理、外部表示器で最適な画像表示を行うための画像データ処理や解像度変換処理、表示部215で最適な画像表示を行うための画像データ処理等を行う。また、画像データ信号処理部211は、処理後の画像データを、画像データ格納部212、画像データ格納部214へ転送する。
画像データ格納部212は、半導体メモリなどで構成されている。画像データ格納部212は、外部表示器で最適な画像表示を行うための画像データ処理が行われた画像データを受信して一時記憶する。
画像データ外部出力部213は、HDMIなどのインターフェースを含み、テレビジョンなどの外部表示器に対して、画像データ格納部212より受信した画像データを送信する。
画像データ格納部214は、半導体メモリなどで構成されている。画像データ格納部214は、表示部215で最適な画像表示を行うための画像データ処理が行われている画像データを受信して一時記憶する。
表示部215は、液晶パネルなど画像処理装置20に内蔵された表示機器であり、画像データ格納部214より受信した画像データに基づいて表示を行う。
音声セレクタ216は、各種モード時の音声データを受信し、現在の再生モードにあわせた音声を音声データ信号処理部217へ転送する。
音声データ信号処理部217は、音声セレクタ216から受信したデータに対して、ノイズ除去やデータ転送先に適した音声データ処理を行う。例えば、音声データ信号処理部217は、音声出力器で音声出力を行う場合に最適な音声データ処理、内蔵スピーカ部221で音声出力を行う場合に最適な音声データ処理等を行う。また、音声データ信号処理部217は、音声信号処理後の音声データを、音声データ格納部218、音声データ格納部220へ転送する。
音声データ格納部218は、半導体メモリなどで構成されている。音声データ格納部218は、音声出力器で音声出力を行う場合に最適な音声信号処理が行われた音声データを音声データ信号処理部217より受信して、一時記憶する。
音声データ外部出力部219は、ピンジャックや光出力端子を備え、スピーカシステムなどの音声出力器に対して、音声データ格納部218より受信した音声データを送信する。
音声データ格納部220は、半導体メモリなどで構成されている。音声データ格納部220は、内蔵スピーカ部221で音声出力を行う場合に最適な音声データ処理が行われた音声データを音声データ信号処理部217より受信して、一時記憶する。
内蔵スピーカ部221は、画像処理装置20に内蔵されたスピーカで、音声データ格納部220より受信した音声データに基づいて音声出力を行う。
静止画データ読出部222は、制御部202、静止画データ選択部227のいずれかより、静止画データ読出命令を受け取ると、静止画データが記録された記録メディアより、サムネイルや所定の静止画の静止画データを読み出して、読み出した静止画データを静止画データ格納部223へ転送する。なお、静止画データ記録メディアは動画データ記録メディアを兼ねる場合もある。
静止画データ格納部223は、半導体メモリなどで構成されている。静止画データ格納部223は、静止画データ読出部222より読み出した静止画データを複数、一時記憶する。静止画データ格納部223は、静止画データ読出部222より読み出したサムネイルを一時記憶する。
静止画データデコード部224は、静止画データ格納部223より読み出した静止画データの伸張復号化を行い、伸張復号化を行うことにより得られた静止画データを静止画データ格納部225へ転送する。
静止画データ格納部225は、半導体メモリなどで構成されている。静止画データ格納部225は、静止画データデコード部224より転送されたデータを複数、一時記憶する。また、静止画データ格納部225は、静止画データ格納部223より読み出したサムネイルを一時記憶する。
静止画一覧生成部226は、静止画データ格納部225に記憶されているサムネイルを取り出して組み合わせ、静止画選択画面の画像データを生成して、画像セレクタ等を介して表示部215に静止画選択画面を表示させる。
静止画データ選択部227は、制御部202からの制御信号に基づき、静止画一覧生成部226により生成された静止画選択画面から、ユーザがいずれの静止画を選択したか判別して、判別した静止画の情報と共に、静止画データ読出命令を静止画データ読出部222へ転送する。
静止画属性情報抽出部228は、静止画データに含まれるExifなどのメタデータを解析し、写真を撮った位置を示す位置データ、写真を撮った日時を示す日時データ等の属性情報を取り出し属性情報比較部230と重み付け処理部244へ転送する。なお、静止画属性情報抽出部228と、後述する動画属性情報抽出部229および属性情報比較部230は検出部を構成するものである。
動画属性情報抽出部229は、データ分離部204により分離された属性情報より、位置データ、日時データを取り出して、属性情報比較部230へ転送する。
属性情報比較部230は、静止画属性情報抽出部228と動画属性情報抽出部229より転送された位置データ、日時データの比較を行い、同じデータであれば、動画データ読出部203に、このフレーム前後の動画をダイジェストの素材として用いるため、動画データ読出命令を発行する。また、属性情報比較部230は、静止画属性情報抽出部228と動画属性情報抽出部229からの日時データが異なる場合、動画データ読出部203に対して静止画属性情報抽出部228から転送された日時データに近いフレームを読み出すように動画データ読出命令を発行する。さらに、属性情報比較部230は、静止画属性情報抽出部228と動画属性情報抽出部229からの日時データが同じで位置データが異なる場合、静止画に付加された日時・位置データを持っている動画は動画データ記録メディア上に存在しないと判断して、動画データ読出部203に動画データ読出終了命令を発行する。
音声データ読出部231は、制御部202から音声データ読出命令が発行されると、音声データが記録された音声データ記録メディアより音声データを読み出して音声データ格納部232へ転送する。
音声データ格納部232は、半導体メモリなどで構成されている。音声データ格納部232は、音声データ読出部231から転送されたデータの一時記憶を行う。
ダイジェスト生成部233は、動画データ格納部206に一時記憶された複数の動画から、ダイジェストの生成を行う。生成されたダイジェストは動画データエンコード部234へ転送される。
動画データエンコード部234は、ダイジェスト生成部233より転送された動画データを、MPEGビデオなどの動画フォーマットに圧縮符号化して多重化部236へ転送する。
音声データエンコード部235は、音声データ格納部232に格納された音声データをMPEGオーディオなどの音声フォーマットに圧縮符号化して多重化部236へ転送する。
多重化部236は、動画データエンコード部234にて圧縮符号化された動画データと、音声データエンコード部235にて圧縮符号化された音声データの多重化処理を行い、音声データが多重化された動画データを動画データ記録部237へ転送する。
動画データ記録部237は、多重化部236より転送されたダイジェストの記録を行うものである。動画データ記録部237は、記録メディア例えばDVD(Digital Versatile Disc)やBlu−ray Disc(商標)などの光ディスクや、ハードディスクなどの磁気ディスク、半導体メモリなどの比較的容量の大きい記録メディアに対して、動画データの記録を行う。また、画像処理装置20は、有線、無線のネットワークインターフェースを備えて、外部サーバ上のディスクに対して動画データ記録部237により記録を行ってもよい。
撮像日時抽出部240は、動画データ読出部203で読み出した動画データから日時データを抽出して静止画データ読出部222に供給する。
音楽再生時間算出部241は、音声データ格納部232に記憶されている音声データの音楽再生時間を算出して、ダイジェスト時間比較部243に供給する。
ダイジェスト時間算出部242は、1つの静止画に対するダイジェストの再生時間と静止画データ格納部223に記憶されている静止画の枚数から、ダイジェスト再生時間を算出してダイジェスト時間比較部243に供給する。
ダイジェスト時間比較部243は、音楽再生時間とダイジェスト再生時間を比較して、ダイジェスト再生時間が音楽再生時間よりも長いとき、静止画データ格納部223に対して削減する静止画を通知する。
重み付け処理部244は、静止画データ格納部223に記憶されている静止画に対して日時データや位置データ等に基づいた重み付けを行い、重み付け結果を静止画データ格納部223に供給して、重要度の低い静止画データの削除を静止画データ格納部223で行わせる。
<4.本発明の画像処理装置の動作>
次に、画像処理装置20の動作について、図9〜図16のフローチャートを用いて説明する。図9のフローチャートは、画像処理装置20の動作概要を示している。
ステップS2101において、画像処理装置は再生モードを開始する。画像処理装置は、入力部201で再生モード設定命令が発行されたことを判別したとき、動作モードを再生モードに設定する。また、画像処理装置は、動作モードを再生モードに設定したとき、ステップS2102へ移行する。
ステップS2102において、画像処理装置は表示形式の選択を行う。画像処理装置は、再生モード設定命令として動画再生モード開始命令が発行されている場合にステップS2103、静止画表示モード開始命令が発行されている場合にS2106、ダイジェスト再生モード開始命令が発行されている場合にS2109へ移行する。
ステップS2103において、画像処理装置は動画一覧表示動作を行う。画像処理装置は、各部の動作を制御して後述する動画一覧表示動作を行ったのちステップS2104へ移行する。
ステップS2104において、画像処理装置は動画再生動作を行う。画像処理装置は、各部の動作を制御して後述する動画再生動作を行ったのちステップS2105へ移行する。
ステップS2105において、画像処理装置は動画再生モード終了であるか否か判別する。画像処理装置は、入力部201で動画再生モード終了命令が発行されていないときはステップS2103へ移行し、動画再生モード終了命令が発行されたときはステップS2112へ移行する。
ステップS2106において、画像処理装置は静止画一覧表示動作を行う。画像処理装置は、各部の動作を制御して後述する静止画一覧表示動作を行ったのちステップS2107へ移行する。
ステップS2107において、画像処理装置は静止画表示動作を行う。画像処理装置は、各部の動作を制御して後述する静止画表示動作を行ったのちステップS2108へ移行する。
ステップS2108において、画像処理装置は静止画表示モード終了であるか否か判別する。画像処理装置は、入力部201で静止画表示モード終了命令が発行されていないときはステップS2106へ移行し、静止画表示モード終了命令が発行されたときはステップS2112へ移行する。
ステップS2109において、画像処理装置は静止画一覧表示動作を行う。画像処理装置は、各部の動作を制御して後述する静止画一覧表示動作を行ったのちステップS2110へ移行する。
ステップS2110において、画像処理装置はダイジェスト再生動作を行う。画像処理装置は、各部の動作を制御して後述するダイジェスト再生動作を行ったのちステップS2111へ移行する。
ステップS2111において、画像処理装置はダイジェスト再生モード終了であるか否か判別する。画像処理装置は、入力部201でダイジェスト再生モード終了命令が発行されていないときはステップS2109へ移行し、ダイジェスト再生モード終了命令が発行されたときはステップS2112へ移行する。
ステップS2112において、画像処理装置は、入力部201で再生モード終了命令が発行されたか否か判別する。画像処理装置は、再生モード終了命令が発行されていないと判別したときステップS2102へ移行し、再生モード終了命令が発行されたと判別したときはステップS2113へ移行し再生モードを終了する。
次に、図9のフローチャートの具体的動作について例示する。なお、以下の説明では、画像処理装置20がビデオカメラであり、記録メディアとしてハードディスク装置(以下「HDD」という))を用いるものとする。
ビデオカメラ20は、電源スイッチがオン状態とされて、モードスイッチが再生モードに切り替えられたとき、再生モードを開始する(S2101)。
ビデオカメラ20の再生モードとしては、動画を再生するモード、静止画を表示するモード、ダイジェストを再生するモードが設けられている。ビデオカメラ20は、ユーザによって選択されたモードで再生を行う(S2102)。
例えば動画を再生するモードが選択されたとき、ビデオカメラ20は、内蔵している表示部215や画像データ外部出力部213に接続されている外部表示器に、動画のサムネイルの一覧を表示する(S2103)。また、動画のサムネイルがユーザによって選択されると、ビデオカメラ20は、選択されたサムネイルに対応する動画の再生を行う(S2104)。
動画再生中に静止画を表示するモードが選択されると(S2105→S2112→S2102→S2106)、ビデオカメラ20は、内蔵している表示部215や画像データ外部出力部213に接続されている外部表示器に、静止画のサムネイルの一覧を表示する(S2106)。また、静止画のサムネイルがユーザによって選択されると、ビデオカメラ20は、選択されたサムネイルに対応する静止画の表示を行う(S2104)。
静止画表示中にダイジェストを表示するモードが選択されると(S2108→S2112→S2102→S2109)、ビデオカメラ20は、内蔵している表示部215や画像データ外部出力部213に接続されている外部表示器に、静止画のサムネイルの一覧を表示する(S2109)。また、何れかまたは全ての静止画のサムネイルを選択してダイジェスト再生を実行するユーザ操作が行われると、ビデオカメラ20は、選択された静止画に埋め込まれたメタデータから日時データ・位置データを抜き出す。さらに、ビデオカメラ20は、抜き出した日時データ・位置データと同じ日時データ・位置データであるフレームを含む動画データがHDD内に保存されているかの検索を行う。ビデオカメラ20は、フレームが見つかった場合、そのフレームを基準として所定期間分(例えば前後あわせて3秒程度)の動画を抜き出してダイジェストを生成して再生する(S2110)。
また、ビデオカメラ20は、モードスイッチが再生モードから例えば撮影モードに切り替えられると、再生モードを終了する(S2112→S2113)。
<4−1.画像処理装置の動画一覧表示動作>
図10は、画像処理装置における動画一覧表示動作のフローチャートを示している。
ステップS2301において、画像処理装置は動画一覧表示動作を開始させてステップS2302へ移行する。
ステップS2302において、画像処理装置は動画データの読み出しを行う。動画データ読出部203は、動画データ記録メディアに書かれた動画データの読み出しを行う。動画データ読出部203は、動画データ記録メディアに書かれた動画データを読み出してデータ分離部204に供給する。
ステップS2303において、画像処理装置はサムネイルデコードを行う。データ分離部204は、動画データ読出部203によって読み出された動画データに多重化されているデータを分離する。また、データ分離部204は、分離したサムネイルを動画データ格納部206に一時記憶させてS2304へ移行する。
ステップS2304において、画像処理装置は動画に関したサムネイルの読み出しが完了したか否か判別する。制御部202は、動画データ記録メディアに書かれた全ての動画に関したサムネイルの取得が完了したと判別したときにはステップS2305へ移行し、読み出されていないサムネイルが残っているときはステップS2302へ移行し、次のサムネイルの読み出しを行う。
ステップS2305において、画像処理装置は動画一覧の生成を行う。動画一覧生成部207は、動画データ格納部206に一時記憶された複数のサムネイルを使用して動画のサムネイルを一覧表示とした動画一覧の画像を生成してステップS2306へ移行する。
ステップS2306において、画像処理装置は動画一覧の表示を行う。制御部202は、動画一覧生成部207で生成された動画一覧の画像を画像セレクタ210で選択させることにより、表示部215や画像データ外部出力部213に接続された外部表示器で、動画一覧を表示させたのちステップS2307へ移行し、動画一覧表示動作を終了する。
次に、図10のフローチャートの具体的動作について例示する。ビデオカメラ20は、電源スイッチがオン状態とされて、動画を再生するモード(動作再生モード)が選択されたとき、動画一覧表示動作を開始する。ビデオカメラ20は、HDDから最新のチャプタの動画データを読み出す(S2302)。
ビデオカメラ20は、読み出された動画データを分離してサムネイルを取り出す(S2303)。
ここで、動画一覧表示では6つのチャプタのサムネイルを1つの画面に表示するものとした場合、ビデオカメラ20は、動画データの読み出しやサムネイルの取り出しを繰り返すことで、1つ前から5つ前のチャプタのサムネイルを取得する。なお6つ以下のチャプタしかHDDに記録されていない場合は、チャプタが記録されている数だけ、サムネイルの取り出しを行う(S2304)。
ビデオカメラ20は、読み出したサムネイルから、動画のサムネイルを一覧表示とした動画一覧の画像を生成する(S2305)。さらに、ビデオカメラ20は、表示部215や外部表示器で動画一覧を表示させる(S2306)。
<4−2.画像処理装置の動画再生動作>
図11は、画像処理装置における動画再生動作のフローチャートを示している。
ステップS2401において、画像処理装置は動画再生動作を開始させてステップS2402へ移行する。制御部202は、動画一覧からユーザによってサムネイルが選択されたとき、動画再生動作を開始させる。また、制御部202は、動画再生動作を開始させたとき、動画データ選択部208によって、動画一覧からユーザによって選択されたサムネイルに対応する動画データを、動画データ記録メディアから読み出すように、動画データ読出部203に対して動画データ読出命令を供給する。
ステップS2402において、画像処理装置は動画データの読み出しを行う。動画データ読出部203は、動画データ選択部208からの動画データ読出命令に基づき、ユーザが選択したサムネイルに対応する動画データの読み出しを行い、複数フレーム分の動画データの読み出しが完了するとS2403へ移行する。
ステップS2403において、画像処理装置は動画データ分離化処理を行う。データ分離部204は、動画データに多重化されているデータを分離して、分離が完了したのちステップS2404からの動画データの処理とS2406からの音声データの処理へ移行する。
ステップS2404において、画像処理装置は動画データデコードを行う。動画データデコード部205は、データ分離部204で分離された動画データの伸張復号化を行い、伸張復号化後の複数フレームの動画データを動画データ格納部206に記憶させたのちステップS2405へ移行する。
ステップS2405において、画像処理装置は動画表示を行う。制御部202は、動画データ格納部206に格納されている動画データを画像セレクタ210で選択させることにより、表示部215や画像データ外部出力部213に接続された外部表示器で、動画表示を行わせたのちステップS2408へ移行し、動画再生動作を終了する。
ステップS2406において、画像処理装置は音声データデコードを行う。音声データデコード部209は、データ分離部204で分離された音声データの伸張復号化を行い、伸張復号化後の音声データを音声セレクタ216に供給してステップS2405へ移行する。
ステップS2407において、画像処理装置は音声再生を行う。制御部202は、音声データデコード部209から供給された音声データを音声セレクタ216で選択させることにより、内蔵スピーカ部221や音声データ外部出力部219に接続された音声出力器で、音声再生を行わせたのちステップS2408へ移行し、動画再生動作を終了する。
次に、図11のフローチャートの具体的動作について例示する。ビデオカメラ20は、動画を再生するモードが選択されたことにより動画一覧が表示されて、表示された動画一覧からサムネイル選択ボタンによってサムネイルの選択するユーザ操作、および選択したサムネイルに対応する動画の再生が再生ボタンのユーザ操作によって指示されたとき動画再生動作を開始する(S2401)。
ビデオカメラ20は、HDD内の動画データから選択されたサムネイルに対応する動画データを読み出す(S2402)。
ビデオカメラ20は、読み出された動画データは記録時に多重化処理をされているため、読み出された動画データの分離化処理を行い、多重化されている各種データの取り出しを行う(S2403)。
ビデオカメラ20は、分離化処理によって取得された動画データの伸張復号化を行い、伸張復号化後の動画データに基づき、表示部215や画像データ外部出力部213に接続された外部表示器で動画表示を行わせる(S2404→S2405)。
また、ビデオカメラ20は、分離化処理によって取得された音声データの伸張復号化を行い、伸張復号化後の音声データに基づき、内蔵スピーカ部221や音声データ外部出力部219に接続された音声出力器で音声再生を行わせる(S2406→S2407)。
<4−3.画像処理装置の静止画一覧表示動作>
図12は、画像処理装置における静止画一覧表示動作のフローチャートを示している。
ステップS2501において、画像処理装置は静止画一覧表示動作を開始させてステップS2302へ移行する。
ステップS2502において、画像処理装置は静止画データの読み出しを行う。静止画データ読出部222は、静止画データ記録メディアに書かれた静止画データを読み出して静止画データ格納部223に一時記憶させてステップS2503へ移行する。なお、読み出す静止画データは、制御部202によって指示される。
ステップS2503において、画像処理装置は静止画データデコードを行う。静止画データデコード部224は、静止画データ格納部223に記憶されている静止画データの伸張復号化を行い、伸張復号化後の静止画データを静止画データ格納部225に記憶させる。なお、画像フォーマットがサムネイル画像をヘッダなどに持つものであれば、静止画データ読出部222は、サムネイル画像のデータのみを読み出し、静止画データデコード部224は、サムネイル画像のデータのみを伸張復号化するものとしてもよい。
ステップS2504において、画像処理装置は静止画データのサムネイルの読み出し完了を判別する。制御部202は、静止画データ記録メディアに書かれた静止画を示すサムネイルの取得が完了したと判別したときステップS2505へ移行し、読み出されていないサムネイルが残っているときステップS2502へ移行し、次のサムネイルの読み出しを行う。
ステップS2505において、画像処理装置は静止画一覧の生成を行う。静止画一覧生成部226は、静止画データ格納部225に一時記憶された複数のサムネイルを使用して静止画のサムネイルを一覧表示とした静止画一覧の画像を生成してステップS2506へ移行する。
ステップS2506において、画像処理装置は静止画一覧の表示を行う。制御部202は、静止画一覧生成部226で生成された静止画一覧の画像を画像セレクタ210で選択させることにより、表示部215や画像データ外部出力部213に接続された外部表示器で、静止画一覧を表示させたのちステップS2507へ移行し、静止画一覧表示動作を終了する。
次に、図12のフローチャートの具体的動作について例示する。ビデオカメラ20は、電源スイッチがオン状態とされて、静止画を表示するモード(静止画表示モード)が選択されたとき、静止画一覧表示動作を開始する(S2501)。ビデオカメラ20は、HDDから最新の静止画データの読み出しを行う(S2502)。
ビデオカメラ20は、読み出された静止画データからサムネイルを取り出す(S2503)。ここで、静止画一覧表示では6つのサムネイルを1つの画面に表示するものとした場合、ビデオカメラ20は、静止画データの読み出しやサムネイルの取り出しを繰り返すことで、1つ前から5つ前に撮像した静止画のサムネイルを取得する。なお6つ以下の静止画しかHDDに記録されていない場合は、記録されている静止画の数だけ、サムネイルの取り出しを行う(S2504)。
ビデオカメラ20は、読み出したサムネイルから、静止画のサムネイルを一覧表示とした静止画一覧の画像を生成する(S2505)。さらに、ビデオカメラ20は、表示部215や外部表示器で静止画一覧を表示させる(S2506)。
<4−4.画像処理装置の静止画表示動作>
図13は、画像処理装置における静止画表示動作のフローチャートを示している。
ステップS2601において、画像処理装置は静止画表示動作を開始させてステップS2602へ移行する。制御部202は、静止画一覧からユーザによってサムネイルが選択されたとき、静止画表示動作を開始させる。また、制御部202は、静止画表示動作を開始させたとき、静止画データ選択部227によって、静止画一覧からユーザによって選択されたサムネイルに対応する静止画データを、静止画データ記録メディアから読み出すように、静止画データ読出部222に対して静止画データ読出命令を供給する。
ステップS2602において、画像処理装置は静止画データの読み出しを行う。静止画データ読出部222は、静止画データ選択部227からの静止画データ読出命令に基づき、ユーザが選択したサムネイルに対応する静止画データの読み出して静止画データ格納部223に記憶させてS2603へ移行する。
ステップS2603において、画像処理装置は静止画データデコードを行う。静止画データデコード部224は、静止画データ格納部223に記憶されている静止画データの伸張復号化を行い、伸張復号化後の静止画動画データを静止画データ格納部225に記憶させたのちステップS2604へ移行する。
ステップS2604において、画像処理装置は静止画表示を行う。制御部202は、静止画データ格納部225に格納されている静止画データを画像セレクタ210で選択させることにより、表示部215や画像データ外部出力部213に接続された外部表示器で、静止画表示を行わせたのちステップS2605へ移行し、静止画表示動作を終了する。
次に、図13のフローチャートの具体的動作について例示する。ビデオカメラ20は、静止画を再生するモードが選択されたことにより静止画一覧が表示されて、表示された静止画一覧からサムネイル選択ボタンによってサムネイルを選択するユーザ操作、選択したサムネイルに対応する静止画の表示が再生ボタンのユーザ操作によって指示されたとき動画再生動作を開始する(S2601)。
ビデオカメラ20は、HDD内の静止画データから選択されたサムネイルに対応する静止画データを読み出す(S2602)。
ビデオカメラ20は、読み出された静止画データの伸張復号化を行い、伸張復号化後の静止画データに基づき、表示部215や画像データ外部出力部213に接続された外部表示器で動画表示を行わせる(S2603→S2604)。
<4−5.画像処理装置のダイジェスト再生動作(静止画マニュアル選択の場合)>
図14,図15は、画像処理装置におけるダイジェスト再生動作のフローチャートを示している。
ステップS2701において、画像処理装置はダイジェスト再生動作を開始させてステップS2702へ移行する。制御部202は、静止画一覧表示動作終了後、ダイジェスト再生動作を開始させる。
ステップS2702において、画像処理装置は静止画データの選択を行う。静止画データ選択部227は、入力部201に対するユーザからの指示入力に基づき静止画一覧からユーザによって選択されたサムネイルを判別してステップS2703へ移行する。また、静止画一覧にユーザが所望する静止画が含まれておらず、ユーザによって静止画一覧の更新操作が行われたことを、入力部201に対する指示入力に基づき判別したとき、静止画データ選択部227は、静止画データ読出部222に静止画データ読出命令を発行して、上述の静止画一覧表示動作を再び行うことで、新たな静止画一覧を表示させる。また、静止画データ選択部227は、選択された静止画に関する情報を静止画選択リストとして記憶する。
ステップS2703において、画像処理装置は静止画の選択終了であるか判別する。静止画データ選択部227は、静止画選択が終了していないときステップS2702へ移行し、静止画データをさらに選択できるようにし、静止画選択が終了しているときはステップS2704へ移行する。
ステップS2704において、画像処理装置は静止画データを1つ選択する。静止画データ選択部227は、記憶している静止画選択リストから1つの静止画を選択する。さらに、静止画データ選択部227は、選択した1つの静止画データを静止画記録メディアから読み出す静止画読出命令を生成して静止画データ読出部222へ発行する。静止画データ読出部222は、静止画読出命令に基づき静止画データを読み出して静止画データ格納部223に格納する。静止画属性情報抽出部228は、静止画データ格納部223に格納された静止画データに埋め込まれているメタデータを読み出して、位置データと日時データを属性情報比較部230に供給してステップS2705へ移行する。
ステップS2705において、画像処理装置は動画データのチャプタが静止画の日時と近いものを読み出す。属性情報比較部230は、静止画属性情報抽出部228から供給された日時データと同じ日時のフレームが含まれていると想定できるチャプタの動画データを読み出す動画データ読出命令を生成して、この動画データ読出命令を動画データ読出部203に供給する。動画データ読出部203は、属性情報比較部230からの動画データ読出命令に基づき動画データの読み出してステップS2706へ移行する。
例えば、静止画データから取り出した日時データが2008年7月4日 16時27分15秒であった場合、チャプタ先頭の動画データの日時データを検索して、検索結果に基づき、静止画データから取り出した日時を示すフレームを含むチャプタを検出する。ここで、チャプタ5が2008年7月4日 15時54分43秒、チャプタ6が2008年7月4日 16時24分15秒、チャプタ7が2008年7月4日 17時00分54秒の場合、チャプタ6に静止画と同じ日時のフレームが含まれていると想定し、チャプタ6の動画データを読み出す動画データ読出命令を生成する。
ステップS2706において、画像処理装置は1つのフレームの位置データと日時データの取得を行う。データ分離部204は、動画データ読出部203で読み出された動画データの分離処理を行い、動画データに多重化されている属性情報を分離して動画属性情報抽出部229に供給する。動画属性情報抽出部229は属性情報から1つのフレームの位置データと日時データを抽出して属性情報比較部230に供給してステップS2707へ移行する。
ステップS2707において、画像処理装置は日時が同じか判別する。属性情報比較部230は、動画属性情報抽出部229から供給された日時データが、静止画データから取り出した日時データと同じでないときステップS2708へ移行し、同じであるときステップS2709へ移行する。
ステップS2708において、画像処理装置はチャプタのフレームを全て検索したか判別する。属性情報比較部230は、読み出したチャプタの全てのフレームについて、日時データの比較が完了していないときにはステップS2706へ移行し、次のフレームの日時データを用いて比較を行う。また、属性情報比較部230は、読み出したチャプタの全てのフレームについて、日時データの比較が完了しているときステップS2711へ移行する。
日時データが一致するフレームの検索方法としては、1フレームずつ比較処理を行ってもよいし、チャプタの先頭フレームと最終フレームの日時データを見て、静止画データと同じ日時データを含むか判断して、計算によりそのフレームを算出してもよい。例えば静止画データから読み出された日時データが2008年7月4日 16時27分15秒、読み出すチャプタ6の先頭フレームが2008年7月4日 16時24分15秒で最終フレームが2008年7月4日 16時25分15秒ならば、このチャプタ6に静止画と同じ日時データを含むフレームは存在しないと判断できる。これに対して、チャプタ6の最終フレームが2008年7月4日 16時29分15秒ならば、このチャプタに静止画と同じ日時データを含むフレームが存在すると判断でき、そのフレーム位置も例えばフレームレートが30フレーム/秒ならば、「静止画データの日時データ[秒]」からチャプタ先頭フレームの日時データ[秒]を減算して、この減算値にフレームレートを乗算することでチャプタ先頭フレームからの位置を検索することができる。
ステップS2709において、画像処理装置は位置が同じか判別する。属性情報比較部230は、日時データが静止画と一致するフレームについて位置データも一致するか否かの判別を行い、位置データが一致するときはステップS2710へ移行する。また、属性情報比較部230は、位置データが一致しないとき、選択された静止画データに関連する動画は動画データ記録メディアに記録されていないと判断して、この静止画データに対する動画データの検索を終了して、ステップS2711へ移行する。
ステップS2710において、画像処理装置は動画データの読み出しを行う。属性情報比較部230は、位置データと日時データが一致するフレーム位置を基準とする。動画データ読出部203は、この基準とするフレーム位置を含む所定期間分の動画データを動画データ記録メディアから読み出す。例えば、位置データと日時データが一致するフレーム位置を基準として前後3秒程度の動画データを読み出す。この所定期間分の動画データは、ダイジェスト再生で再生される動画のデータである。なお、所定期間はユーザが自由に設定できるようにしてもよいし、他の固定値を埋め込んでもよい。また動画の中から特徴を抽出し、読み出す時間を可変にしてもよい。
動画データ読出部203によって動画データが読み出されると、データ分離部204は、読み出された動画データの分離化処理を行う。動画データデコード部205は、分離化後の動画データの伸張復号化を行い、伸張復号化後の動画データを動画データ格納部206に格納し、所定期間分の動画データの格納が終了されるとステップS2711へ移行する。
ステップS2711において、画像処理装置は選択した静止画全ての処理を終了したか判断する。属性情報比較部230は、対応する動画データの検索が行われていない静止画が残っているときステップS2704へ移行し、選択された全ての静止画に対して検索が完了しているときはステップS2712へ移行する。この判断は、例えば静止画データ選択部227に記憶されている静止画選択リストに含まれている全ての静止画について、静止画属性情報抽出部228から各静止画の位置データと日時データを属性情報比較部230に供給すれば、容易に行うことができる。すなわち、属性情報比較部230は、少なくとも供給された日時データを全て用いて検索を行ったか否かを判別すれば、選択された全ての静止画に対して検索が完了しているか否か判断できる。
ステップS2712において、画像処理装置は音声データの読み出しを行う。音楽記録メディアにはダイジェスト再生に重ねる音声データが記録されており、音声データ読出部231は、音楽記録メディアに記録されている音声データを読み出して、音声データ格納部232に記憶させてステップS2713へ移行する。この音声データはダイジェスト再生に用いる動画データから想定して、再生時間が想定される長さに自動編集を行ったり、この時間情報を動画データ読出部203などに渡す方法をつくって、S2710において読み出す動画の長さを調整するものとしてもよい。
ステップS2713において、画像処理装置はダイジェストの生成を行う。ダイジェスト生成部233は、ステップS2710において動画データ格納部206に記憶させた動画データを用いてダイジェストの動画データを生成してステップS2714へ移行する。このダイジェストの動画データは、動画データ格納部206に記憶させた所定期間分毎の動画データを撮像時刻順につなぎ合わせて、必要に応じてエフェクト処理なども行うことで生成する。
ステップS2714において、画像処理装置はダイジェストの生成が完了か判別する。ダイジェスト生成部233は、動画データ格納部206に動画データが記憶されていない場合、ダイジェストの生成に失敗したと判断して、ステップS2717へ移行しダイジェスト再生動作を終了する。また、ダイジェスト生成部233は、ダイジェストの生成が完了したときステップS2715へ移行し、ダイジェストの再生を行う。またステップS2716へ移行し、生成したダイジェストの記録を行ってもよい。
ステップS2715において、画像処理装置はダイジェスト再生を行う。制御部202は、ダイジェスト生成部233で生成されたダイジェストの動画データを画像セレクタ210で選択させることにより、表示部215や画像データ外部出力部213に接続された外部表示器で、ダイジェストの動画を表示させる。また、制御部202は、音声データ格納部232に記憶された音声データを音声セレクタ216で選択させることにより、内蔵スピーカ部221や音声データ外部出力部219に接続された音声出力器で音声を出力させる。このように、制御部202は、ダイジェストの動画の表示と音声の出力を行わせたのちステップS2717へ移行し、ダイジェスト再生動作を終了する。
ステップS2716において、画像処理装置はダイジェスト記録を行う。この場合、制御部202は、ダイジェスト生成部233で生成されたダイジェストの動画データを動画データエンコード部234に供給させる。また、制御部202は、音声データ格納部232に記憶された音声データを音声データエンコード部235に供給させる。動画データエンコード部234は、ダイジェストの動画データの圧縮符号化を行い、圧縮符号化後の動画データを多重化部236に供給する。音声データエンコード部235は、音声データ格納部232からの音声データの圧縮符号化を行い、圧縮符号化後の音声データを多重化部236に供給する。多重化部236は、供給された動画データに音声データを多重化して、多重化後の動画データを動画データ記録部237に供給する。動画データ記録部237は多重化後の動画データを動画データ記録メディアに記録したのちステップS2717へ移行し、ダイジェスト再生動作を終了する。
なお、図14,図15に示す処理では、説明を簡略化するため、ダイジェストに用いる動画データを動画データ格納部206へ、音声データを音声データ格納部232に全て格納した状態でダイジェストを生成する場合について説明したが、実際にはこのような処理の方法であると動画データ格納部206の記憶容量を大きくする必要がある。そこで、動画データ読出部203内に一時記憶部を設けて、属性情報比較部230にてステップS2710で読み出すと決定された動画フレームを読み出す位置、秒数の情報のみを一時記憶させる。また、全ての静止画に関して比較処理を終了し、ダイジェスト生成の準備が完了した場合に、動画データ読出部203から、動画データ読出部203内に設けた一時記憶部に記憶された情報をもとにして動画データを読み出し、順次ダイジェスト生成部233でダイジェストを生成しながら、後段に出力する方法も考えられる。この場合は音声データ読出部231からもこの動作に協調して、音声データの読み出しや音声データの出力処理を行う。このようにすれば、動画データ格納部206、音声データ格納部232の記憶容量を必要最低限の大きさにすることが可能となる。
次に、図14,15のフローチャートの具体的動作について例示する。ビデオカメラ20の電源スイッチをオン状態として、再生モードをダイジェスト再生モードとすると、ビデオカメラ20は、最近記録された静止画順にサムネイルを一覧として表示部215や外部表示器に表示する。ここで、ユーザがビデオカメラ20のサムネイル選択ボタンを操作して、複数のお気に入りの静止画を選択して、ダイジェスト開始ボタンを押すと(S2702→S2703)、ビデオカメラ20は、選択された静止画データの1つについてExifに書かれた位置データと日時データの読み出しを行う(S2704)。
ビデオカメラ20は、静止画から読み出した日時データに近いチャプタを動画データ記録メディアから選択し、そのチャプタについて、静止画から取得した日時データと同じ日時データを含むフレームがあるかの検索を行う(S2707→S2708)。
ビデオカメラ20は、同じ日時データを含むフレームが見つかった場合、そのフレームの位置データと選択された静止画データより取得した位置データが一致するかの判断を行う(S2709)。また、ビデオカメラ20は、日時データ・位置データの両方のデータが一致した場合、そのフレームの前後数秒の動画データをダイジェストの候補として記憶する(S2710)。
ビデオカメラ20は、同じ日時、位置のデータが見つからなかった場合、選択された静止画データから取得された日時データと同じ日時データを含む動画データは動画データ記録メディアに記録されていないと判断し、選択した他の静止画データについて同様の処理を行う(S2711)。
ビデオカメラ20は、ダイジェストの生成準備ができたので、音声データ記録メディア例えばコンパクトディスク等から予めビデオカメラ20に取り込んだ音声データを選択する(S2712)。
ビデオカメラ20は、ダイジェストの動画データと選択された音声データを用いてダイジェストを生成する(S2713)。ビデオカメラ20は、ダイジェストを再生して表示部215や外部表示器で動画のダイジェストの表示、および内蔵スピーカ部221や音声出力器で音声出力を行う。(S2715)。またビデオカメラ20は、生成したダイジェストをHDDに記録する(S2716)。
このように、ビデオカメラにGPSを内蔵することで、GPS情報により動画と静止画を関連付ける。GPSから取得した位置、日時、必要によっては衛星からの電波強度などの情報を一定時間間隔で取得して属性情報として、動画や静止画に埋め込む。このGPSデータが日時も位置も動画データと静止画データで、全く同じになるという状況は、1台のカメラで動画撮影中に静止画撮影した場合か、動画再生中に静止画切り出しをした動画と静止画でしかありえない。ユーザがこのようなビデオカメラで静止画取得を行う場合はユーザが気に入った場面を撮像していることが多い。したがって、上述のダイジェスト再生モードを設けることにより、静止画の切り出しを行った周辺の動画を用いたダイジェストが生成されるので、ユーザは動画内の自分の好みである部分を探して編集を行わなくとも、静止画よりもそのときの情報がわかりやすく、かつユーザの興味に沿ったダイジェストを自動的に生成することができる。
また、記録装置は、静止画および動画の両方に位置データと日時データを埋め込むことができればよく、ダイジェストの再生に関する特別な機能を設ける必要がない。さらに、記録装置にブックマークの挿入機能等を設ける必要がないので、従来の記録装置で記録された動画と静止画に日時データと位置データが埋め込まれていれば、動画のダイジェストを自動的に生成できる。
さらに、携帯電話などではGPS機能が設けられており、写真を撮影すると自動的に位置データが埋め込まれる。また、携帯電話などで動画の撮像を行ったときに位置データを埋め込み、地図上に写真、動画を埋め込むアプリケーションも想定されている。このような場合、再生側で上述のようなダイジェスト再生機能を設けるものとすれば、手軽にユーザの望むダイジェストを生成できるようになる。
なお、属性情報は、日時データや位置データだけでなく、受信した電波を送信した衛星、電波の強度等を用いるものとしてもよい。また、撮像時の他の情報を属性情報として用いるものとしてもよい。
<4−6.画像処理装置のダイジェスト再生動作(静止画自動選択の場合)>
図16は、画像処理装置におけるダイジェスト再生動作(静止画自動選択の場合)のフローチャートを示している。
ステップS2801において、画像処理装置はダイジェスト再生動作を開始させてステップS2802へ移行する。画像処理装置は、静止画一覧表示動作終了後、ダイジェスト再生動作を開始させる。
ステップS2802において、画像処理装置は動画ディレクトリの選択を行う。動画データ記録メディアに記録されている動画データは、撮影日時をもとに例えば旅行や運動会などディレクトリに分類して整理されている。ここで、入力部201に対して、動画データのディレクトリ情報と、そのディレクトリに格納されている1つのチャプタの動画データ読み出し命令が発行されると、制御部202は、動画データ読出部203により、動画データ記録メディアから動画データのディレクトリ情報と、そのディレクトリに格納されている1つのチャプタの動画データ読み出しを行う。データ分離部204は、読み出された動画データの分離処理を行う。動画データ格納部206は、データ分離部204で分離されたディレクトリ情報とサムネイルを記憶する。また、入力部201に対して、動画データのディレクトリ情報と、そのディレクトリに格納されている1つのチャプタの動画データ読み出し命令を1画面に同時出力したい数だけ繰り返すと、動画データ格納部206には、1画面に同時出力したい数のディレクトリ情報とサムネイルが記憶されることになる。動画一覧生成部207は、動画データ格納部206に記憶されているディレクトリ情報とサムネイルを用いて動画ディレクトリ一覧の生成を行う。制御部202は、画像セレクタ210を制御して、動画一覧生成部207で生成された動画ディレクトリ一覧の画像データを選択して画像データ信号処理部211に供給させることで、表示部215や画像データ外部出力部213に接続された外部表示器で、動画ディレクトリ一覧を表示させる。表示された動画ディレクトリ一覧からユーザによっていずれかの動画ディレクトリが選択されたとき、動画データ選択部208は、制御部202からの制御信号に基づき、ユーザが選択して動画ディレクトリの情報を選択する。
ステップS2803において、画像処理装置は対応する静止画の検索を行う。動画データ読出部203は、動画データ選択部208で選択された動画ディレクトリの情報に基づき、選択された動画ディレクトリ内に格納された全チャプタを動画データ記録メディアから読み出す。撮像日時抽出部240は、読み出された全チャプタの撮像開始日時と、撮像終了日時を抽出して静止画データ読出部222に供給する。静止画データ読出部222は、撮像期間内に生成された静止画データを静止画データ記録メディアから読み出して静止画データ格納部223に記憶させてステップS2804へ移行する。
ステップS2804において、画像処理装置はダイジェスト再生時間を算出する。ダイジェスト時間算出部242は、静止画データ格納部223に記憶されている静止画の枚数からダイジェストの再生時間を算出してステップS2805へ移行する。例えば前後3秒分の動画データを抜き出してダイジェストにする場合、再生時間は3秒×静止画枚数となる。
ステップS2805において、画像処理装置は音楽データの再生時間を算出する。音楽再生時間算出部241は、音声データの再生時間を算出する。音声データ記録メディアに記録された音声データは、音声データ読出部231によって読み出されて音声データ格納部232へ転送される。音声データ格納部232は、読み出された音声データを音楽再生時間算出部241へ転送する。音楽再生時間算出部241は、音声データ格納部232から供給された音声データの再生時間を算出してS2806へ移行する。
ステップS2806において、画像処理装置はダイジェスト再生時間と音楽再生時間を比較する。ダイジェスト時間比較部243は、ダイジェスト時間算出部242で算出されたダイジェスト再生時間が、所定再生時間すなわち音楽再生時間算出部241で算出された音楽再生時間よりも長いか否か判別する。ここで、ダイジェスト時間比較部243は、ダイジェスト再生時間が所定再生時間である音楽再生時間よりも長くないときステップS2811へ移行する。また、ダイジェスト時間比較部243は、ダイジェスト再生時間が音楽再生時間よりも長いと判別したとき、静止画データ格納部223に対して、何枚静止画を削ればよいかの静止画削除情報と静止画データを重み付けするポイント算出命令を送信してステップS2807へ移行する。
ステップS2807において、画像処理装置は日時データでポイント計算を行う。ダイジェスト時間比較部243から静止画データ格納部223にポイント算出命令が発行されると、静止画データ格納部223は記憶している静止画データを静止画データデコード部224、静止画属性情報抽出部228へ順次転送する。静止画データデコード部224は、静止画データの伸張復号化を行って重み付け処理部244へ転送する。静止画属性情報抽出部228は、メタデータを抽出して重み付け処理部244へ転送する。重み付け処理部244は、各静止画データに対して重み付けを行う。なお、これらの処理はダイジェスト時間が長いことが判別されたときに行うものとしたが、撮像時やアイドル状態などのときに行ってもかまわない。
ここで、重み付け処理について例示する。重み付け処理では、静止画データの重要度をポイントとして示すものとして、ポイントは例えば以下のように設定する。
2ポイント:1つ前に撮影した写真と日時が近い
2ポイント:1つ後に撮影した写真と日時が近い
1ポイント:前後の写真と日時が近い
3ポイント:前後の写真と日時が近くない
なお、ポイントの設定では、重みの付けかたをさらに細かくして、撮影間隔が大きいものはよりポイントを高く、撮影間隔が小さいものはよりポイントを低くとしてもよい。重み付け処理部244は、全ての静止画データについて日時データでポイント計算を行い、計算が終了したときS2808へ移行する。
ステップS2808において、画像処理装置は位置データでポイント計算を行う。重み付け処理部244は、日時順に並べた静止画データにおいて、画像処理装置は前後の静止画データと位置が近い場合は少ないポイント、位置が遠い場合は多いポイントを静止画に対して与える。また、重み付け処理部244は、S2807にてポイントが少ないものを抽出し、その中で撮影前後の静止画で移動距離が少ないものに少ないポイント、移動距離の多いものに多いポイントを与える。重み付け処理部244は、位置データによるポイント算出が終了するとS2809へ移行する。
ステップS2809において、画像処理装置は顔情報でポイント計算を行う。重み付け処理部244は、ユーザが設定画面などで顔優先モードに設定したとき、顔の数が多いほどポイントを高くして、風景優先モードに設定した場合は顔の数が少ないほどポイントを高くする。なお、顔の検出は重み付け処理部244内に顔検出部を持ち検出するか、撮像時に静止画内に顔が幾つ存在するかの情報を付加情報に設けるものとして、ポイント算出時に読み出してもよい。重み付け処理部244は、顔情報によるポイント算出が終了すると、これまでに取得したポイントを静止画データ格納部223へ転送して静止画データと関連付けたのちS2810へ移行する。
ステップS2810において、画像処理装置はポイントで静止画を選別する。静止画データ格納部223は、ダイジェスト時間比較部243から供給された静止画削除情報によって示された数の静止画データを削除するとき、重要度の低い静止画データすなわちポイントが少ない静止画データをダイジェスト対象静止画から削除してステップS2811へ移行する。
ステップS2811は、図14のステップS2704に対応するものであり、画像処理装置は、静止画データ格納部223に格納された静止画データから静止画データを1つ選択する。さらに、静止画属性情報抽出部228は、静止画データ格納部223に格納された静止画データに埋め込まれているメタデータを読み出して、位置データと日時データを属性情報比較部230に供給する。その後、図14のステップS2705からの処理を行う。
このようにすれば、ユーザが静止画を個々に選択しなくとも、ダイジェストの再生をしたい動画グループを選択するだけで、動画グループに含まれる静止画に基づいて自動的にダイジェストを画像処理装置で生成できる。また、動画グループに含まれる静止画の数が多くともダイジェスト再生時間が所定再生時間以下となるように重要度の低い静止画が削減されて、ダイジェストが生成される。したがって、ダイジェストの再生時に例えば音声がなくなってしまうことも防止できる。なお、所定再生時間は、音楽再生時間に限られるものではなく、ユーザによって指定された時間であってもよい。この場合、再生時間が所望の時間となるダイジェストを自動的に生成できるようになる。
<4−7.画像処理装置のダイジェスト再生からのチャプタ再生動作>
次に、ダイジェスト再生からのチャプタ再生動作について説明する。この場合、図14、図15のステップS2701〜S2712の処理を行う。なお、ステップS2710では、動画データを動画データ読出部203により読み出した際に、どのチャプタから読み出したかの情報も動画データに関係付けておく。
次に、ステップS2713において、画像処理装置はダイジェストの生成を行う。ダイジェスト生成部233は、ステップS2710において動画データ格納部206に記憶させた動画データをつなぎ合わせて、必要に応じてエフェクト処理なども行い、ダイジェストの動画データを生成する。また、生成したダイジェストにフレーム単位、またはGOP単位でチャプタ情報の埋め込みを行う。ダイジェストの生成が終了するとS2714へ移行する。
ステップS2714において、画像処理装置はダイジェストの生成が完了したか否か判別する。ダイジェスト生成部233は、動画データ格納部206に動画データが記憶されていない場合、ダイジェストの生成に失敗したと判断して、ステップS2717へ移行しダイジェスト再生動作を終了する。また、ダイジェスト生成部233は、ダイジェストの生成が完了したときステップS2715へ移行し、ダイジェストの再生を行う。またステップS2716へ移行し、生成したダイジェストの記録を行ってもよい。
ステップS2715において、画像処理装置はダイジェストの再生を行う。制御部202は、ダイジェスト再生中にチャプタ再生ボタンが操作されて入力部201でチャプタ再生命令が発行されると、制御部202はダイジェスト生成部233に対して、チャプタ再生命令を発行する。ダイジェスト生成部233は、チャプタ再生命令を受信したとき、現在再生中の動画データに含まれたチャプタ情報の抽出を行い、対象チャプタの読み出し命令を動画データ読出部203へ発行する。動画データ読出部は指定のチャプタを読み出し、ステップS2717へ移行し、ダイジェスト再生動作を終了して、図11に示すような動画再生動作を行う。また、チャプタ再生ボタンが操作されない場合は、ダイジェストを最後まで再生してステップS2717へ移行し、ダイジェスト再生動作を終了する。
なお、GOP単位でチャプタ情報を付加する場合に限らず、GOP単位で日時データを埋め込み、その日時データをもとにしてチャプタを検索する手法をとってもかまわない。
このようにすれば、ダイジェスト再生中に所望の画像が表示されたタイミングで、チャプタ再生ボタンをユーザが操作すれば、所望の画像が含まれているチャプタの動画再生が行われるので、ダイジェストを有効利用して所望の動画部分の再生を効率良く行えるようになる。
以上の実施の形態では、動画記録動作と動画再生動作について、動画撮影/再生中に静止画記録が可能なGPS内蔵のビデオカメラを用いて説明を行った。しかし、動画の記録再生を行う機器はビデオカメラに限られるものではない。例えば、画像処理装置は、メディアサーバやレコーダであってもよい。この場合、動画と静止画の記録後にメディアサーバやレコーダに動画と静止画をともに転送する。メディアサーバやレコーダは、静止画や動画のサムネイルを一覧として表示装置に表示させて、表示されたサムネイルから所望のサムネイルをユーザに選択させる。メディアサーバやレコーダは、サムネイルが選択されたとき、選択されたサムネイルに基づき、上述のようにして動画のダイジェストを生成する。このようにすれば、余計な付加情報例えば特殊なブックマークなどを設けなくとも、容易にユーザの意図に近い動画のダイジェストを生成できる。
また、動画と静止画の記録後に、Web上の動画共有サイトに動画を転送し、静止画はWeb上の静止画管理サービスまたはパソコンに保存するものとしてもよい。この場合、後ほどWeb上の静止画管理サービス、またはパソコンから好みの静止画が選択されてダイジェスト開始ボタンが操作されたとき、上述のように処理して、動画共有サイトにアップロードされた動画データから、選択した静止画に対応する動画を探し、組み合わせ、ダイジェストを自動生成することができる。すなわち、お気に入りの静止画を静止画管理サービスまたはパソコンに保存おけば、動画共有サイトにアップロードした動画から、簡単に自分の好みの動画を組み合わせたダイジェストの生成や提示を行うことができる。
さらに、写真印刷の際にExifに書かれた日時・位置データを2次元コードなどで写真に埋め込んだ上で印刷し、アルバムに整理する。その2次元コードをビデオカメラで読み取り、ダイジェスト開始ボタンを操作する。この場合、ビデオカメラは2次元コードのデータを用いて上述のように処理を行うことで、ビデオカメラ内の動画から、2次元コードを読み取った静止画に対応した動画を探し出し、自動でダイジェストの生成や提示を行うこともできる。
また、動画を動画共有サイトにアップロードしてから、2次元コードを携帯電話やPC内蔵のカメラで読み取っていき、ダイジェスト開始ボタンを押すと、アルバムから写真を選ぶだけで、2次元コードを読み取った写真に対応する動画共有サイト上の動画を読み出し、自動でダイジェストの生成や提示を行うこともできる。
また、2次元コードをリモコンに内蔵された2次元コードリーダーで読み取っていき、ダイジェスト開始ボタンを押すと、アルバムから写真を選ぶだけで、2次元コードを読み取った写真に対応されているメディアプレイヤ内に保存されている動画を読み出し、自動でダイジェストの生成や提示を行うこともできる。
このように、動画の記録時間が長くなると自分の好みの場面を見つけるのは困難だが、静止画という選びやすい画像を利用することで、ユーザはストレスなくダイジェストの生成を行うことが可能になる。
なお、上述の実施の形態では、動画データと静止画データのそれぞれに埋め込まれている属性情報を比較して、動画データから静止画データと一致するフレーム位置を検出するものとしたが、他の情報あるいは画像を用いて動画データから静止画データと一致するフレーム位置の検出を行うものとしてもよい。
また、上述の一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したコンピュータ・プログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにコンピュータ・プログラムをインストールして実行させることが可能である。
例えば、コンピュータ・プログラムは記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、コンピュータ・プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
コンピュータ・プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送するものとしてもよい。この場合、コンピュータでは、そのようにして転送されてくるコンピュータ・プログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
以上、実施の形態について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施の形態の修正や代用をなし得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲を参酌すべきである。
この発明では、動画データから静止画データと一致するフレーム位置が検出されて、このフレーム位置を基準として動画データから所定期間分の動画データが読み出される。また、読み出された所定期間分の動画データがダイジェストのデータとして用いられる。このため、記録メディア等に記録されている動画データの管理や再生等を行う画像処理装置に好適である。
画像記録装置の構成を示す図である。 画像記録装置の動作概要を示すフローチャートである。 表示動作のフローチャートである。 動画記録動作のフローチャートである。 AVCHD形式のファイルの基本構造を示す図である。 静止画記録動作のフローチャートである。 静止画データのファイル基本構造を示す図である。 画像処理装置の概略構成を示す図である。 画像処理装置の動作概要を示すフローチャートである。 動画一覧表示動作のフローチャートである。 動画再生動作のフローチャートである。 静止画一覧表示動作のフローチャートである。 静止画表示動作のフローチャートである。 ダイジェスト再生動作(静止画自動選択の場合)のフローチャート(1/2)である。 ダイジェスト再生動作(静止画自動選択の場合)のフローチャート(2/2)である。 ダイジェスト再生動作(静止画自動選択の場合)のフローチャートである。
符号の説明
10・・・画像記録装置(例えばビデオカメラ)、20・・・画像処理装置(例えばビデオカメラ)、101・・・撮像部、102・・・撮像データ格納部、103・・・収音部、104・・・収音データ格納部、105・・・GPS部、106・・・GPSデータ格納部、107,201・・・入力部、108,202・・・制御部、109・・・動画データ信号処理部、110,206・・・動画データ格納部、111,234・・・動画データエンコード部、112・・・音声データ信号処理部、113,126,127,218,220,232・・・音声データ格納部、114,235・・・音声データエンコード部、115,236・・・多重化部、116・・・動画データ記録部、117・・・静止画データ取得部、118・・・静止画データ信号処理部、119・・・静止画データエンコード部、120・・・メタデータ埋込部、121・・・静止画データ記録部、122,123,212,214・・・画像データ格納部、124,213・・・画像データ外部出力部、125,215・・・表示部、128,219・・・音声データ外部出力部、129,221・・・内蔵スピーカ部、203・・・動画データ読出部、204・・・データ分離部、205・・・動画データデコード部、207・・・動画一覧生成部、208・・・動画データ選択部、209・・・音声データデコード部、210・・・画像セレクタ、211・・・画像データ信号処理部、216・・・音声セレクタ、217・・・音声データ信号処理部、222・・・静止画データ読出部、223,225・・・静止画データ格納部、224・・・静止画データデコード部、226・・・静止画一覧生成部、227・・・静止画データ選択部、228・・・静止画属性情報抽出部、229・・・動画属性情報抽出部、230・・・属性情報比較部、231・・・音声データ読出部、233・・・ダイジェスト生成部、237・・・動画データ記録部、240・・・撮像日時抽出部、241・・・音楽再生時間算出部、242・・・ダイジェスト時間算出部、243・・・ダイジェスト時間比較部、244・・・重み付け処理部

Claims (12)

  1. 静止画データが示す静止画の一覧を生成する静止画一覧生成部と、
    前記静止画の一覧から選択された静止画データと一致するフレーム位置を、動画データから検出する検出部と、
    前記検出部で検出されたフレーム位置を基準として前記動画データから所定期間分の動画データを読み出す動画データ読出部と、
    前記動画データ読出部で読み出された所定期間分の動画データを、前記選択された静止画の撮像時刻順にダイジェストのデータとして用い、前記ダイジェストのデータにフレーム単位またはGOP単位で前記動画データのチャプタ情報の埋め込みを行うダイジェスト生成部と
    を備える画像処理装置。
  2. 前記検出部は、
    前記動画データから属性情報を抽出する動画属性情報抽出部と、
    静止画データから属性情報を抽出する静止画属性情報抽出部と、
    前記動画属性情報抽出部と前記静止画属性情報抽出部で抽出した属性情報を比較して、前記動画データから前記静止画データと一致するフレーム位置を検出する属性情報比較部
    とを備える請求項1記載の画像処理装置。
  3. 前記属性情報は、撮像時の日時データと位置データを含み、
    前記属性情報比較部は、前記動画データから前記静止画データと日時データおよび位置データが一致するフレーム位置を検出する
    請求項2記載の画像処理装置。
  4. 前記静止画一覧生成部で生成された一覧から、ユーザによって選択された静止画データを判別して、該静止画データの読み出しを指示する静止画データ選択部を有し、
    前記静止画属性情報抽出部は、前記静止画データ選択部で選択された静止画データから属性情報を抽出する
    請求項2記載の画像処理装置。
  5. 前記ダイジェストの表示中に再生指示がなされたとき、前記動画データ読出部は、前記表示中のダイジェストに埋め込まれている前記チャプタ情報に基づき、前記表示中のダイジェストを含むチャプタの動画データの読み出しを行う
    請求項1記載の画像処理装置。
  6. 動画データを生成したときの撮像期間内に含まれる静止画データを読み出す静止画データ読出部と、
    前記撮像期間内に含まれる静止画データに対して重み付けを行い、重要度の低い静止画の静止画データを削除する重み付け処理部とを有し、
    前記重み付け処理部は、前記ダイジェスト生成部で生成されるダイジェストの再生時間が所定再生時間よりも長くなるとき、前記重要度の低い静止画の静止画データを削除して前記検出部で用いる静止画データのデータ数を削減することにより、前記ダイジェストの再生時間を前記所定再生時間以下とする
    請求項1記載の画像処理装置。
  7. 前記重み付け処理部は、撮像時の日時データと位置データに基づいて前記重み付けを行う請求項6記載の画像処理装置。
  8. 前記重み付け処理部は、前後の静止画データと日時が近いとき重要度を低くする
    請求項7記載の画像処理装置。
  9. 前記重み付け処理部は、前後の静止画データと位置が近いとき重要度を低くする
    請求項7記載の画像処理装置。
  10. 静止画一覧生成部によって、静止画データが示す静止画の一覧を生成するステップと、
    検出部によって、前記静止画の一覧から選択された静止画データと一致するフレーム位置を、動画データから検出するステップと、
    動画データ読出部によって、前記検出部で検出されたフレーム位置を基準として前記動画データから所定期間分の動画データを読み出すステップと、
    ダイジェスト生成部によって、前記動画データ読出部で読み出された所定期間分の動画データを、前記選択された静止画の撮像時刻順にダイジェストのデータとして用い、前記ダイジェストのデータにフレーム単位またはGOP単位で前記動画データのチャプタ情報の埋め込みを行うステップと
    を具備する画像処理方法。
  11. 撮像データを生成する撮像部と、
    前記撮像データを処理して動画データとする動画データ信号処理部と、
    前記撮像データから抽出したデータを処理して静止画データとする静止画データ信号処理部と、
    前記動画データを記録メディアに記録する動画データ記録部と、
    前記静止画データを記録メディアに記録する静止画データ記録部と、
    静止画データが示す静止画の一覧を生成する静止画一覧生成部と、
    前記静止画の一覧から選択された静止画データと一致するフレーム位置を、動画データから検出する検出部と、
    前記動画データから前記静止画データと一致するフレーム位置を検出する検出部と、
    前記検出部で検出されたフレーム位置を基準として前記記録メディアに記録された動画データから所定期間分の動画データを読み出す動画データ読出部と、
    前記動画データ読出部で読み出された所定期間分の動画データを、前記選択された静止画の撮像時刻順にダイジェストのデータとして用い、前記ダイジェストのデータにフレーム単位またはGOP単位で前記動画データのチャプタ情報の埋め込みを行うダイジェスト生成部と
    を備える撮像装置。
  12. コンピュータを、
    静止画データが示す静止画の一覧を生成する静止画一覧生成機能手段と、
    前記静止画の一覧から選択された静止画データと一致するフレーム位置を、動画データから検出する検出機能手段と、
    前記検出機能手段で検出されたフレーム位置を基準として前記動画データから所定期間分の動画データを読み出す動画データ読出機能手段と、
    前記動画データ読出機能手段で読み出された所定期間分の動画データを、前記選択された静止画の撮像時刻順にダイジェストのデータとして用い、前記ダイジェストのデータにフレーム単位またはGOP単位で前記動画データのチャプタ情報の埋め込みを行うダイジェスト生成機能手段
    として機能させるためのコンピュータ・プログラム。
JP2008263751A 2008-10-10 2008-10-10 画像処理装置と画像処理方法および撮像装置とコンピュータ・プログラム Expired - Fee Related JP5369595B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008263751A JP5369595B2 (ja) 2008-10-10 2008-10-10 画像処理装置と画像処理方法および撮像装置とコンピュータ・プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008263751A JP5369595B2 (ja) 2008-10-10 2008-10-10 画像処理装置と画像処理方法および撮像装置とコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JP2010093687A JP2010093687A (ja) 2010-04-22
JP5369595B2 true JP5369595B2 (ja) 2013-12-18

Family

ID=42255951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008263751A Expired - Fee Related JP5369595B2 (ja) 2008-10-10 2008-10-10 画像処理装置と画像処理方法および撮像装置とコンピュータ・プログラム

Country Status (1)

Country Link
JP (1) JP5369595B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6410483B2 (ja) * 2013-08-09 2018-10-24 キヤノン株式会社 画像処理装置
JP6343996B2 (ja) * 2014-03-26 2018-06-20 カシオ計算機株式会社 データ処理装置、データ処理システム、再生時間短縮方法及びプログラム
JP6436678B2 (ja) * 2014-08-07 2018-12-12 キヤノン株式会社 通信装置、通信装置の制御方法、及びプログラム
JP7212862B2 (ja) * 2019-03-20 2023-01-26 京セラドキュメントソリューションズ株式会社 画像処理装置、画像処理方法、画像提供システム及び画像処理プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3534951B2 (ja) * 1996-08-30 2004-06-07 株式会社日立製作所 ディスク再生方法
JP2002359804A (ja) * 2001-05-31 2002-12-13 Canon Inc 画像データ記録装置、画像データ記録方法および記憶媒体
JP2005005764A (ja) * 2003-06-09 2005-01-06 Canon Inc 撮像装置
JP2005025797A (ja) * 2003-06-30 2005-01-27 Sharp Corp Avデータ記録方法、avデータ再生方法、及び、avデータ記録媒体
JP4330968B2 (ja) * 2003-10-02 2009-09-16 シャープ株式会社 再生装置、記録装置、再生プログラム、及び再生プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005348371A (ja) * 2004-06-07 2005-12-15 Fuji Photo Film Co Ltd 電子アルバム表示システム、電子アルバム表示方法、及び電子アルバム表示プログラム
JP4349277B2 (ja) * 2004-12-24 2009-10-21 株式会社日立製作所 動画再生装置
JP4525558B2 (ja) * 2005-11-08 2010-08-18 ソニー株式会社 情報処理装置、撮像装置、および情報処理方法、並びにコンピュータ・プログラム
JP2007181164A (ja) * 2005-11-29 2007-07-12 Matsushita Electric Ind Co Ltd 画像再生装置
JP2007259390A (ja) * 2006-03-27 2007-10-04 Nikon Corp 動画撮影可能なカメラ

Also Published As

Publication number Publication date
JP2010093687A (ja) 2010-04-22

Similar Documents

Publication Publication Date Title
JP4224690B2 (ja) 記録方法、記録装置、再生方法、再生装置および撮像装置
KR101022343B1 (ko) 정보 생성 장치, 기록 장치, 재생 장치, 정보 생성 방법, 기록 방법, 재생 방법, 및 기록 재생 시스템
JP4656454B2 (ja) 記録装置および方法、再生装置および方法、並びにプログラム
KR101015737B1 (ko) 기록 방법, 기록 장치, 기록 매체, 촬상 장치, 및 촬상 방법
JP4293209B2 (ja) 記録装置および方法、撮像装置、再生装置および方法、並びにプログラム
KR20080018123A (ko) 데이터 처리장치 및 그 제어방법
JP5369595B2 (ja) 画像処理装置と画像処理方法および撮像装置とコンピュータ・プログラム
TWI410962B (zh) A recording device, a recording method and a recording program, and an imaging device, an imaging method, and an imaging program
US8818165B2 (en) Data processing apparatus, data processing method, and computer program
JP4720873B2 (ja) 情報記録装置、撮像装置、情報記録方法およびプログラム
JP2003333529A (ja) データ送信装置、データ受信装置、記録媒体、データ送信方法、およびデータ受信方法
JP2009239381A (ja) 映像記録システム、及び撮像装置
JP5085462B2 (ja) 情報記録装置、撮像装置、情報記録方法およびプログラム
JP2008027474A (ja) 映像記録方法及び装置
JP4821462B2 (ja) 記録装置および方法、再生装置および方法、並びにプログラム
JP4669411B2 (ja) 画像処理装置
JP4719565B2 (ja) 画像処理装置及び方法
JP2008067117A (ja) 映像記録方法、装置、媒体
JP2007312007A (ja) 動画像データ処理装置、ストリーム生成装置、撮像装置、および動画像データ処理方法
JP4366609B2 (ja) 記録方法、記録装置、再生方法、再生装置、記録再生装置および記録再生方法
JP2007281727A (ja) 記録装置及び記録方法
JP4366610B2 (ja) 記録方法、記録装置、再生方法、再生装置および撮像装置
JP6018687B2 (ja) 映像記録装置
JP5458073B2 (ja) 映像記録装置及び映像記録方法
JP5951718B2 (ja) 映像記録装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

LAPS Cancellation because of no payment of annual fees