JP2013239797A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2013239797A
JP2013239797A JP2012110097A JP2012110097A JP2013239797A JP 2013239797 A JP2013239797 A JP 2013239797A JP 2012110097 A JP2012110097 A JP 2012110097A JP 2012110097 A JP2012110097 A JP 2012110097A JP 2013239797 A JP2013239797 A JP 2013239797A
Authority
JP
Japan
Prior art keywords
moving image
evaluation value
information
subject
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012110097A
Other languages
English (en)
Other versions
JP2013239797A5 (ja
Inventor
Hideyasu Motomiya
英育 本宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012110097A priority Critical patent/JP2013239797A/ja
Publication of JP2013239797A publication Critical patent/JP2013239797A/ja
Publication of JP2013239797A5 publication Critical patent/JP2013239797A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

【課題】
ユーザの撮影意図に沿ったダイジェストを動画から自動生成する。
【解決手段】
動画情報(103a)と動画撮影情報(103b)が動画記録部(103)に記録され、外部情報読取部(105)が、静止画情報と静止画撮影情報を外部情報記録媒体から読み取る。動画評価値算出部(102b)は動画情報(103a)から動画評価値を算出する。被写体評価値算出部(102d)は外部からの静止画情報から顔認識により被写体評価値を算出する。再生情報抽出部(102f)は、動画評価値情報と被写体評価値情報に基づき、動画データの、静止画データの記録日時に対応する部分のうち、静止画に含まれる人物と同じ人物を含む部分をダイジェスト用に抽出する。
【選択図】 図2

Description

本発明は画像処理装置に関し、特に、動画のダイジェストを生成する画像処理装置に関する。
従来、動画像データや静止画データ、音声データを記録媒体に記録するビデオカメラが知られている。また、このように記録された動画像データや静止画データ、音声データを編集し、ダイジェストを生成する技術が各種提案されている(例えば、特許文献1参照)。
特許文献1には、静止画が撮影された時点における所定範囲の動画像の音声を、静止画と共に再生することが記載され、この技術により臨場感のある再生が可能になる。また、音声の代わりに動画像を再生することが記載され、これにより、動画のダイジェスト再生を可能になる。
特開2008−035238号公報
従来の技術では、静止画が撮影された時点の動画像の撮影状態や内容等を考慮していない。例えば、静止画が撮影された部分の動画像データが、ブレ、白トビ又はボケ等を伴う場合や、動画像データの音声がノイズや音量の問題により再生するのに不適切なデータであった場合がありうる。従来技術では、このような場合であっても、ダイジェスト再生が実行されてしまう。
さらに、従来の技術では、静止画と動画が異なる撮像装置で撮影された場合が考慮されていない。例えば、デジタルカメラとビデオカメラなどの2台の撮影機器を用いた場合、デジタルカメラで撮影された静止画の被写体と、同時刻にビデオカメラで撮影された動画の被写体が同一であるとは限らない。よって、静止画の代わりに、同時刻に撮影された動画像を再生するダイジェスト再生の場合、撮影者の意図とは全く異なる被写体のダイジェストになってしまう可能性がある。
本発明は、以上の点を考慮してなされたもので、撮影者の意図を反映させたダイジェスト再生を容易に可能とする画像処理装置を提示することを目的とする。
本発明に係る画像処理装置は、動画データを記録する動画記録手段と、前記動画データの内容に基づき動画評価値を算出する動画評価値算出手段と、静止画データを入力する静止画入力手段と、前記静止画データに含まれる被写体について評価し、被写体評価値を出力する被写体評価手段と、前記動画評価値及び前記被写体評価値に基づき、前記動画データの、前記静止画データの記録日時に対応する部分からダイジェスト用部分を抽出するダイジェスト抽出手段とを具備することを特徴とする。
本発明によれば、動画の、静止画の記録日時に対応する部分からダイジェスト用に好ましい部分を自動抽出することができる。
本発明の一実施例の概略構成ブロック図である。 メイン制御部の概略構成ブロック図である。 動画から得られる撮影評価値の一例を示す模式図である。 動画と静止画の関連部分情報を示す模式図である。 動画と静止画の間で人物一致の説明例を示す模式図である。 動画と静止画の間での人物一致率を被写体評価率とする説明例を示す模式図である。 動画と静止画との間の人物一致検索の説明図である。 動画シーンからの再生情報抽出例を示す模式図である。 本実施例のダイジェスト再生の処理の流れを示すフローチャートである。 ダイジェスト再生モードのモード/設定情報の表である。 総再生時間に対して統合評価値に対する閾値を変更する動作説明の模式図である。 ダイジェスト抽出の説明例を示す模式図である。 被写体評価値の説明例を示す模式図である。 ダイジェスト抽出の別の説明例を示す模式図である。 ダイジェスト抽出の更に別の説明例を示す模式図である。
以下、図面を参照して、本発明の実施例を詳細に説明する。尚、以下に説明する実施例は、本発明の実現手段としての一説明例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものである。すなわち、本発明は、以下の実施例に限定されない。
図1は、本発明の一実施例である記録再生装置100の概略構成ブロック図を示す。記録再生装置100は、例えば、動画及び静止画の撮影が可能なカメラや、音声の収録が可能なマイクなどが一体化されたデジタルビデオカメラに組み込まれる。
記録再生装置100は、操作部101、メイン制御部102、動画記録部103、外部情報読取部105、動画像処理部108、静止画情報処理部109、再生制御部110、再生部111、入力部112、顔情報検出部114を備えている。バス113は、これら手段101〜114の間でデータ及び制御信号を伝送又は仲介する。外部情報読取部105は、情報転送部106を介して外部情報記録媒体107にアクセス可能である。
操作部101は、動画撮影の開始・停止ボタン、静止画の撮影開始ボタン、再生ボタン等の外部操作部を備えている。メイン制御部102は、撮影者は操作部101で種々の指示に従い、記録再生装置100を指示内容に沿って動作させる。
入力部112は、撮影レンズによる光学像をCCD又はCMOS式の撮像素子により光電変換し、画像データを取得する画像取得部と、マイク等などの、外部音声を取得する音声取得部とからなる。
外部情報記録媒体107は、記録再生装置100とは異なる撮像装置で撮影された静止画の画像情報からなる静止画情報107aと、撮影時の情報を示す静止画撮影情報107bとを保持する。外部情報記録媒体107は例えば、半導体メモリカード又はハードディスク等からなる。情報転送部106は、外部情報読取部105からのコマンドに従い、外部情報記録媒体107に記録される情報107a,107bを読み出す手段である。外部情報読取部105は、記録再生装置100に静止画データを入力する静止画入力手段ともいえる。記録再生装置100と外部情報記録媒体107を物理的に接触させて情報を転送する方式や、赤外線通信、BlueTooth(登録商標)又は無線LAN等の非接触情報転送方式を利用できる。外部情報読取部105は、情報転送部106により外部情報記録媒体107から読み出されたデータを、バス113を介して指定先、例えば、メイン制御部102に転送する。
動画像処理部108は、動画像データと音声データの符号化・復号化処理機能と分離・多重化処理機能を具備する。動画記録部103は、撮影された動画情報(符号化動画データ)103aと、動画撮影時の撮影パラメータ等からなる動画撮影情報103bを記録媒体に記録再生する。動画像処理部108は、撮影(記録)時には、入力部112により取得される動画像と音声を符号化及び多重化して、所定形式の符号化動画データを動画記録部103に供給する。また、動画像処理部108は、再生時には、動画記録部103からの符号化動画データを動画像成分と音声成分に分離し、それぞれを復号化する。
再生制御部110は、メイン制御部102からの指示により、動画記録部103の情報に基づいて再生の制御を行う。出力部111は、電気音声信号を音響信号に変換するスピーカ等の音声出力部と、電気画像信号を画像表示する液晶表示パネル等の表示部を備える。出力部111は、再生制御部110からの指示に従い音声出力と画像表示を変更する。
顔情報検出部114は、動画像処理部108で処理された動画像の画面内にある人物の顔を検出する。
メイン制御部102は、CPU又はマイクロコンピュータを備え、不図示のメモリに記憶されたプログラムに従って記録再生装置100の各部の動作を制御する。また、メイン制御部102により、記録再生装置100の少なくとも一部の機能を実行する構成としてもよい。具体的には、メイン制御部102は、撮影時の処理を行う撮影処理部102aと、図2に詳細に図示する手段102b,102c,102e,102f,102g,102h,102m,102Lを具備する。
本実施例の動画を撮影して記録する動画撮影処理を説明する。記録再生装置100の利用者が操作部101の動画撮影ボタンを押下することが、メイン制御部102に対する動画撮影開始(又は記録開始)の指示となり、再度の動画撮影ボタンの押下が動画撮影停止(又は記録停止)の指示となる。この動画撮影開始の指示に応じて、メイン制御部102の撮影処理部102aが、この動画撮影開始の指示に応じて各部に動画撮影のための処理の開始を指示し、動画撮影のための制御を実行する。
まず、撮影処理部102aは、画像・音声入力部112の動作を開始させる。これにより、記録すべき動画データ及び音声データが生成される。撮影処理部102aは、生成された動画データ及び音声データを動画像処理部108に転送する。動画像処理部108は動画データ及び音声データを圧縮符号化及び多重化して、記録されるべき動画像データ(AVデータ)を生成する。動画記録部103は、動画像処理部108で生成されたAVデータを記録媒体(不図示)に記録する。本実施例では、動画データ及び音声データの圧縮符号化方式として公知のAVCHD方式を用いるものとするが、他の圧縮符号化方式を用いてもよい。
動画撮影停止の指示に応じて、メイン制御部102の撮影処理部102aは、各部に記録動作の停止を指示する。具体的には、撮影処理部102aは、撮影停止の指示に応じて、動画記録部103に記録媒体へのAVデータの記録を停止させる。本実施例では、記録開始の指示から記録停止の指示までの間に記録媒体に記録された一連のAVデータは、一つの動画ファイルとして管理される。
撮影処理部102aは、動画撮影が終了してAVデータの記録媒体への記録が完了した後に、そのAVデータの撮影情報(動画撮影情報)103bを生成し、動画記録部103の記録媒体に記録する。撮影情報は、AVファイルの作成日時(記録日時)、使用コーデック、データサイズ、記録媒体上の記録位置及び全再生時間長、絞り、シャッタ速度及びゲインなどの撮影時設定、並びにGOP単位の再生時間長及びデータサイズなどからなる。この撮影情報は、AVファイルとは別のファイルに記録しても、ヘッダ又はフッタとしてAVデータに付加してもよい。
外部情報記録媒体107は、記録再生装置100以外の装置で撮影された静止画情報107aを記録媒体に保持する。本実施例では、静止画情報107aは、JPEG Exif方式で圧縮されているものとするが、他の圧縮符号化方式を用いてもよい。また、静止画の撮影・記録時には、その静止画データの撮影情報が生成され、静止画撮影情報107bに記録される。撮影情報は、静止画ファイルの作成日時、使用コーデック及びデータサイズ、絞り値、シャッタ速度、ISO感度並びに顔検出情報などからなる。この撮影情報は、ヘッダ又はフッタとして静止画ファイルに付加しても良い。
外部情報記録媒体107の記録媒体としては、磁気テープ、磁気ディスク、光ディスク、光磁気ディスク及び半導体メモリ等の種々の媒体が利用可能である。
顔情報検出部114は、公知の顔認識処理により画像内の1又は複数の人物の顔領域を検出し、当該顔領域を示す座標値を示す情報を顔検出結果としてメイン制御部102に送信する。メイン制御部102は、顔情報検出部114からの顔検出結果に基づき、画像内の顔領域を示す座標値を動画撮影情報103bに含めるように動画記録部103に送信する。顔認識処理としては、例えば、画像データの各画素の階調色から肌色領域を抽出し、予め用意する顔輪郭プレートとのマッチングで顔を検出する方法が知られている。他に、周知のパターン認識技術を用いて目、鼻及び口等の顔の特徴点を抽出することで顔を検出する方法等が知られている。
図2を参照して、メイン制御部102のその他の機能を詳細に説明する。バス113は省略してある。メイン制御部102は、撮影処理部102a以外に以下の手段を具備する。
モード判別部102Lは、操作部101で操作された内容を受け取り、以下に説明するダイジェスト抽出処理に必要な情報を判別し、モード情報として情報取得部102gに送る。情報取得部102gは、動画記録部103及び外部情報読取部105から転送された情報と、モード判別部102Lからのモード情報を、動画評価値算出部102b、動画・静止画関連部分抽出部102c及び被写体評価値算出部102mに供給する。
動画評価値算出部102bは、撮影時の撮影状況を数値化して動画評価値を算出する。具体的には、動画評価値算出部102bは、情報取得部102gを介して入力する動画記録部103からの動画情報103aと動画撮影情報103bを取り込む。評価値算出の範囲はユーザの指示に基づき指定されるシーンであり、指定されたシーンに含まれた全てのフレーム画像データの評価値からシーン評価値を算出する。評価値算出方法としては、映像情報の明るさ、ノイズ及びコントラスト情報を用いる方法や、音声情報の音声レベル、ノイズ及び周波数などを用いる方法が知られている。ここでは、撮影状態に基づいた算出方法を説明する。
動画評価値算出部102bは、例えばビデオカメラのズーム操作やパン操作に基づいて評価値を算出する。ズーム操作は、ズームレンズを用いて被写体の像を拡大又は縮小する操作である。パン操作は、カメラの位置を固定したまま、カメラの向きを水平に振って広い範囲を撮影することである。例えば、図3に示すように、撮影状況がズーム動作とパンニング動作のみであった場合、ズーム動作後に評価値が高くなるように評価値を算出する。同様に、パンニング後は被写体の切り替え等が行われる確率が高いので、重要度が高いと判断し、評価値を高くする。算出された動画評価値が低い場合、例えば、閾値TH3(=0)以下である場合、ダイジェスト再生には適さない部分と判断される。
明るさを用いて動画を評価してもよい。まず、1つの動画データを所定時間ごとに複数のシーンに分割する。そして、画面全体の明るさを評価し、画面全体の明るさの変化が大きい場合に評価値を高くする。これは、被写体の動きなどにより、画面の明るさの変化がり、注目すべきシーンである確率が高いからである。具体的には、例えば、画面全体の輝度信号レベルの平均をフレーム間で比較し、フレーム間の差分によって評価を行う。また、画面中央部分の明るさを評価し、適度な明るさである場合に評価値を高くする方法を用いても良い。
動画評価値算出部102bによる評価値算出方法としては、評価値の算出対象のフレーム画像データを含む2つのフレーム画像データを比較して動きベクトルを求め、その動きベクトルから評価値を算出するものであっても良い。例えば、動きベクトルからズーム操作などを検出でき、撮影者が特に撮影しようとしたと思われるフレーム画像を特定できる。そのように特定されたフレーム画像を動画像データにおける重要度が高いものと判断し、高い評価値を与える。
他の評価値算出方法として、例えばズーム操作やカメラの姿勢などの撮影情報を撮影時に記録しておき、この撮影情報を用いて評価値を算出するようにしても良い。また、評価値は、フレーム画像内での動体の位置、動体の大きさ、背景の動き及び肌色の大きさなどに基づいて算出しても良い。更には、フレーム画像内の物体の数、フレーム画像の輝度や色のヒストグラム及び音声データなどに基づいて、評価値を算出しても良い。
音声データを用いて動画評価値を算出してもよい。例えば、1つの動画データを所定時間ごとに複数のシーンに分割し、そのシーン単位で音声の大きさ(例えば、ピークレベルと平均レベル)を評価する。音声が大きいほど評価値を大きくする。
動画評価値算出部102bは、最大値を1、最小値を0に正規化した範囲で動画評価値を出力し、動画撮影情報103bの時系列を維持したままの形式で動画評価値情報102iとしてメモリ102eに一旦保存する。
動画・静止画関連部分抽出部102cは、動画撮影情報103bと外部情報記録媒体107の静止画撮影情報107bを参照し、撮影時間に基づいて関連部分を抽出する。抽出された関連部分を示す情報102Jは、メモリ102eに格納される。抽出の対象となるのは、操作部101の操作によって指定された範囲である。動画・静止画関連部分抽出部102cはまず、情報取得部102gを介して、対象となる範囲の動画撮影情報103bと静止画撮影情報107bを取り込む。そして、静止画撮影情報107bの中から画像情報毎の撮影時間を順次読み出し、動画撮影情報103bとの関連部分を抽出する。ただし、外部の静止画情報を用いる場合、撮影された動画との撮影時間の時間軸は一致しないことがある。二つのデータの時間軸が異なっていた場合、動画と静止画の適切な関連部分を抽出することが難しい。そこで、動画・静止画関連部分抽出部102cは、事前に両者の時間軸を一致させるためのオフセットを一方に加減算し、その後、関連部分を抽出する。
静止画撮影時間に対応する動画があった場合、動画・静止画関連部分抽出部102cは、図4に示すように、関連部分抽出情報としてA:関連フラグとB:ファイルに所定の情報を付加する。A:関連フラグは、初期値を0とし、静止画に対する対応動画がある場合に値を1に変更する。そのときの対応静止画のファイル番号と撮影時間、又は静止画データを特定できる情報を、B:ファイル情報として記録する。静止画P2のように、その撮影時間に対応する動画が存在しない場合、動画・静止画関連部分抽出部102cは、関連部分情報を変更しない。このような操作を対象範囲内の静止画・動画情報に対してすべて完了したら、動画・静止画関連部分抽出部102cは、得られた情報を関連部分情報102Jとしてメモリ102eに一旦保存する。
被写体評価値算出部102mは、情報取得部102gで取得された外部情報読取部105からの情報と動画情報103bとから被写体の関連性を検出して被写体評価値を算出する。被写体評価値算出部102mは、算出した被写体評価値を示す情報102nをメモリ102eに格納する。
被写体評価値算出部102mの目的は、静止画を撮影した撮像装置と動画を撮影した撮像装置が同じ被写体を撮影しているかどうかを評価するものである。この評価は、静止画内の被写体がそれと対応する動画の所定時間内に存在するか否かを検索することにより、実現できる。検索の範囲を所定時間とする理由は、動画の場合、被写体の重なりや被写体の振り向きなどにより、常に被写体を捕らえられているとは限らず、静止画の撮影時点のみでの検索では、十分な検索結果が得られないからである。
被写体評価値算出部102mは、動画・静止画関連部分抽出部102cにより算出された関連部分情報102Jと静止画情報107aと動画情報103aとを用いる。
まず、被写体評価値算出部102mは、関連部分情報102J(関連フラグ)を利用し、静止画情報107aに対応する動画情報103aを特定する。静止画情報107aに対応する動画情報が存在する場合、被写体評価値算出部102mは、図5に示すように、対応する点を中心に所定時間Tを設定する。なお、この所定時間は、静止画の撮影枚数や動画の記録時間に応じて適宜に設定されうる。図5に示す例では、静止画P5内に顔情報検出部114によって抽出された3つの被写体が存在する。この説明例では、便宜上、この3つの被写体を符号A,B,Cで識別する。
次に、被写体評価値算出部102mは、この3つの被写体A,B,CがT時間に対応する動画内に存在するか否かを検索する。図5では、動画シーンD上で、静止画の撮影タイミングを含む時間T内を検索対象とすることとなり、その検索対象内の3つの画像M1,M2,M3を例示している。例えば、画像M1内には被写体A,Bと一致する被写体が存在している。画像M2中には被写体Aと一致する被写体が存在している。画像M3内には被写体A,B,Cと一致する被写体は存在しない。動画シーンDの時間T内の何れかの画像は、静止画内の被写体を少なくとも1つは含んでいることから、動画シーンDと静止画P5は同一被写体を捕らえていると判断できる。静止画と動画の被写体が一致する場合、被写体評価値算出部102mは、一致する被写体の有無に応じて被写体評価値を変化させる。図5に示す例では、被写体評価値の初期値を1とし、時間T内で静止画と動画で被写体の一致があると、被写体評価値E2を2に変更する。
また、図6に示すように、静止画P5と動画シーンDとの被写体の一致率に基づいて、被写体評価値E3を変化させても良い。この場合、被写体の一致数により、被写体評価値E3を変化させている。被写体の一致数が最大になった場合の被写体評価値が2となるように、値1から2の範囲で正規化する。
パターンマッチングを用いることで、被写体の同一性を判定できる。図7に示すように、静止画から被写体情報として顔情報を含む画素(顔画像)を抜き出し、拡大・縮小・回転処理などを行って顔画像を規定サイズで正立させる。その処理後の各顔画像を対象となる動画に対してパターンマッチングする。マッチング実行後の相関値がある閾値以上の場合に、一致と判定する。なお、検索の対象となる動画像のサンプル周期は、動画像の更新が終了するごとに行うこととする。ただし、処理時間、検索精度に応じて変更可能である。
このようにして、メモリ102eには、動画評価値情報102i、関連部分情報102J及び被写体評価値情報102nが格納される。
再生情報抽出部102fは、メモリ102eに保持される動画評価値情報102i及び被写体評価値情報102nを用いて、ダイジェスト再生すべき部分を特定する。再生情報抽出部102fは、特定されたダイジェスト再生すべき部分を示す再生情報を情報書込み部102hに供給する。情報書込み部102hは、再生情報抽出部102fからの再生情報を動画記録部103の動画撮影情報103bに書き込む。
動画評価値情報102iが0〜1の間で変化するのに対して、被写体評価値情報102nは1〜2の間で変化する。そこで、動画評価値情報102iに対して被写体評価値情報102nの重み付けを行い、評価値を再計算するため、動画評価値情報102iに被写体評価値情報102nを乗算する。合成された評価値(統合評価値)は、最大値1、最小値0に正規化される。
図8は、動画情報シーンEと静止画情報P7〜P12を用いた再生情報抽出例を示す。シーンEから算出された動画評価値と静止画情報P7〜P12から算出される被写体評価値情報を乗算したものが、統合評価値E4である。ダイジェスト再生の閾値をTH2とすると、統合評価値E4がTH2以上となる部分が、ダイジェスト再生対象となる。すなわち、統合評価値E4が閾値TH2以上となる、シーンEの期間D1,D2,D3の部分が、ダイジェスト抽出部分になる。抽出される再生情報は、統合評価値E4が閾値TH2以上となる期間に対して1となり、閾値TH2未満に対して0となる再生フラグからなる。
なお、閾値TH2は、操作部101の操作によって指定されたダイジェスト総再生時間により変更される。例えば、ダイジェスト総再生時間が5分と指定された場合、閾値TH2以上の部分が5分間になるように、メイン制御部102は閾値TH2を変化させる。
再生情報抽出部102fは、このように決定された再生情報(再生フラグ)を、情報書込み部102hに供給する。情報書込み部102hは、再生情報抽出部102fからの再生情報を動画記録部103の動画撮影情報103bの時系列を維持したまま、動画撮影情報103bの対応部分に追記する。
再生情報抽出部102fにより決定された再生情報に従うダイジェスト再生の動作を説明する。操作部101によりダイジェスト再生の指示があると、メイン制御部102は再生制御部110に再生の指示を出す。再生制御部110は、動画記録部103から動画情報103aと動画撮影情報103bを取得し、先ず動画撮影情報103bに基づき再生部分を特定する。具体的には、動画撮影情報103bに記録されている再生情報(再生フラグ)を読み込み、1(又は0でない)期間部分を判別する。再生制御部110は、再生フラグが0でない部分の動画情報103a(の画像情報と音声情報)を動画記録部103から読み出して再生部111に転送する。再生部111は、再生制御部110から送られる画像情報及び音声情報を再生し、再生画像を表示し、再生音声信号を音響出力する。
このようにして、本実施例では、外部情報記録媒体107に記録されている静止画情報を用いて動画の重要部分を自動決定し、決定した重要部分をダイジェスト再生することができる。
図9を参照して、静止画を用いた動画のダイジェスト用部分を抽出する処理の流れを説明する。図9は、本実施例によるダイジェスト再生対象を決定する動作のフローチャートを示す。
S1において、モード判別部102Lは、ユーザによる操作部101からの入力を解析し、指定されるモード/設定を判定する。本実施例は、図10に示すように4つのモード/設定を具備する。
ダイジェストモードAには、1:動画評価値のみを使用するモードと、2:動画評価値と被写体評価値を利用するモードがある。モード1の場合には通常のダイジェスト再生になり、本実施例の効果は得られない。
ダイジェスト範囲設定Bには、1:日付/時間、2:ファイル番号、3:場所、4:撮影モード及びその他の設定項目がある。1:日付・時間は、動画または静止画に記録されている日付・時間時間(記録日時の情報)を参照して対象範囲を決定する場合の設定項目である。2:ファイル番号は、動画又は静止画を対象として指定する設定項目である。3:場所は、動画及び静止画にGPSなどにより計測され埋め込まれた位置情報を参照して対象範囲を決定する場合の設定項目である。4:撮影モードは、動画及び静止画のそれぞれに適用された撮影モードにより対象範囲を設定する場合の設定項目である。例えば、花火撮影に特化した花火モードのように特定シーンに特化した複数の撮影モードを具備する場合に、有益である。
被写体重み付けモードCは、被写体評価値算出部102mにおける被写体評価値の算出方法に関するモードである。図6に示す評価値E3のように、被写体の一致率を算出し、それを正規化したものを被写体一致率利用モードとする。また、図5の被写体評価値E2のように、被写体一致率によらず、静止画が撮影された部分に対して所定範囲に同一被写体が存在する場合は、被写体評価値を最大値にする方法を被写体一致部分利用モードとする。
ダイジェスト閾値設定Dでは、ダイジェストの総再生時間Tdを予め任意に設定できる。総再生時間Tdに0分以上の任意の数値を入力する事が可能であり、最大入力値は、対象となる動画情報の撮影時間によって変化する。
S1で、モード判別部102Lが以上のモード判別処理を行った後、S2で、動画評価値算出部102bが、動画記録部103の動画情報103aを解析して、動画撮影評価値を算出する。なお、動画の対象情報は、ステップS1において対象と判定された部分とする。
S3で、動画・静止画関連部分抽出部102cが、ダイジェストモードを判定する。ダイジェストモードが「1:動画評価値のみ利用」に設定されている場合、静止画情報を利用しないので、S11に遷移し、動画・静止画関連部分抽出部102cが、動画評価値のみからダイジェスト用部分を抽出する。他方、「2:動画評価値と被写体評価値を利用」に設定されている場合、被写体評価値を算出するために、メイン制御部102は、S4に遷移する。
S4で、モード判別部102Lが、外部情報記録媒体107に静止画が存在するか否かを判別する。静止画が存在する場合、S5に遷移する。静止画が存在しない場合、S9に遷移する。静止画が存在しない場合、静止画情報が得られないので、静止画情報を用いたダイジェスト用部分抽出が不可能になる。S9で、メイン制御部102は、その旨の警告を再生部111の画面に表示させ、動画評価値のみを考慮したダイジェスト用部分抽出処理S11に遷移する。
S5では、メイン制御部102は、情報取得部102gにより、外部情報記録媒体107に記録される静止画撮影情報107bを取得して、S6に遷移する。S6で、動画・静止画関連部分抽出部102cは、先に説明した方法で静止画と動画の関連部分を抽出する。動画・静止画関連部分抽出部102cは、算出された関連部分情報102Jをメモリ102eに一旦保存し、S7に遷移する。
S7で、再生情報抽出部102fは、関連部分情報102Jから「A:関連フラグ情報」を読み込み、関連部分情報の有無をチェックする。ユーザが指定した動画情報に対して同じ時系列で静止画が撮影されていない場合、関連部分情報102Jは生成されない。対象とする動画情報に関連付けられた静止画が存在する場合、S8で、被写体評価値算出部102mが、上述の方法で被写体評価値を算出する。他方、関連部分が存在しない場合、S9で、メイン制御部102は、その旨の警告を再生部111の画面に表示させる。関連部分情報が得られず、静止画情報を用いたダイジェスト用部分抽出が不可能になるので、動画評価値のみを考慮したダイジェスト用部分抽出処理S11に遷移する。
被写体評価値算出処理(S8)では、被写体評価値算出部102mが、モード判別部102Lの判定に基づき、被写体評価値を算出する。被写体一致率利用モードが選択されている場合、被写体評価値算出部102mは、関連部分情報102Jの関連フラグを利用し、所定時間T内で静止画と動画とで一致する被写体数を算出し、最大値2、最小値1で正規化した評価値を出力する。被写体一致部分利用モードが選択されている場合、被写体評価値算出部102mは、関連部分情報102Jの関連フラグが1である部分を抽出し、その部分から所定時間の範囲で被写体が一致していれば、被写体評価値情報102Kを最大値とする。メイン制御部102は、被写体評価値算出処理(S8)で得られた被写体評価値情報102Kをメモリ102eに一旦保存し、S10に遷移する。
S10で、メイン制御部102は、S8で得られた被写体評価値をチェックし、被写体の有無を判定する。静止画と動画の関連部分は存在するが、同一被写体の一致部分がない場合、S9に遷移し、メイン制御部102は、被写体の一致部分が存在しない旨の警告を再生部111の画面に表示させる。被写体の一致部分が存在しない旨の警告表示を行う。一方、同一被写体の一致が確認された場合、メイン制御部102は、S14に遷移する。
S14で、メイン制御部102は、静止画情報を考慮したダイジェスト再生の閾値TH2を設定する。具体的には、再生情報抽出部102fが先ず、動画評価値情報102iと被写体評価値情報102nを乗算して算出された評価値を最大値1、最小値0に正規化する。続いて、モード判別部102Lが、ダイジェスト総再生時間Tdに基づいて閾値TH2を設定する。図11を用いて説明すると、閾値TH2をTH2’に変化させることにより、ダイジェスト抽出部分が変化する。閾値TH2を閾値TH2’に変更すると、閾値TH1に対するダイジェスト用部分D1,D2,D3がダイジェスト用部分D1’,D2’,D3’と短くなる。総再生時間Tdは、Td=D1+D2+・・・Dnで求まるので、ユーザが指定した総再生時間Tdになるように、閾値TH2を変化させる。閾値TH2の設定が完了し、ダイジェスト用部分が確定したら、メイン制御部102は、S12に遷移する。なお、動画評価値と被写体評価値を用いた再生部分抽出の詳細は、後述する。
S11では、メイン制御部102は、動画情報のみを考慮したダイジェスト再生の閾値TH2を設定する。具体的には、再生情報抽出部102fが、動画評価値情報102iのみを用いて閾値TH2以上の部分を再生部分として抽出する。閾値TH2の設定が完了し、ダイジェスト用部分が確定したら、メイン制御部102は、S12に遷移する。
S12で、メイン制御部102は、抽出された部分が、ユーザにより設定された総再生時間Tdに達しているかどうかを確認する。動画の撮影状況により、動画評価値が非常に低く、ダイジェストとして抽出された部分の総時間がユーザの指定時間に達していない場合も考えられる。ダイジェストとして抽出された部分の長さ、即ち再生時間が充分でない場合、一旦、処理を終了し、再度、ユーザにダイジェスト総再生時間を入力させる。再生時間が充分な場合、メイン制御部102は、S15に遷移する。
S15で、再生情報抽出部102fは、確定したダイジェスト用部分に再生フラグ情報を付加し、その再生フラグ情報を動画記録部103の動画撮影情報103bに記録する。この記録が完了したら、メイン制御部102は、再生処理(S16)に遷移する。
再生処理(S16)では、メイン制御部102は、動画撮影情報103bに記録されている再生情報に基づき、ダイジェスト再生を実行する。すなわち、ダイジェスト再生の対象とされた動画部分を連続的に再生する。
説明例を参照して、動画評価値のみで抽出したダイジェストと、動画評価値と被写体評価値を併用して抽出したダイジェストの相違を説明する。
図12は、静止画P19〜P24と動画シーンGに対するダイジェスト例を示す。E10は動画シーンGに対する動画評価値を示す。動画評価値E10のみを使用する場合、評価値E10がダイジェスト閾値TH2以上となる部分D4,D5をダイジェストとして抽出する。この結果では、静止画P20,P21が撮影されている動画部分は、動画評価値が低いのでダイジェスト抽出結果から外れている。静止画が撮影された部分はイベントの重要度の高いシーンである可能性が高いという前提では、このダイジェストは好ましくないと言える。
静止画が動画と同じ被写体を撮影している場合、これを動画中で探索することで、より好ましいダイジェスト用部分を決定できる。そこで、本実施例では、静止画の被写体情報を解析し、被写体一致部分(被写体重み付けモードが2:被写体一致部分利用モードの場合)で被写体評価値E11を算出する。被写体評価値E11は、静止画P19〜P24の被写体と同じ人物が動画シーンG中に存在するか否かにより算出されている。
図13は、図12に示す被写体評価値E11の算出方式を説明する模式図である。図13では、動画内に現れる被写体を模式的に図示している。図13に示す例では、静止画P19、P21〜P24に対しては、対応する動画(の所定時間T内)に同一被写体が存在しているが、静止画P20に対しては同一被写体が存在しない。この結果、静止画P19、P21〜P24に対応する期間で被写体評価値E11を2とし、それ以外の期間の被写体評価値E11を1とする。
動画評価値E10に静止画評価値E11を乗算した結果が、統合評価値E12となる。図12から容易に理解できるように、統合評価値E12では、静止画P20に対応する部分D7もダイジェスト用に抽出される。つまり、被写体一致部分の評価値を最大値にすることにより、静止画が撮影された点から所定時間Tの動画が確実にダイジェストとして抽出される。動画評価値が低くとも、被写体情報を用いることで、撮影者の意図に合った被写体部分をダイジェストとして抽出できる。また、静止画の撮影頻度の高い部分がダイジェスト用部分として抽出される確率が高くなるので、イベントの重要部分・注目部分を反映したダイジェスト再生が可能になる。
図14は、静止画P25〜P29と動画シーンHに対するダイジェスト例を示す。動画シーンHでは、動画評価値E13が点Cで0(TH3以下)になっている。これは、キャップを閉じたまま撮影を開始してしまった場合や、画像が白トビをしてしって情報が殆どない場合など、ダイジェスト再生に適さない部分であることを意味している。単に静止画と対応する期間をダイジェスト用に抽出する従来の方法では、このような期間も抽出されてしまうが、本実施例では、被写体評価値E14を参照することで、このような事態は生じない。
具体的に説明すると、本実施例では、動画評価値E13に被写体評価値E14を乗算して得られる統合評価値E15を閾値TH2と比較し、統合評価値E15が閾値TH2以上となる部分をダイジェスト用に抽出する。この場合、静止画P26,P27に対応する部分Dは、ダイジェスト用には抽出されず、部分D11,D12が抽出される。
図14では、TH3を0としたが、TH3を0以上の値に設定し、TH3以下の評価値を0にする処理を行っても同様の効果が得られる。
被写体重み付けモードとして被写体一致率利用モードを設定した場合の動作と効果を説明する。図15は、被写体重み付けモードとして被写体一致率利用モードを設定したときの説明例であって、静止画P19〜P24と動画シーンGに対するダイジェスト例を示す。動画シーンGの動画評価値E10のみを考慮した場合、動画評価値E10が閾値TH2以上となる部分D4,D5が、ダイジェスト用に抽出される。
本実施例では、静止画P19〜P24の被写体情報を利用し、動画シーンGとの間の被写体一致率を算出し、被写体評価値E16とする。動画評価値E10に被写体評価値E16を乗算して統合評価値E17を算出する。静止画が撮影された点をイベントの重要シーンであると仮定すると、静止画P20,P21に対応する動画シーンGの部分も、ダイジェスト用に抽出すべきである。しかし、動画評価値E10が低いことと、静止画P20,P21とシーンGとの間で被写体の一致率が低いことから、静止画P20,P21に対応する部分で統合評価値E17が閾値TH2より小さくなる。この結果、静止画P20,P21に対応する部分はダイジェスト用に抽出されない。動画の、静止画の被写体と同一の人物を含まない部分は、撮影者の意図に沿うものではない確率が高いが、本実施例では、このような部分がダイジェスト用に抽出されないようにできる。
他方、動画の、静止画の被写体と同一の人物を含む部分D13,D14は、ダイジェスト用に抽出されており、撮影者が狙った被写体が多く含まれる部分がダイジェスト用に抽出される結果となっている。
また、静止画P19〜P24とは異なる静止画群に対して、上記と同様の処理を行うと、同一の動画でも異なったダイジェストが生成可能である。例えば、同じイベントの動画でも、撮影者が異なれば、撮りたい被写体や撮影タイミングが異なるので、同様の処理を行ったとしてもダイジェスト抽出部分が異なる。つまり、同じ動画でも、対応させる静止画群が異なれば、それに応じたダイジェストが生成される。
以上の説明から容易に理解できるように、本実施例では、動画評価値に静止画情報を加味することで、ユーザの意図を反映したダイジェストを生成できる。すなわち、不適切な動画データを省いた、重要度と注目度の高いシーンを含むダイジェスト再生が可能になる。
異なる撮影機器で撮影されたデータであっても、被写体情報を比較することにより、目的の被写体を含む部分をダイジェスト用に抽出できる。

Claims (8)

  1. 動画データを記録する動画記録手段と、
    前記動画データの内容に基づき動画評価値を算出する動画評価値算出手段と、
    静止画データを入力する静止画入力手段と、
    前記静止画データに含まれる被写体について評価し、被写体評価値を出力する被写体評価手段と、
    前記動画評価値及び前記被写体評価値に基づき、前記動画データの、前記静止画データの記録日時に対応する部分からダイジェスト用部分を抽出するダイジェスト抽出手段
    とを具備することを特徴とする画像処理装置。
  2. 更に、前記ダイジェスト用部分を連続的に再生する再生手段を具備することを特徴とする請求項1に記載の画像処理装置。
  3. 前記動画評価値算出手段は、前記動画データに含まれる画像信号及び音声信号、並びに前記動画データの撮影情報のうちの少なくとも一つを用いて前記動画評価値を算出することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記動画評価値算出手段は、前記動画データに含まれる画像信号の明るさ、ノイズ及びコントラストを用いて前記動画評価値を算出することを特徴とする請求項1又は2に記載の画像処理装置。
  5. 前記動画評価値算出手段は、前記動画データに含まれる音声信号の音声レベル、ノイズ及び周波数を用いて前記動画評価値を算出することを特徴とする請求項1又は2に記載の画像処理装置。
  6. 前記動画評価値算出手段は、前記動画データの撮影時のパンニング動作又はズーム動作を含む撮影情報に基づき前記動画評価値を算出することを特徴とする請求項1又は2に記載の画像処理装置。
  7. 前記被写体評価手段は、前記静止画データに含まれる人物の顔を認識する顔情報検出手段を具備することを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
  8. 前記被写体評価手段は、前記静止画データに含まれる人物の、前記動画データにおける前記静止画データの記録日時に対応する部分に含まれる人物との一致率を算出して前記被写体評価値とすることを特徴とする請求項7に記載の画像処理装置。
JP2012110097A 2012-05-11 2012-05-11 画像処理装置 Pending JP2013239797A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012110097A JP2013239797A (ja) 2012-05-11 2012-05-11 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012110097A JP2013239797A (ja) 2012-05-11 2012-05-11 画像処理装置

Publications (2)

Publication Number Publication Date
JP2013239797A true JP2013239797A (ja) 2013-11-28
JP2013239797A5 JP2013239797A5 (ja) 2015-06-18

Family

ID=49764495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012110097A Pending JP2013239797A (ja) 2012-05-11 2012-05-11 画像処理装置

Country Status (1)

Country Link
JP (1) JP2013239797A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016225702A (ja) * 2015-05-27 2016-12-28 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2016225679A (ja) * 2015-05-27 2016-12-28 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
US9690992B2 (en) 2014-07-31 2017-06-27 Fujifilm Corporation Image processing apparatus, image processing method, moving image publishing system, moving image publishing method, and recording medium
US9779306B2 (en) 2014-06-12 2017-10-03 Fujifilm Corporation Content playback system, server, mobile terminal, content playback method, and recording medium
JP2018013879A (ja) * 2016-07-19 2018-01-25 Seven Dew株式会社 ダイジェスト映像取得装置、ダイジェスト映像取得方法、およびプログラム
JP2018163700A (ja) * 2018-07-09 2018-10-18 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JPWO2019123762A1 (ja) * 2017-12-22 2021-01-07 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN113095289A (zh) * 2020-10-28 2021-07-09 重庆电政信息科技有限公司 基于城市复杂场景下海量图像预处理网络方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009059445A (ja) * 2007-09-03 2009-03-19 Sony Corp データ処理装置および方法、並びにデータ処理プログラムおよびデータ処理プログラムが記録された記録媒体
JP2010087722A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 撮影装置及び動画像編集方法
JP2010093405A (ja) * 2008-10-06 2010-04-22 Panasonic Corp 情報処理装置、及び情報処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009059445A (ja) * 2007-09-03 2009-03-19 Sony Corp データ処理装置および方法、並びにデータ処理プログラムおよびデータ処理プログラムが記録された記録媒体
JP2010087722A (ja) * 2008-09-30 2010-04-15 Fujifilm Corp 撮影装置及び動画像編集方法
JP2010093405A (ja) * 2008-10-06 2010-04-22 Panasonic Corp 情報処理装置、及び情報処理方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9779306B2 (en) 2014-06-12 2017-10-03 Fujifilm Corporation Content playback system, server, mobile terminal, content playback method, and recording medium
US9690992B2 (en) 2014-07-31 2017-06-27 Fujifilm Corporation Image processing apparatus, image processing method, moving image publishing system, moving image publishing method, and recording medium
JP2016225702A (ja) * 2015-05-27 2016-12-28 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2016225679A (ja) * 2015-05-27 2016-12-28 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2018013879A (ja) * 2016-07-19 2018-01-25 Seven Dew株式会社 ダイジェスト映像取得装置、ダイジェスト映像取得方法、およびプログラム
JPWO2019123762A1 (ja) * 2017-12-22 2021-01-07 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP7192792B2 (ja) 2017-12-22 2022-12-20 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
JP2018163700A (ja) * 2018-07-09 2018-10-18 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
CN113095289A (zh) * 2020-10-28 2021-07-09 重庆电政信息科技有限公司 基于城市复杂场景下海量图像预处理网络方法

Similar Documents

Publication Publication Date Title
JP2013239797A (ja) 画像処理装置
US10367997B2 (en) Enriched digital photographs
US20140153900A1 (en) Video processing apparatus and method
JP5401420B2 (ja) 撮像装置
WO2008035688A1 (fr) Dispositif et procédé d'enregistrement, programme, et dispositif et procédé de lecture
JP2011166442A (ja) 撮像装置
KR20080012790A (ko) 얼굴 검출 장치, 촬상 장치 및 얼굴 검출 방법
WO2010116715A1 (ja) 画像撮影装置、画像撮影方法、プログラム、及び集積回路
JP2013074461A (ja) 画像処理装置、画像処理方法及びプログラム
JP2013239796A (ja) 画像処理装置
JP2003092701A (ja) 撮像装置
US8538247B2 (en) Image processing apparatus and image processing method
JP2019186791A (ja) 撮像装置、撮像装置の制御方法、および制御プログラム
KR20140072785A (ko) 동영상 처리 장치 및 그 방법.
JP6355333B2 (ja) 撮像装置、画像処理装置、画像処理方法、プログラム
JP2008199330A (ja) 動画像管理装置
JP2007226606A (ja) 撮像装置、画像出力方法、再生装置、プログラム、及び記憶媒体
JP5550114B2 (ja) 撮像装置
JP2010219607A (ja) ターゲットフレーム抽出装置、撮像装置およびデジタルカメラ
JP2005328279A (ja) 記録装置
JP4872785B2 (ja) 撮影装置、被写体選択方法及び被写体選択プログラム
JP5665380B2 (ja) 画像処理装置、画像処理装置の制御方法、プログラム、及び記録媒体
JP6249771B2 (ja) 画像処理装置、画像処理方法、プログラム
US8798439B2 (en) Method and apparatus for continuously reproducing moving picture files
JP2012029119A (ja) 表示制御装置、カメラ、および、表示装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160405