JP5456023B2 - 画像撮影装置、画像撮影方法、プログラム、及び集積回路 - Google Patents

画像撮影装置、画像撮影方法、プログラム、及び集積回路 Download PDF

Info

Publication number
JP5456023B2
JP5456023B2 JP2011508239A JP2011508239A JP5456023B2 JP 5456023 B2 JP5456023 B2 JP 5456023B2 JP 2011508239 A JP2011508239 A JP 2011508239A JP 2011508239 A JP2011508239 A JP 2011508239A JP 5456023 B2 JP5456023 B2 JP 5456023B2
Authority
JP
Japan
Prior art keywords
evaluation
unit
image
moving image
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011508239A
Other languages
English (en)
Other versions
JPWO2010116715A1 (ja
Inventor
芳宏 森岡
賢司 松浦
拓眞 増田
広二 竹林
栄二 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2011508239A priority Critical patent/JP5456023B2/ja
Publication of JPWO2010116715A1 publication Critical patent/JPWO2010116715A1/ja
Application granted granted Critical
Publication of JP5456023B2 publication Critical patent/JP5456023B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4147PVR [Personal Video Recorder]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、動画像を撮影する画像撮影装置に関するものであり、特に、撮影した動画像から自動的に静止画像を抽出する画像撮影装置に関するものである。
現在のビデオカメラでは、動画像を撮影するとともに、動画像撮影時に利用者が静止画像撮影の釦等を押すことで、併せて静止画像も記録できるものがある。また、ビデオカメラは、撮影した動画像から自動的にダイジェスト(要約映像)を生成等することも可能となっている。例えば、特許文献1には、メタデータ(属性情報)に基づいてシーンを評価し、その評価結果に基づいて、撮影した動画像のシーン又はクリップの数を絞り込んだダイジェスト(要約映像)を簡単に生成する映像撮影装置が開示されている。
特開2008−227860号公報
しかし、動画像を撮影するとともに、好適な静止画像の抽出を自動的に行うものはない。特に、撮影する動画像に変化が無い場合、又は、変化が小さい場合に、動画像とともに好適な静止画像を自動的に撮影するものはない。
上記の問題に鑑みて、本発明は、動画像を撮影するとともに、好適な静止画像を自動的に抽出することを可能にする画像撮影装置を提供することを目的とする。
本発明の一形態に係る画像撮影装置は、動画像を撮影する撮影部と、前記撮影部で撮影された前記動画像の特徴を示す属性情報を生成する属性情報生成部と、前記属性情報生成部で生成された前記属性情報を予め定められた評価基準に当てはめることによって、前記動画像の評価値を所定の時間幅毎に算出する評価部と、前記評価部で算出された前記評価値が評価閾値を超えた場合に、前記動画像のうちの当該評価値に対応する前記時間幅から静止画像を抽出する静止画像抽出部と、前記属性情報に含まれる情報のうち、前記動画像に含まれる人物を識別する人物情報、及び前記動画像の構図の変化量の少なくとも一方に基づいて、前記評価閾値を変更する閾値変更部とを備える。
これにより、画像撮影装置は、動画像を撮影中に、好適な場面で自動的に静止画像を抽出することが可能となる。なお、本明細書中の「構図」とは、被写体と背景とにより構成される画像全体の構成、又は画像を構成する諸要素及び諸部分の配置を指す。
また、前記閾値変更部は、前記構図の変化量が所定の値以下の状態が継続している間、前記静止画像抽出部で前記静止画像が抽出される度に、前記評価閾値を所定の増加幅ずつ増加させてもよい。これにより、構図の変化量が小さい場合は、静止画像の抽出頻度を下げ、構図の変化量が大きい場合は、静止画像の抽出頻度を上げる等、変化に富んだ静止画像の抽出が可能となる。
また、前記評価基準には、前記人物情報と、前記動画像に当該人物が含まれていた場合の前記評価値との対応関係が含まれてもよい。そして、前記閾値変更部は、前記属性情報に含まれる前記人物情報に対応付けられた前記評価値が高い程、前記所定の増加幅を小さくしてもよい。これにより被写体として撮影される人物毎に静止画像の抽出方法を異なるものとすることができ、人物毎により好適な静止画像の撮影が可能となる。
また、前記閾値変更部は、所定の時間毎に、予め定められた初期値を前記評価閾値に設定してもよい。さらに、閾値変更部は、前記人物情報及び前記構図の変化量の少なくとも一方に基づいて、前記所定の時間を変更してもよい。これにより、評価閾値を初期値に戻すまでの期間を、被写体の人物毎又は構図の変化量に基づいて変えることができる。その結果、被写体の人物又は構図の変化量に応じた静止画像を抽出することができる。
また、前記静止画像抽出部は、第1の静止画像を抽出してから、少なくとも最低待機時間を経過した後に第2の静止画像を抽出してもよい。さらに、該画像撮影装置は、前記人物情報及び前記構図の変化量の少なくとも一方に基づいて、前記最低待機時間を変更する抽出間隔変更部を備えてもよい。これにより、撮影する人物及び構図の変化量等に応じて好適な静止画像の抽出が可能となる。
また、前記評価基準には、前記人物情報と、前記動画像に当該人物が含まれていた場合の前記評価値との対応関係が含まれてもよい。そして、前記抽出間隔変更部は、前記属性情報に含まれる前記人物情報に対応付けられた前記評価値が高い程、前記最低待機時間を短くしてもよい。さらに、前記抽出間隔変更部は、前記構図の変化量が大きい程、前記最低待機時間を短くしてもよい。
また、前記抽出間隔変更部は、前記構図の変化量が所定の値以下の状態が継続している間、前記静止画像抽出部で前記静止画像が抽出される度に、前記最低待機時間を所定の増加幅ずつ増加させてもよい。これにより、構図の変化が所定の変化よりも小さい場合は、時間とともに、静止画像の抽出頻度を下げることが可能となる。
また、前記抽出間隔変更部は、前記構図の変化量が所定の値を上回った場合に、前記最低待機時間に予め定められた初期値を設定してもよい。これにより、撮影する動画像に再度の変化、例えば構図の変化、被写体の人物の変化等があった場合に、静止画像の抽出頻度を高める等の設定をすることもできる。
本発明に係る画像撮影方法は、動画像を撮影する撮影ステップと、前記撮影ステップで撮影された前記動画像の特徴を示す属性情報を生成する属性情報生成ステップと、前記属性情報生成ステップで生成された前記属性情報を予め定められた評価基準に当てはめることによって、前記動画像の評価値を所定の時間幅毎に算出する評価ステップと、前記評価ステップで算出された前記評価値が評価閾値を超えた場合に、前記動画像のうちの当該評価値に対応する前記時間幅から静止画像を抽出する静止画像抽出ステップと、前記属性情報に含まれる情報のうち、前記動画像に含まれる人物を識別する人物情報、及び前記動画像の構図の変化量の少なくとも一方に基づいて、前記評価閾値を変更する閾値変更ステップとを含む。
本発明に係るプログラムは、コンピュータに画像を撮影させる。具体的には、動画像を撮影する撮影ステップと、前記撮影ステップで撮影された前記動画像の特徴を示す属性情報を生成する属性情報生成ステップと、前記属性情報生成ステップで生成された前記属性情報を予め定められた評価基準に当てはめることによって、前記動画像の評価値を所定の時間幅毎に算出する評価ステップと、前記評価ステップで算出された前記評価値が評価閾値を超えた場合に、前記動画像のうちの当該評価値に対応する前記時間幅から静止画像を抽出する静止画像抽出ステップと、前記属性情報に含まれる情報のうち、前記動画像に含まれる人物を識別する人物情報、及び前記動画像の構図の変化量の少なくとも一方に基づいて、前記評価閾値を変更する閾値変更ステップとをコンピュータに実行させる。
本発明に係る集積回路は、動画像を撮影する撮影部と、前記撮影部で撮影された前記動画像の特徴を示す属性情報を生成する属性情報生成部と、前記属性情報生成部で生成された前記属性情報を予め定められた評価基準に当てはめることによって、前記動画像の評価値を所定の時間幅毎に算出する評価部と、前記評価部で算出された前記評価値が評価閾値を超えた場合に、前記動画像のうちの当該評価値に対応する前記時間幅から静止画像を抽出する静止画像抽出部と、前記属性情報に含まれる情報のうち、前記動画像に含まれる人物を識別する人物情報、及び前記動画像の構図の変化量の少なくとも一方に基づいて、前記評価閾値を変更する閾値変更部とを備える。
また、本発明の他の形態に係る画像撮影装置は、以下の構成とすることもできる。具体的には、動画像と静止画像とを撮影する画像撮影装置であって、前記動画撮影時の属性情報を生成する属性情報生成部と、前記属性情報に基づいて撮影中の前記動画像から静止画象を抽出する画像解析部と、を備えるものである。
これにより、画像撮影装置は、動画像を撮影中に、好適な場面で自動的に静止画像を抽出することが可能となる。
画像撮影装置は、前記属性情報に基づいて前記動画像を構成するシーン毎に評価するシーン解析部を更に備え、前記画像解析部は、前記シーン解析部のシーン毎の評価と前記属性情報とに基づいて、撮影中の前記動画像から静止画象を抽出するものであってもよい。
これにより、画像撮影装置は、撮影した動画像からダイジェスト(要約映像)を生成するとともに、好適な場面での静止画像の抽出を同時に行うことが可能となる。
画像撮影装置は、前記属性情報に基づいて前記動画像をシーン毎に評価するシーン解析部を更に備え、前記画像解析部は、前記属性情報を前記シーン解析部とは異なる評価方法に基づいて、撮影中の前記動画像から静止画象を抽出するのであってもよい。
これにより、動画像と静止画像との異なる特徴に基づいて、静止画像として好適な場面で、撮影した動画像から自動的に静止画像を抽出することが可能となる。
画像撮影装置は、前記静止画像を記憶する記憶部をさらに備え、前記画像解析部は、前記動画像の撮影中に抽出した第1の静止画像と、前記記憶部に記憶された第2の静止画像との類似性が所定の範囲である場合、前記第1の静止画像と第2の静止画像の一方の静止画像のみを選択して前記記憶部に記憶するものであってもよい。
これにより、好適な場面が連続して続くような場合であっても、そのなかからより好適な場面の静止画像のみを抽出することが可能となる。
さらに、前記画像解析部は、前記類似性を、前記第1の静止画像と第2の静止画像との構図、撮影時間、及び、前記第1の静止画像と第2の静止画像が属する前記シーン解析部が評価するシーンの情報、の少なくとも一つに基づいて算出するものであってもよい。
これにより、連続して抽出される静止画像が、同じような静止画像となることを防ぐことが可能となる。
さらに画像撮影装置は、撮影した前記動画像の情報を符号化する動画像信号圧縮部を更に備え、前記画像解析部は、前記動画像を符号化する前の動画像の情報から前記静止画像を抽出するものであってもよい。
これにより、符号化等する前の動画像の動画像信号から静止画像を抽出することとなる。その結果、符号化等の不可逆変換で情報を損失することなく、静止画像を取得することが可能となる。
本出願により、動画像を撮影するとともに、好適な静止画像の自動抽出が可能となる。
図1は、本実施の形態で説明するビデオカメラの外観図である。 図2は、本実施の形態で説明するビデオカメラ内部のハードウェア構成図である。 図3Aは、本実施の形態で説明するビデオカメラ内部の機能構成図である。 図3Bは、図3Aのさらに詳細な機能構成図である。 図4は、本実施の形態で説明する撮影した動画像のクリップ、シーン、及びフレームの関係図である。 図5は、本実施の形態で説明するシーンを識別する情報を示す図である。 図6は、本実施の形態で説明するシーンの属性情報と評価値との関係を示す図である。 図7は、本実施の形態で説明するシーン毎に評価値を割り当てた結果を示す図である。 図8は、本実施の形態で説明する再生情報の情報内容を示す図である。 図9は、本実施の形態で説明する静止画像抽出用の属性情報と評価値との関係を示す図である。 図10は、本実施の形態で説明する静止画像抽出の観点から撮影したフレームを評価したグラフである。 図11は、本実施の形態で説明する構図の変化と認識される被写体人物と撮影時間間隔との関係を示した図である。 図12は、本実施の形態で説明する撮影枚数と、最低待機時間と、評価閾値との関係を示した図である。 図13は、静止画像抽出処理の一例を示すフローチャートである。
(第1の実施の形態)
<1.画像撮影装置の構成>
図1は、動画像および静止画像を撮影するビデオカメラ(画像撮影装置)100の外観図である。本実施の形態では、このビデオカメラ100を用いて説明を行う。
図2は、図1のビデオカメラ100内部のハードウェア構成の概略を示した図である。
ビデオカメラ100は、レンズ群200と、撮像素子201と、動画像ADC(Analog to Digital Converter)202と、動画像信号変換回路203と、CPU(Central Processing Unit)204と、クロック205と、レンズ制御モジュール206と、姿勢検出センサ207と、入力ボタン208と、ディスプレイ209と、スピーカー210と、出力I/F(Interface)211と、圧縮伸張回路212と、ROM(Read Only Memory)213と、RAM(Randam Access Memory)214と、HDD(Hard Disk Drive)215と、音声ADC(Analo to Digital Converter)216と、マイクロフォン217とを構成要素として備える。
レンズ群200は、撮像素子201上で被写体像を形成するために、被写体から入射する光を調整する。具体的には、焦点距離及びズーム(映像の拡大倍率)を、様々な特性を持つ複数のレンズ間の距離を変化させることで、調整する。これらの調整は、ビデオカメラ100の撮影者が手動で調整するものでも、後述するレンズ制御モジュール206を通じてCPU204等からの制御により自動的に調整するものであってもよい。
撮像素子201は、レンズ群200を通して入射する光を電気信号に変換する。撮像素子201には、CCD(Charge Coupled Device)、又はC−MOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを利用することが可能である。
動画像ADC202は、撮像素子201から出力されたアナログ電気信号をデジタル電気信号に変換する。デジタル信号は、動画像信号変換回路203へ出力される。
動画像信号変換回路203は、動画像ADC202が出力するデジタル信号を、NTSC(National Television System Committee)又はPAL(Phase Alternating Line)と言った所定の方式の動画像信号(映像信号)に変換する。
CPU204は、ビデオカメラ100全体を制御する。制御の種類としては、例えば、レンズ制御モジュール206を介して前述のレンズの焦点距離及びズームの制御を行うことで、撮像素子201への入射光を制御するレンズ制御がある。また、入力ボタン208及び姿勢検出センサ207等からの外部入力に対する入力制御、あるいは、圧縮伸張回路212の動作制御等がある。CPU204は、これらの制御アルゴリズムをソフトウェア等で実行する。
クロック205は、ビデオカメラ100内で動作するCPU204等の回路に、処理動作の基準となるクロック信号を出力する。なお、クロック205は、利用する集積回路及び扱うデータによって、単一または複数のクロックを用いることも可能である。また、ひとつの発振子のクロック信号を任意の倍数に乗じて使用してもよい。
レンズ制御モジュール206は、レンズ群200の状態を検出し、CPU204からの制御に基づいて、レンズ群200に含まれる各レンズを動作させる。レンズ制御モジュール206は、レンズ制御用モータ206aと、レンズ位置センサ206bとを備える。
レンズ位置センサ206bは、レンズ群200を構成する複数のレンズ間の距離または位置関係等を検出する。レンズ位置センサ206bが検出した複数のレンズ間の位置情報等は、CPU204に送信される。CPU204は、レンズ位置センサ206bからの情報、及び撮像素子201等の他の構成要素からの情報に基づいて、複数のレンズを適正に配置させるための制御信号を、レンズ制御用モータ206aに送信する。
レンズ制御用モータ206aは、CPU204から送信された制御信号に基づいて、レンズを駆動させるモータである。この結果、レンズ群200の複数のレンズ間の相対的な位置関係が変更され、レンズの焦点距離、およびズームを調整することができる。これにより、レンズ群200を通過した入射光は、撮像素子201上で、目的とする被写体像を結ぶ。
なお、CPU204は、上記以外にも、ビデオカメラ100で動画像撮影時の手振れをレンズ位置センサ206b及び後述する姿勢検出センサ207等で検出し、レンズ制御用モータ206aを駆動する制御を行ってもよい。これにより、CPU204は、手振れ防止の動作を、レンズ制御モジュール206を介して実行させることも可能である。
姿勢検出センサ207は、ビデオカメラ100の姿勢の状態を検出する。姿勢検出センサ207は、加速度センサ207aと、角速度センサ207bと、仰角・俯角センサ207cとを備える。これらの各種センサにより、CPU204は、ビデオカメラ100がどのような状態で撮影を行っているかを検出する。なお、これらのセンサは、好ましくはビデオカメラ100の姿勢を詳細に検出するために、3軸方向(垂直方向、水平方向等)についてそれぞれ検出できることが望ましい。
入力ボタン208は、ビデオカメラ100の撮影者が使用する入力インタフェースの一つである。これにより、撮影者が撮影の開始又は終了、ビデオ撮影中の動画像にマーキングを挿入する等、各種要求をビデオカメラ100に伝えることが可能となる。
ディスプレイ209は、ビデオカメラ100が撮影時の動画像を見るため、又は、記憶された映像を見るため等に設けられている。これにより、撮影者は、撮影した動画像をその場で確認することが可能となる。また、それ以外にもビデオカメラ100の各種情報を表示することで、撮影情報、及び機器情報等のより詳細な情報を撮影者に伝えることが可能となる。
スピーカー210は、撮影した動画像を再生する際の音声出力に使用される。それ以外にも、ビデオカメラ100が出力する警告を音で撮影者へ伝えることも可能である。
出力I/F211は、ビデオカメラ100が撮影した動画像を外部機器へ出力するために用いられる。具体的には、外部機器とケーブルで接続する場合のケーブルインタフェース、及び撮影した動画像を可搬可能なメモリカード218に記録する場合のメモリカードインタフェース等などがある。これにより、撮影した動画像をビデオカメラ100に備え付けのディスプレイ209よりも大きな外部のディスプレイを用いて視聴等することが可能となる。
圧縮伸張回路212は、撮影した動画像及び音声を、所定のデジタルデータ形式(符号化処理)にする。具体的には、撮影した動画像データ及び音声データに対して、MPEG(Moving Picture Expoerts Group)又はH.264等の符号化処理を行い、所定のデータ方式に変換(圧縮)する。また、圧縮伸張回路212は、撮影したデータの再生時に、所定のデータ形式の動画像データを伸張して、ディスプレイ209等に表示するデータ処理を行う。なお、圧縮伸張回路212は、静止画像についても、動画像と同様に、圧縮伸張する機能を備えるものであっても良い。
ROM213は、CPU204が処理するソフトウェアのプログラム及びプログラムを動作させるための各種データを記憶する。
RAM214は、CPU204が処理するソフトウェアのプログラム実行時に使用するメモリ領域等として使用される。また、圧縮伸張回路212と共用でこのRAM214を使用してもよい。
HDD215は、圧縮伸張回路212が符号化した動画像データ及び静止画像データを蓄積等する目的で利用される。なお、記憶されるデータは、これ以外にも、後述する再生情報のデータ等を記憶することも可能である。また、本説明では、記憶媒体としてHDD215を代表の記憶媒体として説明しているが、これ以外にも半導体記憶素子を用いるものであっても良い。
音声ADC216は、マイクロフォン217から入力される音声を、アナログ電気信号からデジタル電気信号に変換処理する。
マイクロフォン217は、ビデオカメラ100外部の音声を電気信号に変換して出力する。
上記のとおりビデオカメラ100のハードウェア構成を示したが、本発明では上記の構成に限定されるものではない。例えば、動画像ADC202及び動画像信号変換回路203等を単一の集積回路として実現することも可能であるし、CPU204が実行するソフトウェアプログラムの一部を別途、FPGA(Field Programmable Gate Array)を用いてハードウェアとして実現することも可能である。
次に、ビデオカメラ100の機能構成について図3A及び図3Bを用いて説明する。図3Aは、ビデオカメラ100の機能構成の一例を示すブロック図である。
ビデオカメラ100は、図3Aに示されるように、撮影部110と、属性情報生成部120と、評価部130と、静止画像抽出部140と、閾値変更部150と、抽出間隔変更部160とを備える。
撮影部110は、動画像を撮影する。撮影された動画像は、属性情報生成部120及び静止画像抽出部140に出力されると共に、記録媒体170に記録される。撮影部110は、図2のレンズ群200、撮像素子201、動画像ADC202、及び動画像信号変換回路203等に相当する。
属性情報生成部120は、撮影部110で撮影された動画像の特徴を示す属性情報を生成する。生成された属性情報は、評価部130、閾値変更部150、及び抽出間隔変更部160にそれぞれ出力される。属性情報生成部120は、図2のCPU204で処理される制御アルゴリズムの一つによって実現される。
評価部130は、属性情報生成部120で生成された属性情報を予め定められた評価基準に当てはめることによって、動画像の評価値を所定の時間幅毎に算出する。算出された評価値は、静止画像抽出部140に出力される。なお、「所定の時間幅」とは、例えば、後述するシーン単位であってもよいし、フレーム単位であってもよい。評価部130は、図2のCPU204で処理される制御アルゴリズムの一つによって実現される。
静止画像抽出部140は、予め評価閾値を保持しており、評価部130で算出された評価値と評価閾値とを比較する。そして、静止画像抽出部140は、評価値が評価閾値を超えた場合に、動画像のうちの当該評価値に対応する時間幅から静止画像を抽出する。抽出された静止画像は、記録媒体170に記録される。静止画像抽出部140は、図2のCPU204で処理される制御アルゴリズムの一つによって実現される。
閾値変更部150は、属性情報生成部120で生成された属性情報に基づいて、静止画像抽出部140が保持している評価閾値を変更する。より具体的には、属性情報に含まれる情報のうち、動画像に含まれる(写っている)人物を識別する人物情報、及び動画像の構図の変化量の少なくとも一方に基づいて、評価閾値を変更する。変更された評価閾値は、静止画像抽出部140に出力される。閾値変更部150は、図2のCPU204で処理される制御アルゴリズムの一つによって実現される。但し、評価閾値を固定値とする場合には、閾値変更部150を省略することができる。
抽出間隔変更部160は、属性情報生成部120で生成された属性情報に基づいて、静止画像抽出部140の最低待機時間を変更する。より具体的には、属性情報に含まれる情報のうち、動画像に含まれる(写っている)人物を識別する人物情報、及び動画像の構図の変化量の少なくとも一方に基づいて、最低待機時間を変更する。変更された最低待機時間は、静止画像抽出部140に出力される。抽出間隔変更部160は、図2のCPU204で処理される制御アルゴリズムの一つによって実現される。但し、最低待機時間を固定値とする場合には、抽出間隔変更部160を省略することができる。
なお、「最低待機時間」とは、連続して抽出される第1の静止画像及び第2の静止画像の抽出間隔の最低値である。つまり、静止画像抽出部140は、第1の静止画像を抽出してから、少なくとも最低待機時間を経過した後に、第2の静止画像を抽出しなければならない。
記録媒体170には、撮影部110で撮影された動画像、及び静止画像抽出部140で抽出された静止画像等が記録される。また、ビデオカメラ100に必要な他のあらゆる情報を記録することもできる。記録媒体170は、図2のROM213、RAM214、HDD215、又は出力I/F211に接続されるメモリカード218に相当する。
図3Bは、ビデオカメラ100の詳細な機能構成図である。
ビデオカメラ100は、図3Bに示されるように、機能的な構成要素として、レンズ部300と、撮像部301と、動画像AD変換部302と、動画像信号処理部303と、動画像信号圧縮部304と、撮像制御部305と、動画像解析部306と、レンズ制御部307と、姿勢検出部308と、属性情報生成部309と、シーン解析部310と、再生情報生成部311と、音声解析部312と、音声信号圧縮部313と、多重化部314と、記憶部315と、ダイジェスト再生部316と、動画像信号伸張部317と、表示部318と、音声信号伸張部319と、音声出力部320と、音声AD変換部321と、マイク部322と、外部入力部323と、静止画像解析部324と、静止画像信号伸張部325とを備える。
レンズ部300は、被写体から入射した光の焦点距離、及びズーム倍率(動画像の拡大倍率)等を調整する。これらはレンズ制御部307からの制御により行われる。レンズ部300は、図2のレンズ群200に相当する。
撮像部301は、レンズ部300を透過した光を電気信号に変換する。撮像部301は、撮像制御部305の制御により、撮像素子上の任意の範囲のデータを出力する。また動画像データ以外にも、3原色点の色度空間情報、白色の座標、及び3原色のうち少なくとも2つのゲイン情報、色温度情報、Δuv(デルタuv)、及び、3原色又は輝度信号のガンマ情報等の情報も出力することが可能である。これらの情報は、属性情報生成部309へ出力される。撮像部301は、図2の撮像素子201に相当する。
動画像AD変換部302は、撮像部301からの電気信号を、所定の処理内容にしたがってアナログ信号からデジタル信号に変換する。動画像AD変換部302は、図2の動画像ADC202に相当する。
動画像信号処理部303は、動画像AD変換部302から出力されたデジタル信号を、所定の動画像信号フォーマットに変換する。例えば、NTSCで規定された水平線の数、走査線の数、及びフレームレートに準拠した動画像信号に変換する。動画像信号処理部303は、図2の動画像信号変換回路203に相当する。
動画像信号圧縮部304は、動画像信号処理部303によって処理されたデジタル信号に対して所定の符号化変換を行い、データ量を圧縮等する。具体例としては、MPEG2、MPEG4、H.264等の符号化方式がある。動画像信号圧縮部304は、図2の圧縮伸張回路212の圧縮機能に相当する。
撮像制御部305は、撮像部301の動作を制御する。具体的には、撮像制御部305は、撮像部301に対して、撮影時の露出量、撮影速度、及び感度等を制御する。また、これらの制御情報は、属性情報生成部309へも併せて出力される。撮像制御部305は、図2のCPU204で処理される制御アルゴリズムの一つによって実現される。
動画像解析部306は、撮影された動画像信号から動画像の特徴を抽出する。本実施の形態では、色情報(例えば、動画像に含まれる色の分布を検出する)、ホワイトバランス、及び動画像に人物の顔が含まれている場合には、当該人物の顔検出を行う等、動画像信号を解析することで、動画像の特徴を抽出する。なお、色分布の検出は、動画像信号を形成するデータに含まれる色情報を確認することで実現可能である。また、顔検出については、パターンマッチング等を用いることにより実現可能である。動画像解析部306は、図2のCPU204でソフトウェア処理されるアルゴリズムの一つによって実現される。
レンズ制御部307は、レンズ部300の動作を制御する。レンズ制御部307は、ズーム制御部307a、フォーカス制御部307b、及び手振れ補正制御部307c等を備える。
ズーム制御部307aは、レンズ部300のズームレンズを制御することで、被写体からの入射光を所望の拡大倍率にして撮像部301に入力させる。フォーカス制御部307bは、レンズ部300のフォーカスレンズを制御することで、被写体と撮像部301との焦点距離を設定する。手振れ補正制御部307cは、動画像等の撮影時の該装置の揺れを抑制する。レンズ制御部307は、レンズ部300を制御するとともに、これらの制御情報を属性情報生成部309へ出力する。レンズ制御部307は、図2のレンズ制御モジュール206に相当する。
姿勢検出部308は、ビデオカメラ100の加速度、角速度、及び仰角・俯角等を検出する。姿勢検出部308は、加速度センサ308a、角速度センサ308b、及び仰角・俯角センサ308cを備える。これらのセンサは、ビデオカメラ100の姿勢及びその変化状況を検出する目的等に用いられる。加速度及び角速度については、垂直・水平(2方向)の3方向について検出できることが望ましい。姿勢検出部308は、図2の姿勢検出センサ207に相当する。
マイク部322は、周囲の音を電気信号に変換して音声信号として出力する。マイク部322は、図2のマイクロフォン217に相当する。
音声AD変換部321は、マイク部322から入力されたアナログ電気信号をデジタル電気信号に変換する。音声AD変換部321は、図2の音声ADC216に相当する。
音声解析部312は、電磁たる電気信号に変換された音声データから特徴のある音を抽出する。ここで特徴のある音とは、例えば、撮影者の声、特定の単語の発音、歓声、及び銃声等がある。これらの音の識別は、これらの音(音声)が持つ特有の周波数を予め登録しておき、それとの比較結果で判別するなどの方法等を用いることで、抽出が可能である。またこれ以外にも、マイク部322が捕捉した音の入力レベル等の特徴も検出する。音声解析部312は、図2のCPU204でソフトウェア処理されるアルゴリズムの一つによって実現される。
音声信号圧縮部313は、音声AD変換部321から出力された音声データを、所定の符号化アルゴリズムで変換する。符号化には、MP3(MPEG Audio Layer−3)及びAAC(Advanced Audio Coding)等の方法がある。音声信号圧縮部313は、図2の圧縮伸張回路212の圧縮機能の一つによって実現される。
外部入力部323は、動画像撮影時に外部から受信した各種の情報、例えば、撮影者によるボタン入力、又は外部から通信経由で受信した撮影インデックス情報等を出力する。なお、撮影インデックス情報とは、例えば、映画撮影時における撮影場面を識別する番号又は撮影回数を示す番号等、それぞれの撮影を識別するために用いられる識別番号などである。外部入力部323は、図2の入力ボタン208等に相当する。
属性情報生成部309は、動画像並びに静止画像の撮影時における撮影情報、外部入力情報、及びその他の情報を属性情報(メタデータ)として生成する。属性情報に含まれる情報の一例として以下のような情報が考えられる。
・ 焦点距離
・ ズーム倍率
・ 露出
・ 撮影速度
・ 感度
・ 3原色点の色空間情報
・ ホワイトバランス
・ 3原色のうち少なくとも2つのゲイン情報
・ 色温度情報
・ Δuv(デルタuv)
・ 3原色または輝度信号のガンマ情報
・ 色分布
・ 人物情報(顔認識情報)
・ カメラ姿勢(加速度、角速度、仰角・俯角等)
・ 撮影時刻(撮影開始時刻、終了時刻)
・ 撮影インデックス情報
・ ユーザ入力
・ フレームレート
・ サンプリング周波数
・ 構図の変化量
属性情報には、上記の撮影時の各種情報から算出され、動画像シーンを特徴づける新たな情報(撮影時の各種情報等を組み合わせ、それらを分析等することで得られる情報等)も含まれる。例えば、カメラ姿勢(加速度、角速度、仰角・俯角等)の情報からビデオカメラ100の撮影時におけるパン、ティルト等のカメラワークの情報を得ることが可能となる。また、焦点距離、及びズーム倍率の情報は、そのままでも属性情報として用いることが可能である。属性情報生成部309は、撮影時の各種情報からシーン評価に有用な情報を抽出、あるいは算出等して、属性情報を生成する。
シーン解析部310は、属性情報生成部309で生成された属性情報に基づいて、それぞれのシーンを評価する。そして、その評価結果に基づいて、再生すべきシーンを選択する。シーンの評価及び選択方法等については、後に詳細に説明する。
再生情報生成部311は、シーン解析部310で選択された再生すべきシーンを再生情報として生成する。この点についても後述する。
属性情報生成部309、シーン解析部310、及び再生情報生成部311は、図2のCPU204でソフトウェア処理されるアルゴリズムの一つである。
多重化部314は、動画像信号圧縮部304から出力される符号化動画像データ、音声信号圧縮部313から出力される符号化音声データ、及び再生情報生成部311から出力される再生情報等を多重化して出力する。多重化部314は、図2のCPU204で実行されるソフトウェアであってもよいし、圧縮伸張回路212で、ハードウェア処理されるものであってもよい。
記憶部315は、多重化部314から出力された符号化動画像データ、符号化音声データ、再生情報が多重化されたデータ、及び静止画像のデータ等を、一時保持又は長期保持する。記憶部315は、図2のHDD215、RAM214、及びメモリカード218等に相当する。
ダイジェスト再生部316は、記憶部315に記憶された多重化されたデータを読み出し、そこから再生情報を抽出する。そして、ダイジェスト再生部316は、再生情報に従って、動画像データを動画像信号伸張部317で、音声データを音声信号伸張部319でそれぞれ復号させ、表示部318及び音声出力部320から出力する。ダイジェスト再生部316は、図2のCPU204で実行されるソフトウェア処理のアルゴリズムの一つである。
静止画像解析部324は、属性情報生成部309で生成等された情報、又は、シーン解析部310で解析されたシーン情報等に基づいて、撮影した動画像から好適な画像(フレーム)を静止画像として抽出する。具体的な抽出方法等については後述する。抽出した静止画像は、必要に応じて画像圧縮等の処理が行われ、記憶部315に記憶される。静止画像解析部324は、図2のCPU204で実行されるソフトウェア処理のアルゴリズムの一つである。
静止画像信号伸張部325は、記憶部315に記憶されている静止画像のデータを読み出し、それを表示部318に表示する。なお、記憶部315に記憶されている静止画像には、必ずしも画像圧縮等の処理を施す必要はない。静止画像信号伸張部325は、図2の圧縮伸張回路212の伸張機能に相当する。
上記の構成により、ビデオカメラ100は、撮影した動画像から、属性情報に基づいて好ましいシーンを自動的に抽出し、その部分のみを再生等することが可能となる。
なお、図3Aに示す撮影部110は、例えば、図3Bに示すレンズ部300、撮像部301、動画像AD変換部302、及び動画像信号処理部303に相当する。属性情報生成部120は、例えば、属性情報生成部309に相当する。評価部130は、例えば、シーン解析部310に相当する。静止画像抽出部140、閾値変更部150、及び抽出間隔変更部160は、例えば、静止画像解析部324に相当する。記録媒体170は、例えば、記憶部315に相当する。なお、以上の対応関係は、これに限定するものではない。
なお、図2に示されるハードウェア構成図、図3A及び図3Bに示される機能ブロック図は、本発明の実施するための一態様であり、これに限定されるものではない。例えば、図3Bにおいて、シーン解析部310及び再生情報生成部311は、記憶部315にデータを記憶する前に処理を実行している。しかしながら、シーン解析部310及び再生情報生成部311は、圧縮された動画像信号及び圧縮された音声信号と、撮影時の属性情報とを多重化して、一度記憶部315に記憶させ、当該データを記憶部315から読み出した後にシーン解析、又は再生情報の生成等を行うものであっても良い。
また、図2のハードウェア構成図と、図3A及び図3Bの機能ブロック図との対応関係は、上記記載に限定するものではない。上記の説明は、本発明を実施するための一形態として示すものであって、機能構成とハードウェア構成とが異なる関係であってもよい。
<2.撮影したシーンの解析、再生情報の生成>
図4は、ビデオカメラ100が撮影する動画像の構成を示す図である。撮影者が撮影開始を指示し、撮影の終了又は撮影の一時停止を指示するまでに撮影された動画像の単位を「クリップ」とする。撮影者が撮影の開始、撮影の終了又は一時停止を何度も繰り返すと、クリップが複数生成される。図4の例では、各クリップに、クリップ番号(Clip#1〜#N)が付与されている。
一つのクリップは、一つ又は複数の「シーン」から構成される。「シーン」は、論理的につながりのある一続きの動画像である。シーンは、任意に設定することが可能である。例えば、クリップを一つのシーンとして「1クリップ」=「1シーン」と設定してもよい。また、画面が大きく変わることを境として「シーン」を設定してもよい。この場合には、動画像解析部306がフレーム間の動きベクトルを算出し、「動き」の大きさ(変化)が所定の値より大きい場合を、「シーン」の切り替え部分としてもよい。その他の撮影情報等に基づいて「シーン」を区切っても良い。
また、シーン解析部310は、その他の撮影情報等に基づいてシーンを区切ってもよい。例えば、撮影者からのボタン入力により「シーン」を区切っても良い。この場合に、撮影者の明確な意図で「クリップ」内の「シーン」を構成することが可能となる。1つのクリップに複数のシーンが含まれる場合、図4に示すように、各シーンには、シーン番号(Scene#1〜#n)が付与される。
「シーン」は、一つ又は複数の「フレーム」から構成される。「フレーム」は動画像を構成する個々の静止画像である。図4に示すように、各フレームには、フレーム番号(Frame#1〜#n)付与される。
図5は、シーン解析部310が、クリップ内を複数のシーンに分割した場合の例を示す図である。シーン解析部310は、属性情報に含まれる撮影開始時刻及び撮影終了時刻等に基づいてクリップを分割する。図5では、それぞれのシーンを「開始時間」と「終了時間」とで定めているが、フレーム番号等でシーンの開始と終了とを定めても良い。
図6は、シーン解析部310が、それぞれのシーンを評価する際に用いる属性情報の種類と評価値とを対応付けた評価基準を示した図である。例えば、クリップイン(撮影の開始部分)又はクリップアウト(撮影の終了前部分)の部分を動画像の導入部分や重要部分と考えている場合は、撮影された動画像が持つ論理的な意味が高いと推論することができる。この例では、「クリップイン(A)」及び「クリップアウト(F)」に対応付けられた評価値は、100となっている。
その他にも、撮影時のカメラワークとして「ズームアップ(D)」及び「ズームダウン(G)」についても、特定の被写体への注目度を高めるとの観点から評価値を30として対応付けている。このように、シーン解析部310は、予め属性情報の内容と、内容それぞれに対する数値化された評価値とを対応付けた評価基準を持っている。
なお、図6は、評価値が高いほど高い評価(好ましい)であることを示している。シーン解析部310は、図6の属性情報の内容と、評価値との関係に基づいて各シーンを評価する。
なお、一つのシーンに複数の属性情報が与えられている場合、シーン解析部310は、それぞれの属性情報に割り当てられている評価値を加算して、当該シーンの評価値としてもよい。また、一つのシーンに複数の属性情報が与えられている場合、シーン解析部310は、該当する属性情報の中から最も評価の高い評価値を当該シーンの評価値としてもよい。さらに、別の方法として、シーン解析部310は、複数の属性情報の評価値の平均値を、当該シーンの評価値としてもよい。さらに、より詳細に評価を行う場合には、シーンを構成するフレーム毎に評価をしてもよい。
また、シーン解析部310は、評価を好ましい項目(識別子A〜H、X〜Z)についてだけ評価を行う必要はない。例えば、撮影時の手振れ(I)は、動画像の視聴者に見づらい動画像となる可能性がある。こういった属性を持つシーンには、減点(マイナス点)の評価を行うものであってもよい。図6の例では、「手振れ(I)」に対応付けられた評価値は−20、「地面(垂直下方向)撮影(J)」に対応付けられた評価値は−10である。
なお、図6の属性情報の内容と評価値との関係は、一つに限定されるものではない。例えば、属性情報の種類と評価値との組み合わせを予め複数パターン用意しておき、ビデオカメラ100の撮影者が撮影するモード(例えば、風景の撮影、人物(ポートレート)撮影、静物撮影等)によって切り換えるものであってもよい。また、予め複数の組み合わせデータを備えておき、撮影モードによって、複数のデータを合成(それぞれの評価値を一定の比率で加算等)したものであってもよい。この場合には、合成の比率を変えることで、動的に属性情報と評価との組み合わせデータを変更することが可能となる。
さらには、ユーザが、外部入力部323などを利用して、属性情報の項目及び評価値を変更してもよい。これにより、ユーザがより重要と考えている属性に対する評価を高めることができる。その結果、シーン解析部310は、よりユーザの意向に沿った評価を行うことができる。
図7は、シーン解析部310が、各シーンに評価値を割り当てた結果を示した図である。図7は、横軸に時間(シーン)を、縦軸に各シーンの評価値を示している。また、図7では、評価値が80〜100のシーンを「A」、評価値が50〜79のシーンを「B」、評価値が35〜49のシーンを「C」、評価値が26〜34のシーンを「D」、評価値が0〜25のシーンを「E」、評価値が−1〜−10までのシーンを「J」、評価値が−11以下のシーンを「I」で表している。
図7の時間0付近の「A」の符号がつけられているシーンは、撮影を開始した直後であるため「クリップイン(A)」の属性を持つ。図6に従えば、「クリップイン(A)」属性の評価値は、100である。
「B」の符号が付けられているシーンは、「特定音声の抽出(B)」の属性を持つ。特定音声の抽出は、音声解析部312等により得られるものである。図6に従えば、「特定音声の抽出(B)」属性の評価値は70である。
「C」の符号が付けられているシーンは、撮影者がカメラをパン、ティルト等のビデオカメラ100本体を動かして撮影した後に、静止して撮影することを意味する「(カメラワーク後に)静止して撮影(C)」の属性を持つ。このようなシーンは、静止して撮影する際の被写体に、動画像としての価値が高いと判断できる。図6に従えば、「(カメラワーク後に)静止して撮影(C)」属性の評価値は40である。
「D」の符号が付けられているシーンは、ビデオカメラをズームアップ又はズームダウン等して撮影しているシーンである。図6に従えば、「ズームアップ(D)」及び「ズームダウン(E)」属性の評価値は30である。
ただし、ズームアップとズームダウンとで評価値を変えることも可能である。例えば、ズームアップに対する評価値をズームダウンに対する評価値よりも高く設定してもよい。これにより、ズームアップで撮影されるシーン、つまり動画像の拡大倍率が大きくなるシーン(拡大されて撮影される被写体があるシーン)、については、比較的高い評価値を割り当てても良い。逆に、動画像の拡大倍率が小さくなるシーンについては、比較的低い評価値を割り当てることも可能である。
「E」の符号が付けられているシーンは、ビデオカメラ100が「パン、ティルト(E)」等の動きをともなった撮影(カメラワーク)を行ったシーンである。図6に従えば、「パン、ティルト(E)」属性の評価値は25である。
また、「I」の符号が付けられているシーンは、撮影時に「手振れ(I)」を伴って撮影されているシーンを示している。これらのシーンについては、動画像を視聴した際に画面が揺れる等、見づらいシーンとなっている可能性があるので、減点している。図6に従えば、「手振れ(I)」属性の評価値は、−20である。
また、「J」の符号が付けられているシーンは、撮影者が、撮影を停止又は一時中断せずに誤ってカメラを持ったまま移動等している場合に起こりやすい、地面(垂直下方向)撮影(J)」をし続けているようなシーンを示す。図6に従えば、「地面(垂直下方向)撮影(J)」属性の評価値は、−10である。
なお、同様の撮影ミスとして、低照度(ローライト)での撮影、逆光での撮影、ピンボケ(フォーカスはずれ)での撮影、白とびでの撮影、黒沈みでの撮影などがある。これらの撮影ミスについても、手振れ及び地面撮影と同様にマイナスの評価値で表現し、減点することができる。このように、撮影された画像の価値を高める属性情報(成功撮影)に正の評価値を対応付け、撮影された画像の価値を低下させる属性情報(ミス撮影)に負の評価値を対応付けてもよい。
この場合における各シーンの評価は、当該シーンの全ての属性情報(成功撮影及びミス撮影)に対応付けられた評価値を合計する。そして、当該合計された評価値と評価閾値とを比較し、合計された評価値が評価閾値を超えた場合に、静止画像を抽出するようにしてもよい。
以上より、シーン解析部310は、各シーンについて評価値を割り当てる。なお、図7の例では、シーンを単位として評価値を割り当てたが、シーン解析部310は、クリップ単位、又は、フレーム単位で上記の評価値の割り当てを行ってもよい。
シーン解析部310は、さらに、各シーンに割り当てられた評価値に基づいて、好ましいシーンのみを抽出する。具体的には、評価値が所定の閾値(評価閾値)を超えるような、評価の高いシーンのみを抽出する。例えば、図7において評価閾値を50とした場合、この評価閾値よりも高い評価を得ている(i)〜(iV)の部分のシーンのみを抽出する。
なお、抽出方法については、上記の方法以外にも、又、上記の方法と組み合わせて、抽出されたシーンの合計再生時間が所定の時間以内であること、又は、シーンの評価値が一定以上であること等、様々な観点で抽出をすることが可能である。
再生情報生成部311は、シーン解析部310で抽出されたシーンに従って、動画像再生の手順及び方法を示す再生情報を生成する。この再生情報とは、例えば、図8に示すような、再生対象となるシーンの開始時刻と終了時刻とで示されるものであってもよい。この場合、各シーンの中における代表的な静止画像(シーン中における最も評価の高い静止画像等)を特定するための「代表時間」等を別途記憶しておくと、参照用画面の検索にも有効である。
また、別の方法として、これらの動画像を記憶した記憶部315の記憶方法にしたがったシーン特定方法であってもよい。具体的には、各シーンが記憶部315にファイル単位で記憶されている場合等は、このファイルを識別することで、特定のシーンのみを選択して再生することが可能となる。
なお、再生情報の管理は上記の内容に限られず、他の方法であってもよい。例えば、フレーム番号による指定などでも可能である。また、再生情報生成部311が生成した再生情報を、MPEG等のTS(Transport Stream)として多重化部314で多重化する場合等には、多重化時に用いられる時刻情報、より具体的には、PTS(Presentation Time Stamp)またはDTS(Decoding Time Stamp)等を用いて再生情報を記録することも可能である。H.264の場合にも同様に、所定の多重化時の時刻情報を用いてもよい。
さらに、一部のビデオカメラのデータ記録方式として用いられているAVCHD(Advanced Video Codec High Definition)等の規格を用いて動画像データを記録する場合には、PlayListファイル等に再生情報を記録する方法を用いても良い。
以上により、撮影した動画像からダイジェスト動画像(要約された映像)を自動的に生成することが可能となる。
<3.静止画像の自動抽出について>
<3.1動画像のシーン毎の評価を利用する場合>
静止画像解析部324は、シーン解析部310からシーンごとの評価値を取得し、その評価値に基づいて取得すべき静止画像を決定する。
まず、静止画像解析部324は、シーン解析部310がシーン毎に行った図7の評価値を取得する。次に、静止画像解析部324は、シーン毎の評価結果に基づいて、評価値が所定の評価閾値より大きいシーンを、静止画像取得対象のシーンとして決定する。図7の例では、例えば評価値が50以上のシーンを静止画像取得の対象シーンとすると、「A」又は「B」の符号が付されたシーンが対象となる。この場合、静止画像解析部324は、これらのシーンの中から、「A」又は「B」の符号が付されたフレームを特定し、それらを静止画像として抽出する。
静止画像となるフレームをシーンから抽出する方法は、例えば、シーンを代表する代表画像(図6及び図8の「代表時間」で特定される静止画像)を静止画像として抽出してもよい。また、それ以外にも、シーンの中で撮影時のカメラの動きが比較的小さいフレームを抽出する方法がある。この場合は、撮影時のカメラの動きが小さいことから、比較的手振れの少ない静止画像を抽出することが可能となる。静止画像解析部324は、抽出した静止画像を、記憶部315に静止画像データとして記憶させる。
なお、静止画像解析部324は、抽出対象となる静止画像データを、動画像信号処理部303から出力されたデータ、又は動画像信号圧縮部304から出力されたデータのいずれからも取得することが可能である。しかし、動画像信号圧縮部304で符号化された後の動画像データから静止画像を抽出すると、符号化の際に一部のデータ(画像に関わるデータ)が削除される場合がある。そのため好ましくは、符号化される前の動画像信号処理部303から出力されたデータから静止画像データを抽出することが望ましい。
また、静止画像解析部324は、抽出した静止画像データをJPEG(Joint Photographics Experts Group)等の静止画像圧縮技術を用いて記憶部315に記憶させてもよい。この場合には、非圧縮の場合と比較してデータ量を削減できるため、記憶部315に比較的高速に記憶処理を行うことが可能となる。
静止画像信号伸張部325は、記憶部315に記憶された静止画像データを読み出し、表示部318に出力する。また、静止画像データにJPEG等の圧縮処理が施されている場合には、これらを伸張処理してから表示部318に出力する。
本実施の形態に示した構成により、ビデオカメラ100は、動画像を撮影しながら、または、動画像撮影後に、シーン毎の評価を行う。そして、この評価結果を利用して、ダイジェスト(要約)再生の情報を生成するとともに、好適な静止画像の自動抽出も行うことが可能となる。
<3.2動画像のシーン毎の評価とは独立した評価を利用する場合>
上記の例では、ダイジェスト動画像を生成する場合のシーン毎の評価と、静止画像抽出の評価とを同じ評価基準で行っていた。しかしながら、動画像と静止画像とでは性質が異なるので、異なる評価基準で評価することが考えられる。例えば、ダイジェスト動画像の場合、音声を含んで記録することが考えられる。一方、静止画像の場合は、音声の記録はないものとして考えられる。そのため、動画像と静止画像とでは、音声データの価値が異なってくる。
そこで、本実施の形態の静止画像解析部324では、図9に示されるような属性の種類と評価値との関係を用いる。この場合は、例えば、「特定音声の抽出(B)」については、シーン評価の際に用いた図6の評価基準(70点)と図9の評価基準(10点)とで、大きく異なる内容となっている。
また、動画像の撮影中には、カメラを動作させながら撮影することも十分ありえる。一方、静止画像の場合、撮影する瞬間の画像のブレ等は、動画像の場合より好ましくないと考えられる場合がある。このような観点から、「(カメラワーク後に)静止して撮影(C)」については、図6の評価基準(40点)と図9の評価基準(80点)とで、大きく異なる内容となっている。また同様に、「ズームアップ(D)」、及び「パン、ティルト(E)」については、図6の評価基準(30点)及び(25点)と、図9の評価基準(40点)及び(5点)とで、大きく異なる内容となっている。
静止画像解析部324は、図7と同様に、図9に例示する静止画像抽出用の評価基準に基づいて、撮影した動画像をフレーム毎に判定する。図10は、その一例である。図10は、フレーム毎に属性情報に基づいて評価した評価値を時間的に並べたグラフである。そして、静止画像解析部324は、図10に示す静止画像抽出用の評価に基づいて、好適な静止画像の抽出を行う。
図10において、静止画像解析部324は、評価値が45より大きいシーンから静止画像を抽出すると仮定した場合、0:13:30〜0:15:20の間(i)と、0:20:50〜0:21:50の間(ii)と、0:23:00〜0:23:45の間(iii)とが対象シーンとなる。この場合、静止画像解析部324は、それぞれの区間から静止画像を抽出する。
例えば、0:13:30〜0:15:20の間(i)から静止画像を抽出する場合、静止画像解析部324は、動画像撮影と同時に図10に示す評価を行う。その場合、静止画像解析部324は、0:10:00頃から評価値が増加し、0:13:45頃に評価値が第1回目の頂点になり、その後0:14:00まで評価値は減少することを検出する。そこで、静止画像解析部324は、評価値が所定の値(この場合は、45)より大きく、かつ、その評価値の変動率(増加率)が一定の大きさから小さくなった場合に、その時点での静止画像を撮影した動画像から抽出する。
静止画像解析部324は、第1回目の頂点となる0:13:45頃の動画像から静止画像を抽出する。こうすることで、図10に示される評価値のグラフにおいて、第1回目の頂点近傍の静止画像として好適な画像を抽出することが可能となる。
なお、0:13:30〜0:15:20の間(i)では、0:13:45以降の0:14:40頃に、再度評価値が上がり、第2回目の頂点となる。この場合、静止画像解析部324は、同様に0:14:45頃の動画像から静止画像を抽出するものであってもよい。
<3.3静止画像の自動抽出の例外について>
図10の場合において、シーン0:13:30〜0:15:20の間(i)では、0:13:45頃の動画像から抽出した静止画像と、0:14:45頃の動画像から抽出した静止画像とは、同一のシーンから抽出された静止画像である場合が多い。つまり、評価値だけで静止画像の抽出を行うと、抽出される複数の静止画像は、その被写体、被写体の背景、又は画角に対する構図が似通っている(類似の静止画像となる)場合がある。このような場合には、例え静止画像解析部324による評価が高評価であったとしても、類似の静止画像を抽出するのでは、不便な場合がある。
そこで、本実施の形態に係る静止画像解析部324は、先に静止画像として抽出され、記憶部315に記憶された第1の静止画像と、後から抽出された第2の静止画像との類似性を算出する。そして、その類似性の算出結果に基づいて、第1の静止画像及び第2の静止画像のいずれかのみを、記憶部315に記憶させることも考える。
この場合、静止画像解析部324は、例えば、図10の評価を行った際の判断基準となった属性情報の種類等を比較するによって、両静止画像の類似性を判断することが考えられる。属性情報がすべて同一の場合は、両者に大きな差異が生じない場合があるからである。反対に属性情報が大きく異なる場合は、両者の画像内容が大きく異なることが考えられる。そのため、評価を行なった際の判断基準として用いた属性情報を利用することで、類似性を算出することが可能である。
さらに、静止画像解析部324は、両静止画像の画像内容を比較することも可能である。例えば、両静止画像の画像内容から輝度信号を抽出し、その輝度信号を両画像で比較することで、画像としての変化の大きさを検出することも可能である。
また、これ以外にも、両画像の構図を比較することで、差異の大きさを検出することも可能である。例えば、予め画像を所定の格子状に区切り、それぞれの格子(ブロック)単位で画像(画素値)を比較することで、両画像の構図の変化量を検出することも可能である。
この場合には、各格子単位で第1の静止画像と第2の静止画像との画素値を比較し、相違する画素が所定の数以上となる格子の数を算出する。そして、算出された格子数が予め定めた閾値以上あった場合に、構図が変化した(類似性が低い)として、両静止画像を抽出してもよい。
また、第1の静止画像と第2の静止画像との画素値を格子毎に比較し、相違する画素が所定の数以上となる格子の数が予め定めた閾値以上で、かつ、第1の静止画像と第2の静止画像との時間差(フレーム数の差)が所定内である場合に、構図が変化したとしてもよい。つまり、第1及び第2の静止画像の時間的な距離が近いほど閾値を小さくし、時間的な距離遠いほど閾値を大きくしてもよい。
さらに、それぞれの静止画像が属する動画像のシーンを比較することで、類似性を検討することも可能である。この場合は、静止画像を抽出した画像(フレーム)が属するシーンを特定し、そのシーンの差異に基づいて類似性を算出するものであってもよい。また、動画像の内容が大きく変わる位置をシーンの区切りとする場合には、第1及び第2の静止画像が同一のシーンに含まれていれば一方のみを記録し、第1及び第2の静止画像が互いに異なるシーンに含まれていれば両方を記録することもできる。
また、静止画像解析部324は、第1及び第2の静止画像の撮影時刻の差を考慮することも可能である。これは、第1及び第2の静止画像の撮影時間の差が僅かであればあるほど、両静止画像の内容が類似する可能性があるからである。例えば、ビデオカメラ100で動画像を撮影していて、被写体やビデオカメラ100に何も変化がない場合、評価値はあまり変動しない可能性が高くなることが考えられる。そのため、両静止画像の撮影時間も類似性の算出に考慮することが可能である。
これをより発展させた方法として、人物の顔を被写体とした場合に以下のように適用することができる。つまり、人物の顔を認識する技術である認識技術と、構図の変化量及び時間差等の情報を用いるものである。この技術を利用する方法を検討する。
静止画像解析部324は、図9に示すように、顔検出及び顔識別を行うことが可能である。この場合、静止画像解析部324は、予め登録した人物Aの顔を撮影対象から識別する。人物Aの顔に関する情報(顔情報)は、例えば、予め記憶部315等に記憶しておく。そして、静止画像解析部324は、撮影した動画像に写る被写体が、記憶部315に記憶された顔情報に基づいて、人物Aであるか否かを判定する。
なお、図9に示されるように、人物Aが被写体として写っている場合の評価値を100とし、人物Bが写っている場合の評価値を80とし、人物A、人物B以外の登録されていない人物が写っている場合の評価値を40とする。この場合、撮影した映像に人物A、人物B、その他の人物が写っている場合は、最も高い評価値を得られる人物Aを基準に評価値を設定してもよい。
この場合、登録されている人物A及び人物Bは、撮影者にとって非常に関心の高い人物(被写体)と考えられる。そこで、静止画像の自動抽出にも、これらの関心の高さを反映したものであることが好ましい。図11はその一例である。図11は、被写体となる人物を識別する人物情報と、構図の変化量とに基づいて定められる最低待機時間の例を示す図である。なお、「最低待機時間」とは、静止画像解析部324が、第1の静止画像を撮影してから、第2の静止画像を撮影するまでに空けるべき時間(撮影の頻度)を示す。
図11に示されるように、人物Aの顔(最も評価値が高い)が被写体として写っている、かつ、構図の変化量が比較的大きい場合(構図の変化量が予め定めた変化量よりも大きい場合)、静止画像解析部324は、第1の静止画像を取得してから第2の静止画像を取得するまでの最低待機時間を10秒とする。同様に、人物Bの顔が写っている場合の最低待機時間を30秒、その他の人物の顔が写っている場合の最低待機時間を60秒としている。一方、構図の変化量が比較的小さい場合(構図の変化量が予め定めた変化量よりも小さい場合)における最低待機時間は、人物Aの顔が写っていたとしても60秒、人物Bの顔の場合は120秒、その他の人物の顔の場合は300秒とする。
つまり、図9に示される評価基準において、高い評価値が対応付けられている人物が写っているほど、最低待機時間を短くする。また、構図の変化量が大きいほど、最低待機時間を短くすればよい。
ここで、構図の変化量が比較的小さい場合に、静止画像解析部324が自動的に図9等の評価値のみだけで静止画像を取得すると、取得された静止画像は類似したものとなり、変化が少ないため面白みが少ない場合がある。その反面、構図の変化量が少ないことで、静止画像解析部324が全く静止画像を取得しないと、長時間の撮影にも拘わらず、静止画像はほとんど取得できない場合も生じる。
上記のような事象を防ぐため、静止画像解析部324は、撮影する構図の変化量と被写体として捉えられる人物の顔(人物情報)との少なくとも一方に基づいて、静止画像の取得間隔を変化させるものであってもよい。これにより、より関心のある人物の顔が被写体として写っている場合はより多くの静止画像を取得し、関心の低い人物の場合ほど取得する静止画像の数を減らすことが出来る。また、構図の変化量をも考慮することで、最も関心のある人物について、変化に富んだ静止画像をより多く取得できる。
また、図11の表は、ビデオカメラ100に予め複数の表を記憶させておき、撮影モード(例えば、人物撮影、動体被写体の撮影、マクロ撮影、風景の撮影)の切り替えにしたがって、その表(例えば、人物撮影用の表、動物被写体の撮影用の表等)を切替えるものであっても良い。この場合には、被写体の特性に応じてより好適に静止画像を取得することが可能となる。また、表を切替えるのではなく、複数の表を組み合わせて一つの表を撮影モード等に応じて生成して利用するものであってもよい。
なお、図11の構図の変化量が比較的小さい場合において、人物Aの顔、人物Bの顔、その他の人物の顔の場合の最低待機時間を、60秒、120秒、300秒とした。これは、固定値であってもよいし、動的に変化させるものであってもよい。例えば、第1の静止画像を撮影してから第2の静止画像を取得するまでの最低待機時間を、それぞれ60秒、120秒、300秒とし、第2の静止画像を取得してから第3の静止画像を取得するまでの最低待機時間を、それぞれ120秒、240秒、600秒とする等、静止画像を取得するたびに最低待機時間を変化させても良い。こうすることで、類似の構図が続く場合には、似通った静止画像の取得をより抑制することが可能となる。
図12は、構図の変化量が所定の値以下の状態(つまり、構図がほとんど変化しない)が継続している場合において、撮影する静止画像の枚数と、最低待機時間との関係の概略を示した図である。図12の実線は、撮影された動画像に人物が写っている場合における最低待機時間の時間変化を示している。同様に、図12の破線は、撮影された動画像に人物が写っていない場合における最低待機時間の時間変化を示している。
図12を参照すれば明らかなように、実線及び破線で示される最低待機時間は、いずれも静止画像が抽出される度に長くなっている。これにより、構図の変化が少ない状態が長時間継続する場合には、前半部分における抽出頻度を高く、後半部分における抽出頻度を低くすることができる。
一方、図12に示される最低待機時間の1回当たりの増加幅は、実線と破線とで異なっている。つまり、人物が写っている場合(実線)は、人物が写っていない場合(破線)より、増加幅が小さく設定されている。なお、図9の評価基準を用いて、評価値の高い人物が写っているほど、増加幅を小さくするようにしてもよい。これにより、関心の高い人物の抽出頻度を高く、関心の低い人物又は人物が写っていない場合の抽出頻度を低くすることができる。
また、図11以外の方法として、図10に示す静止画像の評価において、シーン(フレーム)を判定する際の評価閾値を、静止画像を抽出する度に変化させるものであってもよい。例えば、構図の変化量が所定の値以下の状態が継続している場合において、第1の静止画像を取得する際の評価閾値を40点、第2の静止画像を取得する際の評価閾値を50点にしてもよい。つまり、第1の静止画像を取得する際の評価閾値より大きい値、又は、同じ値を第2の静止画像を取得する際の評価閾値に設定する。これにより、被写体に人物の顔が写っていない場合の他のケースにも構図の変化量の大きさを考慮して、より好適な静止画像の取得を自動的に行うことが可能となる。
この場合、図12に示される最低待機時間の時間変化を、評価閾値の時間変化にも応用することができる。図12の実線は、撮影された動画像に人物の顔が写っている場合の評価閾値の時間変化を示している。同様に、図2の破線は、撮影された動画像に人物の顔が写っていない場合の評価閾値の時間変化を示している。
図12のように、被写体の内容によって、その評価閾値を変えるものであってもよい。つまり、構図の変化量が所定の値以下の状態が継続している場合において、静止画像が抽出される度に評価閾値を所定の増加幅ずつ増加させてもよい。そして、動画像に写っている人物の評価値が高い程、1回あたりの増加幅を小さくしてもよい。
なお、撮影する動画像の構図が大きく変わった場合、すなわち、構図の変化量が所定量よりも大きい場合は、上記の変化させた最低待機時間、または、評価閾値の設定をリセット(すなわち、予め定めた初期値を設定)してもよい。
なお、被写体として予め登録された人物が写っている場合と、写っていない場合とで、リセットのタイミングを変えても良い。例えば、最低待機時間及び評価閾値には、所定の時間毎に予め定められた初期値が設定(リセット処理)される。そして、動画像に評価値の高い人物が写っているほど、及び/又は、構図の変化量が大きいほど、所定の時間(リセット間隔)を短くすることが考えられる。
次に、図3A及び図12を参照して、ビデオカメラ100における静止画像抽出処理を説明する。なお、下記の例では、動画像を構成するシーン毎に評価を行う例を示すが、これに限ることなく、例えば、フィールド毎に評価を行ってもよい。
まず、静止画抽出処理は、動画像の撮影開始と共に開始される(S11でYes)。つまり、撮影者が図2に示される入力ボタン208を押下する等して、撮影の開始を指示したことによって開始される。そして、撮影が開始されると、撮影部110で撮影された動画像は、記録媒体170に記録されると共に、属性情報生成部120及び静止画像抽出部140に出力される。
次に、属性情報生成部120は、撮影部110で撮影された動画像の属性情報を、シーン毎に生成する(S12)。なお、ここで生成される属性情報には、例えば、図9に示される評価基準の「属性情報種類」に対応する情報の他、当該シーンの構図の変化量等が含まれる。そして、生成された属性情報は、評価部130、閾値変更部150、及び抽出間隔変更部160に出力される。
上記の構図の変化量は、前述の方法によって算出する。このとき、例えば、現在処理対象となっているシーンの代表画像と、その直線のシーンの代表画像との間で構図の変化量を算出してもよい。または、現在処理対象となっているシーンの代表画像と、直前に抽出された静止画像との間で構図の変化量を算出してもよい。
次に、評価部130は、属性情報生成部120で生成された属性情報を、例えば、図9に示される評価基準に当てはめることによって、撮影部110で撮影された動画像をフレーム毎に評価する(S13)。算出された評価値は、静止画像抽出部140に出力される。
次に、静止画像抽出部140は、評価部130で算出された評価値を、評価閾値と比較する(S14)。なお、静止画像抽出処理開始時における評価閾値には、予め定められた初期値が設定されている。そして、評価値が評価閾値以下の場合(S14でNo)、静止画像抽出部140は、当該評価値に対応するシーンから静止画像を抽出することなく、以降の処理(S15〜S18)をスキップする。
一方、評価値が評価閾値を超えた場合(S14でYes)、当該シーンの中に静止画像として抽出すべき画像が存在すると判断する。ただし、静止画像を実際に抽出する前に、抽出間隔変更部160によって、最低待機時間算出処理が実行される(S15)。この例では、図11を用いて最低待機時間を算出するものとする。つまり、属性情報生成部120で生成された属性情報に含まれる人物情報及び構図の変化量に基づいて、最低待機時間を算出する。算出された最低待機時間は、静止画像抽出部140に出力される。一方、未だ静止画像の抽出が行われていない場合は、0(sec)が出力される。
次に、静止画像抽出部140は、直前に静止画像の抽出を行ってから現在までの経過時間が、最低待機時間を上回っているか否かを判断する(S16)。そして、経過時間が最低待機時間以下である場合(S16でNo)、静止画像抽出部140は、以降の処理(S17〜S18)をスキップする。
一方、経過時間が最低待機時間を上回っている場合(S16でYes)、静止画像抽出部140は、該当するシーンから静止画像を抽出する(S17)。ここで抽出される静止画像は、例えば、シーン中の代表時間に相当するフレームである。そして、抽出された画像は、記録媒体170に記録される。
次に、閾値変更部150は、評価閾値算出処理を実行する(S18)。この例では、図12を用いて評価閾値を算出するものとする。つまり、属性情報に含まれる構図の変化量が所定の値以下の状態が継続している間、静止画像が抽出される(S17)度に評価閾値を所定の増加幅ずつ増加させる。そして、この増加幅は、属性情報に含まれる人物情報に対応付けられた評価値が高い程、小さな値となるように制御する。一方、構図の変化量が所定の値を上回った場合、閾値変更部150は、予め定められた初期値を出力する。
そして、ビデオカメラ100は、上記の処理(S12〜S18)を、動画像を構成する全てのシーンに対して実行する(S19)。これにより、好適な静止画像を自動的に抽出することができる。
なお、上記の最低待機時間算出処理(S15)は、最低待機時間を変更する処理の一例であって、これに限定されない。他の例としては、例えば、図12を用いて最低待機時間を算出することができる。具体的な処理内容は既に説明したので、省略する。また、この場合の最低待機時間算出処理は、静止画像を抽出(S17)した後に実行される。
また、上記の評価閾値算出処理(S18)は、評価閾値を変更する処理の一例であって、これに限定されない。他の例としては、例えば、図11に類する表を用いて評価閾値を算出することができる。つまり、動画像に写っている人物と、構図の変化量と、評価閾値とを対応付けた対応表を予め用意しておく。この対応表は、動画像に写っている人物の評価値が高い程、又は構図の変化量が大きい程、評価閾値が小さくなるように調整されている。そして、閾値変更部150は、属性情報に含まれる人物情報及び構図の変化量に基づいて、この対応表から新たな評価閾値を決定し、静止画像抽出部140に出力してもよい。なお、この場合の評価閾値算出処理は、算出した評価値と評価閾値との比較(S14)の前に実行される。
さらに、例えば静止画像を抽出する処理(S14〜S18)の後に、定期的に評価閾値をリセットする処理を追加してもよい。具体的には、評価閾値算出処理(S18)で評価閾値が初期値から変更された時点からの経過時間を監視し、所定の時間経過したら評価閾値を初期値に戻す処理を実行してもよい。そして、所定の時間は、例えば、動画像に写っている人物の評価値が高い程、又は構図の変化量が大きい程、短くなるようにしてもよい。また、最低待機時間を定期的にリセットする処理を追加してもよい。具体的なリセット方法は、評価閾値のリセット方法と共通するので、説明は省略する。
本実施の形態に示した構成により、ビデオカメラ100は、動画像を撮影しながら、シーン毎の評価を行い、当該評価結果に基づいて、ダイジェスト(要約)再生の情報を生成するとともに、好適な静止画像の自動抽出も行うことが可能となる。
また、本実施の形態により、抽出する静止画像が複数ある場合に、類似性の高い静止画像については無駄な静止画像の抽出を抑制することが可能となる。
なお、本実施の形態ではビデオカメラ100を用いた場合を例として説明したが、本発明はこの実施の態様に限定されるものではない。例えば、デジタルスチルカメラにおいて、本発明を実施することも可能である。また、ネットワークカメラのような監視カメラ等においても、本発明を実施することができる。
さらに、本発明は、上記の実施の態様を方法として実現することができる。この場合は、上記の実施の形態等で示したビデオカメラ100等における、制御方法として実現することも可能である。
(その他変形例)
なお、本発明を上記実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成要素を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、コンピュータプログラムまたはデジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されているデジタル信号であるとしてもよい。
また、本発明は、コンピュータプログラムまたはデジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、メモリは、上記コンピュータプログラムを記憶しており、マイクロプロセッサは、コンピュータプログラムにしたがって動作するとしてもよい。
また、プログラムまたはデジタル信号を記録媒体に記録して移送することにより、またはプログラムまたはデジタル信号をネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
上記実施の形態及び上記変形例をそれぞれ組み合わせてもよい。
以上、図面を参照してこの発明の実施形態を説明したが、この発明は、図示した実施形態のものに限定されない。図示した実施形態に対して、この発明と同一の範囲内において、あるいは均等の範囲内において、種々の修正や変形を加えることが可能である。
本発明は、動画像を撮影しながら好適な静止画像を自動的に抽出(記録)する画像撮影装置に、有利に利用される。
100 ビデオカメラ
110 撮影部
120 属性情報生成部
130 評価部
140 静止画像抽出部
150 閾値変更部
160 抽出間隔変更部
170 記録媒体
200 レンズ群
201 撮像素子
202 動画像ADC
203 動画像信号変換回路
204 CPU
205 クロック
206 レンズ制御モジュール
206a レンズ制御用モータ
206b レンズ位置センサ
207 姿勢検出センサ
207a,308a 加速度センサ
207b,308b 角速度センサ
207c,308c 仰角・俯角センサ
208 入力ボタン
209 ディスプレイ
210 スピーカー
211 出力I/F
212 圧縮伸張回路
213 ROM
214 RAM
215 HDD
216 音声ADC
217 マイクロフォン
218 メモリカード
300 レンズ部
301 撮像部
302 動画像AD変換部
303 動画像信号処理部
304 動画像信号圧縮部
305 撮像制御部
306 動画像解析部
307 レンズ制御部
307a ズーム制御部
307b フォーカス制御部
307c 手振れ補正制御部
308 姿勢検出部
309 属性情報生成部
310 シーン解析部
311 再生情報生成部
312 音声解析部
313 音声信号圧縮部
314 多重化部
315 記憶部
316 ダイジェスト再生部
317 動画像信号伸張部
318 表示部
319 音声信号伸張部
320 音声出力部
321 音声AD変換部
322 マイク部
323 外部入力部
324 静止画像解析部
325 静止画像信号伸張部

Claims (12)

  1. 画像撮影装置であって、
    動画像を撮影する撮影部と、
    前記撮影部で撮影された前記動画像の特徴を示す属性情報を生成する属性情報生成部と、
    前記属性情報生成部で生成された前記属性情報を予め定められた評価基準に当てはめることによって、前記動画像の評価値を所定の時間幅毎に算出する評価部と、
    前記評価部で算出された前記評価値が評価閾値を超えた場合に、前記動画像のうちの当該評価値に対応する前記時間幅から静止画像を抽出する静止画像抽出部と、
    前記属性情報に含まれる情報のうち、前記動画像に含まれる人物を識別する人物情報、及び前記動画像の構図の変化量の少なくとも一方に基づいて、前記評価閾値を変更する閾値変更部とを備える
    画像撮影装置。
  2. 前記閾値変更部は、前記構図の変化量が所定の値以下の状態が継続している間、前記静止画像抽出部で前記静止画像が抽出される度に、前記評価閾値を所定の増加幅ずつ増加させる
    請求項1に記載の画像撮影装置。
  3. 前記評価基準には、前記人物情報と、前記動画像に当該人物が含まれていた場合の前記評価値との対応関係が含まれ、
    前記閾値変更部は、前記属性情報に含まれる前記人物情報に対応付けられた前記評価値が高い程、前記所定の増加幅を小さくする
    請求項2に記載の画像撮影装置。
  4. 前記閾値変更部は、
    所定の時間毎に、予め定められた初期値を前記評価閾値に設定し、
    さらに、前記人物情報及び前記構図の変化量の少なくとも一方に基づいて、前記所定の時間を変更する
    請求項1〜3のいずれか1項に記載の画像撮影装置。
  5. 前記静止画像抽出部は、第1の静止画像を抽出してから、少なくとも最低待機時間を経過した後に第2の静止画像を抽出し、
    該画像撮影装置は、さらに、前記人物情報及び前記構図の変化量の少なくとも一方に基づいて、前記最低待機時間を変更する抽出間隔変更部を備える
    請求項1〜4のいずれか1項に記載の画像撮影装置。
  6. 前記評価基準には、前記人物情報と、前記動画像に当該人物が含まれていた場合の前記評価値との対応関係が含まれ、
    前記抽出間隔変更部は、前記属性情報に含まれる前記人物情報に対応付けられた前記評価値が高い程、前記最低待機時間を短くする
    請求項5に記載の画像撮影装置。
  7. 前記抽出間隔変更部は、前記構図の変化量が大きい程、前記最低待機時間を短くする
    請求項5又は6に記載の画像撮影装置。
  8. 前記抽出間隔変更部は、前記構図の変化量が所定の値以下の状態が継続している間、前記静止画像抽出部で前記静止画像が抽出される度に、前記最低待機時間を所定の増加幅ずつ増加させる
    請求項5に記載の画像撮影装置。
  9. 前記抽出間隔変更部は、前記構図の変化量が所定の値を上回った場合に、前記最低待機時間に予め定められた初期値を設定する
    請求項5〜8のいずれか1項に記載の画像撮影装置。
  10. 画像撮影方法であって、
    動画像を撮影する撮影ステップと、
    前記撮影ステップで撮影された前記動画像の特徴を示す属性情報を生成する属性情報生成ステップと、
    前記属性情報生成ステップで生成された前記属性情報を予め定められた評価基準に当てはめることによって、前記動画像の評価値を所定の時間幅毎に算出する評価ステップと、
    前記評価ステップで算出された前記評価値が評価閾値を超えた場合に、前記動画像のうちの当該評価値に対応する前記時間幅から静止画像を抽出する静止画像抽出ステップと、
    前記属性情報に含まれる情報のうち、前記動画像に含まれる人物を識別する人物情報、及び前記動画像の構図の変化量の少なくとも一方に基づいて、前記評価閾値を変更する閾値変更ステップとを含む
    画像撮影方法。
  11. コンピュータに、画像を撮影させるプログラムであって、
    動画像を撮影する撮影ステップと、
    前記撮影ステップで撮影された前記動画像の特徴を示す属性情報を生成する属性情報生成ステップと、
    前記属性情報生成ステップで生成された前記属性情報を予め定められた評価基準に当てはめることによって、前記動画像の評価値を所定の時間幅毎に算出する評価ステップと、
    前記評価ステップで算出された前記評価値が評価閾値を超えた場合に、前記動画像のうちの当該評価値に対応する前記時間幅から静止画像を抽出する静止画像抽出ステップと、
    前記属性情報に含まれる情報のうち、前記動画像に含まれる人物を識別する人物情報、及び前記動画像の構図の変化量の少なくとも一方に基づいて、前記評価閾値を変更する閾値変更ステップとをコンピュータに実行させる
    プログラム。
  12. 集積回路であって、
    動画像を撮影する撮影部と、
    前記撮影部で撮影された前記動画像の特徴を示す属性情報を生成する属性情報生成部と、
    前記属性情報生成部で生成された前記属性情報を予め定められた評価基準に当てはめることによって、前記動画像の評価値を所定の時間幅毎に算出する評価部と、
    前記評価部で算出された前記評価値が評価閾値を超えた場合に、前記動画像のうちの当該評価値に対応する前記時間幅から静止画像を抽出する静止画像抽出部と、
    前記属性情報に含まれる情報のうち、前記動画像に含まれる人物を識別する人物情報、及び前記動画像の構図の変化量の少なくとも一方に基づいて、前記評価閾値を変更する閾値変更部とを備える
    集積回路。
JP2011508239A 2009-04-07 2010-04-06 画像撮影装置、画像撮影方法、プログラム、及び集積回路 Active JP5456023B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011508239A JP5456023B2 (ja) 2009-04-07 2010-04-06 画像撮影装置、画像撮影方法、プログラム、及び集積回路

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2009092621 2009-04-07
JP2009092621 2009-04-07
JP2010022940 2010-02-04
JP2010022940 2010-02-04
PCT/JP2010/002498 WO2010116715A1 (ja) 2009-04-07 2010-04-06 画像撮影装置、画像撮影方法、プログラム、及び集積回路
JP2011508239A JP5456023B2 (ja) 2009-04-07 2010-04-06 画像撮影装置、画像撮影方法、プログラム、及び集積回路

Publications (2)

Publication Number Publication Date
JPWO2010116715A1 JPWO2010116715A1 (ja) 2012-10-18
JP5456023B2 true JP5456023B2 (ja) 2014-03-26

Family

ID=42936011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011508239A Active JP5456023B2 (ja) 2009-04-07 2010-04-06 画像撮影装置、画像撮影方法、プログラム、及び集積回路

Country Status (3)

Country Link
US (1) US8681239B2 (ja)
JP (1) JP5456023B2 (ja)
WO (1) WO2010116715A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012046671A1 (ja) * 2010-10-06 2012-04-12 日本電気株式会社 測位システム
US8705812B2 (en) 2011-06-10 2014-04-22 Amazon Technologies, Inc. Enhanced face recognition in video
JP2013128183A (ja) * 2011-12-16 2013-06-27 Samsung Electronics Co Ltd 撮像装置及び撮像方法
JP5828117B2 (ja) * 2012-03-28 2015-12-02 パナソニックIpマネジメント株式会社 画像処理装置、およびコンピュータプログラム
JP5888614B2 (ja) 2013-03-21 2016-03-22 カシオ計算機株式会社 撮像装置、映像コンテンツ生成方法、及び、プログラム
JP6160480B2 (ja) * 2013-12-27 2017-07-12 富士ゼロックス株式会社 代表フレーム選定システム、代表フレーム選定プログラム
JP2016052013A (ja) * 2014-08-29 2016-04-11 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP6074395B2 (ja) * 2014-09-12 2017-02-01 富士フイルム株式会社 コンテンツ管理システム、管理コンテンツ生成方法、管理コンテンツ再生方法、プログラムおよび記録媒体
WO2019124055A1 (ja) * 2017-12-18 2019-06-27 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
US10817706B2 (en) * 2018-05-01 2020-10-27 Universal City Studios Llc System and method for facilitating throughput using facial recognition
US10762755B2 (en) * 2018-06-04 2020-09-01 Apple Inc. Data-secure sensor system
CN115278355B (zh) * 2022-06-20 2024-02-13 北京字跳网络技术有限公司 视频剪辑方法、装置、设备、计算机可读存储介质及产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091794A (ja) * 1996-09-12 1998-04-10 Tokyo Electric Power Co Inc:The 画像特徴量判定装置及び画像特徴量判定方法及び辞書パターン作成方法
JP2008227860A (ja) * 2007-03-12 2008-09-25 Matsushita Electric Ind Co Ltd コンテンツ撮影装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6496228B1 (en) * 1997-06-02 2002-12-17 Koninklijke Philips Electronics N.V. Significant scene detection and frame filtering for a visual indexing system using dynamic thresholds
JP3569800B2 (ja) 1998-12-24 2004-09-29 カシオ計算機株式会社 画像処理装置及び画像処理方法
US6882793B1 (en) 2000-06-16 2005-04-19 Yesvideo, Inc. Video processing system
JP2003134384A (ja) 2001-10-23 2003-05-09 Fuji Photo Film Co Ltd カメラ
US6963378B2 (en) * 2002-11-01 2005-11-08 Motorola, Inc. Method and apparatus for reduction of visual content
JP4285287B2 (ja) * 2004-03-17 2009-06-24 セイコーエプソン株式会社 画像処理装置、画像処理方法およびそのプログラム、記録媒体
JP2006287893A (ja) 2005-03-11 2006-10-19 Komasa Hayashi ネットワークカメラシステム
JP4525558B2 (ja) 2005-11-08 2010-08-18 ソニー株式会社 情報処理装置、撮像装置、および情報処理方法、並びにコンピュータ・プログラム
US7748022B1 (en) * 2006-02-21 2010-06-29 L-3 Communications Sonoma Eo, Inc. Real-time data characterization with token generation for fast data retrieval
EP1998554A4 (en) * 2006-03-23 2009-11-25 Panasonic Corp CONTENT IMAGING APPARATUS
JP4757113B2 (ja) * 2006-06-26 2011-08-24 キヤノン株式会社 撮像装置及びその制御方法、情報処理装置、印刷装置、印刷データ生成方法
WO2008032739A1 (fr) 2006-09-12 2008-03-20 Panasonic Corporation Dispositif de formation d'image de contenu
US8643745B2 (en) * 2007-03-12 2014-02-04 Panasonic Corporation Content shooting apparatus
US20080240503A1 (en) * 2007-03-30 2008-10-02 Sanyo Electric Co., Ltd. Image Processing Apparatus And Image Pickup Apparatus Mounting The Same, And Image Processing Method
JP5013954B2 (ja) * 2007-05-14 2012-08-29 三洋電機株式会社 撮像装置
US8326042B2 (en) * 2007-06-18 2012-12-04 Sony (China) Limited Video shot change detection based on color features, object features, and reliable motion information
JP4946789B2 (ja) * 2007-10-24 2012-06-06 株式会社Jvcケンウッド ダイジェストデータ作成装置およびダイジェストデータ作成方法
JP2009116600A (ja) 2007-11-06 2009-05-28 Mitsubishi Electric Corp 入退室管理システム
JP2010177894A (ja) * 2009-01-28 2010-08-12 Sony Corp 撮像装置、画像管理装置及び画像管理方法、並びにコンピューター・プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091794A (ja) * 1996-09-12 1998-04-10 Tokyo Electric Power Co Inc:The 画像特徴量判定装置及び画像特徴量判定方法及び辞書パターン作成方法
JP2008227860A (ja) * 2007-03-12 2008-09-25 Matsushita Electric Ind Co Ltd コンテンツ撮影装置

Also Published As

Publication number Publication date
JPWO2010116715A1 (ja) 2012-10-18
WO2010116715A1 (ja) 2010-10-14
US20120019685A1 (en) 2012-01-26
US8681239B2 (en) 2014-03-25

Similar Documents

Publication Publication Date Title
JP5456023B2 (ja) 画像撮影装置、画像撮影方法、プログラム、及び集積回路
JP5685732B2 (ja) 映像抽出装置、プログラム及び記録媒体
US9013604B2 (en) Video summary including a particular person
US8665345B2 (en) Video summary including a feature of interest
KR101624648B1 (ko) 장면에 따른 해상도 및 화질 변경 기능을 갖는 디지털 영상 신호 처리 방법, 상기 방법을 기록한 기록 매체, 디지털 영상 처리 장치
US8400513B2 (en) Data processing apparatus, data processing method, and data processing program
JP5837922B2 (ja) カメラ位置に基づくキービデオフレームのランク付け
US20120087636A1 (en) Moving image playback apparatus, moving image management apparatus, method, and storage medium for controlling the same
WO2015098110A1 (ja) 撮像装置、撮像システムおよび撮像方法
JP5655668B2 (ja) 撮像装置、画像処理方法及びプログラム
KR20150141059A (ko) 동영상의 썸네일 영상을 제공하는 장치 및 방법
JP2007266659A (ja) 撮像再生装置
JP2010245856A (ja) 映像編集装置
WO2011048742A1 (ja) 半導体集積回路及びそれを備える撮像装置
US8305467B2 (en) Image pickup apparatus and image pickup method
JP2011119936A (ja) 撮影装置及び再生方法
JP2011119934A (ja) 画像撮影装置及び画像撮影方法
JP2008205953A (ja) 撮像装置、及び画像再生装置
JP2007267309A (ja) 電子カメラ
JP2011101161A (ja) 撮像装置、その制御方法、再生装置およびプログラム
JP2010263611A (ja) 映像撮影装置
WO2015104780A1 (ja) 映像撮像装置
JP2001094865A (ja) 映像記録再生装置
JP2005136794A (ja) カメラのデータ記録方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140107

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5456023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150