JP2010263611A - Video photographing apparatus - Google Patents

Video photographing apparatus Download PDF

Info

Publication number
JP2010263611A
JP2010263611A JP2010023878A JP2010023878A JP2010263611A JP 2010263611 A JP2010263611 A JP 2010263611A JP 2010023878 A JP2010023878 A JP 2010023878A JP 2010023878 A JP2010023878 A JP 2010023878A JP 2010263611 A JP2010263611 A JP 2010263611A
Authority
JP
Japan
Prior art keywords
video
scene
information
unit
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010023878A
Other languages
Japanese (ja)
Inventor
Yoshihiro Morioka
芳宏 森岡
Eiji Yamauchi
栄二 山内
Takuma Masuda
拓眞 増田
Kenji Matsuura
賢司 松浦
Keiko Ando
慶子 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010023878A priority Critical patent/JP2010263611A/en
Publication of JP2010263611A publication Critical patent/JP2010263611A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To solve such a problem that scene extraction while recognizing characteristics of optical zooming and electronic zooming cannot be performed, when the scene extraction is automatically performed from a photographed video. <P>SOLUTION: A video photographing apparatus for photographing the video includes an attribute information generating portion which generates attribute information during photographing the video, a scene analyzing portion which evaluates the video at every scene based on at least one among pieces of information regarding a video magnification changing method of the video included in the attribute information, information regarding a video magnification, information regarding substantial resolution of the video and information regarding a temporal change rate of the video magnification, and a reproduction information generating portion which generates reproduction information of the video based on the evaluation. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は映像を撮影する映像撮影装置、または映像を編集する映像編集装置に関するものであり、特に映像の拡大率(ズーム)変更に基づいて重要なシーンを自動的に抽出する技術に関する。   The present invention relates to a video photographing device for photographing a video or a video editing device for editing a video, and more particularly to a technique for automatically extracting an important scene based on a change in the magnification (zoom) of the video.

従来より、映画やテレビドラマ等の撮影は、絵コンテなどを元に作成したシナリオ(台本)に基づいて行われている。シナリオにはタイトル(名前)が付けられており、複数のシーンにより構成されている。またシーンは複数のカットより構成されている。   Conventionally, shooting of movies, TV dramas and the like has been performed based on scenarios (scripts) created based on storyboards. A scenario has a title (name) and is composed of a plurality of scenes. A scene is composed of a plurality of cuts.

監督はシナリオに従って演出を行ない、俳優、女優、およびエキストラなどの出演者はシナリオの記述に従って演技する。このように、プロによる映画やドラマなどの撮影においては、撮影順序はともあれ、シナリオに示された各シーンの本番内容が撮影される。しかしながら、プロではない世間一般の人々が日常の生活風景を撮影する場合、普通、シナリオなどはなく、ハプニング的な体験を映像記録として残し、後で見る楽しみが現在のビデオカメラ(VC)やデジタルスティルカメラ(DSC)の市場を形成している。   The director performs according to the scenario, and actors such as actors, actresses, and extras perform according to the scenario description. As described above, in the shooting of a movie or drama by a professional, the actual content of each scene shown in the scenario is shot regardless of the shooting order. However, when non-professional people take pictures of daily life, there are usually no scenarios, leaving a happening experience as a video recording, and the enjoyment to watch later is the current video camera (VC) and digital It forms the market for still cameras (DSC).

現在、市販されているビデオカメラは、動画の撮影をより容易にする機能が登載されてきている。しかし、撮影された動画を、メタデータ(属性情報)などを用いて容易に編集、視聴する機能は、検討されてはいるが普及するまでに至っていない。   Currently, a commercially available video camera has a function that makes it easier to shoot a moving image. However, a function for easily editing and viewing captured moving images using metadata (attribute information) or the like has been studied but has not yet become widespread.

たとえば、ビデオカメラにおいて、従来、メタデータの入力方法と編集システムに関して、特許文献1に記載されたものが知られている。具体的には、コンテンツに関連したメタデータの作成あるいはタグ付けを行う場合に、制作されたコンテンツのシナリオ等から事前に抽出したキーワードが音声で入力される。そして、シナリオに基づいて辞書分野の設定およびキーワードの優先順位付けが行われて、音声認識手段によってメタデータが作成される。同方法によれば、キー入力では困難な数秒間隔でメタデータを付与する場合でも、音声認識を用いることによって効率のよいメタデータの付与が可能である。また、メタデータを検索するキーワードとして、シーン検索もできる。   For example, in a video camera, a method described in Patent Document 1 is conventionally known regarding a metadata input method and an editing system. Specifically, when metadata related to content is created or tagged, a keyword extracted in advance from a scenario or the like of the produced content is input by voice. Based on the scenario, dictionary fields are set and keywords are prioritized, and metadata is created by the voice recognition means. According to this method, even when metadata is given at intervals of several seconds, which is difficult by key input, it is possible to assign metadata efficiently by using voice recognition. A scene search can also be performed as a keyword for searching metadata.

また、シナリオ情報を解析する装置として、特許文献2に記載されたものが知られている。同装置はシナリオ情報格納部、参照情報格納部、算出部および出力部を備えている。情報格納部はシーン毎に区分されたシナリオ情報を格納する。参照情報格納部はシナリオ情報に含まれるデータに関する参照情報を格納する。算出部はシナリオ情報からデータを抽出し、抽出されたデータおよび参照情報に基づいて出力情報を算出して、出力部に出力する。その結果、撮影スジュールの立案時間の短縮化に加えて、出力された撮影スケジュールに従って撮影を行なうことにより、撮影を早く完了することができるので、撮影費用を低減できる。   Moreover, what was described in patent document 2 is known as an apparatus which analyzes scenario information. The apparatus includes a scenario information storage unit, a reference information storage unit, a calculation unit, and an output unit. The information storage unit stores scenario information classified for each scene. The reference information storage unit stores reference information regarding data included in the scenario information. The calculation unit extracts data from the scenario information, calculates output information based on the extracted data and reference information, and outputs the output information to the output unit. As a result, in addition to shortening the planning time of the shooting schedule, shooting can be completed quickly by shooting according to the output shooting schedule, so that shooting costs can be reduced.

特許文献3には、メタデータ(属性情報)に基づいてシーンを評価し、その評価結果に基づいて、撮影した映像のシーンやクリップの数を絞り込んだダイジェスト(要約映像)を簡単に生成する映像撮影装置が開示されている。   In Patent Document 3, a scene is evaluated based on metadata (attribute information), and based on the evaluation result, a video (summary video) that easily generates a digest (summary video) in which the number of captured video scenes and clips is narrowed down An imaging device is disclosed.

特開2004−153764号公報JP 2004-153764 A 特開2004−362610号公報JP 2004-362610 A 特開2008−227860号公報JP 2008-227860 A

上述の特許文献1、特許文献2、および、特許文献3で開示されている装置および方法においては、ビデオカメラ(ムービー)撮影において撮影の開始から終了までの間に、パンやズームなどのカメラワークパターン、収録音、ユーザ操作等に基づいて、特徴のある場面でメタデータ(属性情報)が生成されてリスト化される。そして、記録終了後にリスト中のメタデータを用いて関連したシーンで構成されるダイジェストを作成することができる。   In the devices and methods disclosed in Patent Document 1, Patent Document 2, and Patent Document 3 described above, camera work such as panning and zooming is performed between the start and end of shooting in video camera (movie) shooting. Based on the pattern, recorded sound, user operation, etc., metadata (attribute information) is generated and listed in a characteristic scene. A digest composed of related scenes can be created using the metadata in the list after the recording is completed.

しかし、ズームアップ撮影においては、具体的な属性情報の扱い方について説明されていない。ズーム方式としては、(1)ズームレンズを調整することで受像部上における被写体の大きさを変更する光学ズーム方式と、(2)受像した映像の一部を表示面積を広げる(拡大する)ことで映像を拡張する電子ズーム方式、の2つの方式がよく知られている。なお、電子ズーム方式に関しては、ズーム倍率に応じて映像の解像度が下がるという課題が知られている。そのため、ズームアップのシーンを評価する際には、上記のズームアップ方式の特性を考慮してシーンの評価を行う必要がある。   However, a specific method for handling attribute information is not described in zoom-up photography. As a zoom method, (1) an optical zoom method in which the size of a subject on the image receiving unit is changed by adjusting a zoom lens, and (2) a display area of a received image is enlarged (enlarged). Two methods are well known, namely, an electronic zoom method for expanding video. As for the electronic zoom method, there is a known problem that the resolution of an image is lowered according to the zoom magnification. Therefore, when evaluating a zoom-up scene, it is necessary to evaluate the scene in consideration of the characteristics of the zoom-up method.

上述の問題に鑑みて、本出願は、光学ズーム方式と電子ズーム方式の両方を用いて撮影される映像に、好適なシーン評価を行い、それらの評価に基づいてシーン抽出を自動的に行うことを目的とする。   In view of the above problems, the present application performs a suitable scene evaluation on a video shot using both the optical zoom method and the electronic zoom method, and automatically performs scene extraction based on those evaluations. With the goal.

本発明は、映像を撮影する映像撮影装置であって、前記映像撮影時の属性情報を生成する属性情報生成部と、前記属性情報に含まれる前記映像の映像倍率変更方法に関する情報と、映像倍率に関する情報と、前記映像の実質的な解像度に関する情報と、映像倍率の時間変化率に関する情報と、の少なくとも一つに基づいて前記映像をシーン毎に評価するシーン解析部と、前記評価に基づいて、前記映像の再生情報を生成する再生情報生成部と、を備えることを特徴とするものである。   The present invention is a video shooting device for shooting a video, an attribute information generation unit for generating attribute information at the time of video shooting, information on a video magnification change method included in the attribute information, and video magnification A scene analysis unit that evaluates the video for each scene based on at least one of information on the video, information on a substantial resolution of the video, and information on a temporal change rate of video magnification, and on the basis of the evaluation A reproduction information generation unit for generating reproduction information of the video.

これにより、映像撮影装置は撮影した映像から好ましいシーンを自動的に抽出することが可能となる。   As a result, the video shooting apparatus can automatically extract a preferable scene from the shot video.

本発明の映像撮影装置は、さらに、被写体からの入射した光を電気信号に変換する撮像部と、前記撮像部へ入射する光を調整するレンズ部と、を備え、前記映像倍率変更方法に関する情報とは、前記レンズ部での光学調整による倍率変更方法と、前記撮像部が出力する電気信号に基づいた信号処理による倍率変更方法と、の少なくとも一つを示す情報であってもよい。   The video imaging apparatus of the present invention further includes an imaging unit that converts light incident from a subject into an electrical signal, and a lens unit that adjusts the light incident on the imaging unit, and information on the video magnification changing method The information may indicate at least one of a magnification changing method by optical adjustment in the lens unit and a magnification changing method by signal processing based on an electric signal output from the imaging unit.

これにより、映像撮影装置は、光学ズームと電子ズームとを区別し、ズーム方式によりシーンを評価することが可能となる。   As a result, the video photographing apparatus can distinguish between optical zoom and electronic zoom, and can evaluate a scene using a zoom method.

さらに、前記シーン解析部は、前記映像倍率に関する情報に基づくシーンの評価を、前記映像コンテンツの映像倍率と所定の倍率とを比較して評価するものであってもよい。   Further, the scene analysis unit may evaluate the evaluation of the scene based on the information regarding the video magnification by comparing the video magnification of the video content with a predetermined magnification.

これにより、映像倍率を用いたシーンの評価をすることが可能となる。   Thereby, it is possible to evaluate the scene using the video magnification.

また、前記シーン解析部は、前記映像コンテンツの実質的な解像度に関する情報に基づくシーンの評価を、前記映像コンテンツの実質的な解像度と所定の解像度とを比較して評価するものであってもよい。   The scene analysis unit may evaluate the evaluation of the scene based on the information regarding the substantial resolution of the video content by comparing the substantial resolution of the video content with a predetermined resolution. .

これにより、映像の解像度でシーンを評価することも可能となる。   This also makes it possible to evaluate the scene with the video resolution.

また、前記シーン解析部は、前記映像倍率の時間変化率に関する情報に基づくシーンの評価を、前記映像コンテンツの時間変化率と所定の時間変化率とを比較して評価するものであってもよい。   The scene analysis unit may evaluate the evaluation of the scene based on the information on the time change rate of the video magnification by comparing the time change rate of the video content with a predetermined time change rate. .

これにより、映像撮影時の拡大変更(ズームアップ/ダウン)速度に応じてシーンを評価することが可能となる。   This makes it possible to evaluate the scene according to the enlargement change (zoom up / down) speed during video shooting.

さらにシーン解析部は、該映像撮影装置の撮影状況に応じて、前記評価方法を変えるものであってもよい。   Further, the scene analysis unit may change the evaluation method according to the shooting situation of the video shooting device.

これにより、映像撮影装置の撮影状態に応じてシーンを評価することが可能となる。   This makes it possible to evaluate the scene according to the shooting state of the video shooting device.

さらにシーン解析部は、解像度補完処理の情報に基づいて、前記映像をシーン毎に評価するものであってもよい。   Further, the scene analysis unit may evaluate the video for each scene based on the information of the resolution complement processing.

これにより、電子ズーム等で拡大された映像が解像度補完処理によって、擬似的に高解像度表現された場合は、この点も考慮してシーンを評価することが可能となる。   As a result, when a video enlarged by electronic zoom or the like is expressed in a pseudo high resolution by resolution complementation processing, the scene can be evaluated in consideration of this point.

本発明により、光学ズーム方式と電子ズーム方式の両方を用いて撮影される映像に好適なシーン評価を行い、それらの評価に基づいてシーン抽出することが可能となる。   According to the present invention, it is possible to perform scene evaluation suitable for an image shot using both the optical zoom method and the electronic zoom method, and to extract a scene based on the evaluation.

ビデオカメラ外観図Video camera external view ビデオカメラ内部のハードウェア構成図Hardware configuration diagram inside the video camera ビデオカメラ内部の機能構成図Functional configuration diagram inside the video camera 撮影した映像のクリップ、シーン、フレームの関係図Relationship diagram of clips, scenes, and frames of recorded video シーンを識別する情報を示す図Diagram showing information that identifies a scene 属性情報と評価の関係を示す図Diagram showing the relationship between attribute information and evaluation シーンに評価を割り当てた結果を示す図Figure showing the result of assigning an evaluation to a scene 再生情報の情報内容を示す図The figure which shows the information contents of reproduction information 光学ズームと電子ズームの関係を示す図Diagram showing the relationship between optical zoom and electronic zoom 映像の拡大倍率とシーンの評価の関係例(第1の例)を示すグラフA graph showing a relationship example (first example) between video magnification and scene evaluation 映像の拡大倍率とシーンの評価の関係例(第2の例)を示すグラフA graph showing a relationship example (second example) between video magnification and scene evaluation 映像の拡大倍率とシーンの評価の関係例(第3の例)を示すグラフA graph showing a relationship example (third example) between video magnification and scene evaluation 評価されたシーンと再生情報との関係を示す図Diagram showing the relationship between evaluated scene and playback information 電子ズームの拡大率の算出方法を示す図The figure which shows the calculation method of the magnification of electronic zoom 映像の実質的な解像度と拡大倍率との関係例を示すグラフA graph showing an example of the relationship between the actual resolution of video and magnification 拡大変更速度とシーンの評価との関係例を示すグラフGraph showing an example of the relationship between the magnification change speed and the scene evaluation 三脚使用時の有無及び拡大倍率とシーンの評価との関係例を示すグラフA graph showing an example of the relationship between the presence / absence of a tripod and magnification and scene evaluation

(実施の形態1)
<1.映像撮影装置の構成>
図1は、映像を撮影するムービーやビデオカメラ(映像撮影装置)100の外観図である。本実施の形態では、このビデオカメラを用いて説明を行う。
(Embodiment 1)
<1. Configuration of video shooting device>
FIG. 1 is an external view of a movie or video camera (video imaging device) 100 that shoots video. In this embodiment mode, description is given using this video camera.

図1のビデオカメラ内部のハードウェア構成の概略を図2に示す。ビデオカメラ100は、レンズ群200、撮像素子201、映像ADC(Analog Digital Converter)202、映像信号変換IC203、CPU204、クロック205、レンズ制御モジュール206、姿勢検出センサ207、入力ボタン208、ディスプレイ209、スピーカー210、出力I/F(Interface)211、圧縮伸張IC212、ROM(Read Only Memory)213、RAM(Randam Access Memory)214、HDD(Hard Disk Drive)215、音声ADC(Analo Digital Converter)216、マイクロフォン217、三脚センサ218、を構成要素に持つ。   FIG. 2 shows an outline of the hardware configuration inside the video camera of FIG. The video camera 100 includes a lens group 200, an image sensor 201, a video ADC (Analog Digital Converter) 202, a video signal conversion IC 203, a CPU 204, a clock 205, a lens control module 206, an attitude detection sensor 207, an input button 208, a display 209, and a speaker. 210, output I / F (Interface) 211, compression / decompression IC 212, ROM (Read Only Memory) 213, RAM (Randam Access Memory) 214, HDD (Hard Disk Drive) 215, audio ADC (Analog Digital Converter 2 microphone 17) A tripod sensor 218 as a component.

レンズ群200は、撮像素子201上で被写体像を形成するために、被写体から入射する光を調整するものである。具体的には、焦点距離やズーム(映像の拡大倍率)を様々な特定を持つ複数のレンズ間の距離を変化させることで、調整するものである。これらの調整は、ビデオカメラの撮影者が手動で調整するものでも、後述するレンズ制御モジュール206を通じてCPU204等からの制御により自動的に調整するものであってもよい。   The lens group 200 adjusts light incident from the subject in order to form a subject image on the image sensor 201. Specifically, the focal length and zoom (magnification magnification of the image) are adjusted by changing the distance between a plurality of lenses having various specifications. These adjustments may be performed manually by a video camera photographer or automatically by control from the CPU 204 or the like through a lens control module 206 described later.

撮像素子201は、レンズ群200を通して入射する光を電気信号に変換するものである。撮像素子にはCCDやC−MOS等を利用することが可能である。   The image sensor 201 converts light incident through the lens group 200 into an electrical signal. A CCD, C-MOS, or the like can be used for the image sensor.

映像ADC202は、撮像素子201が出力する電気信号をアナログからデジタルへの変換するものである。   The video ADC 202 converts an electrical signal output from the image sensor 201 from analog to digital.

映像信号変換IC203は、映像ADC202が出力するデジタル信号をNTSCやPALと言った所定の映像信号に変換するものである。   The video signal conversion IC 203 converts the digital signal output from the video ADC 202 into a predetermined video signal such as NTSC or PAL.

CPU204は、ビデオカメラ100全体を制御するものである。制御の種類としては、例えば、前述のレンズ群200の焦点距離やズームの制御を、レンズ制御モジュール206を通じて撮像素子201への入射光を制御するレンズ制御、入力ボタン208や姿勢検出センサ207等からの外部入力に対する入力制御の制御、圧縮伸張IC212の動作制御等、これらの制御アルゴリズムをソフトウェア等で実行するものである。   The CPU 204 controls the entire video camera 100. The types of control include, for example, control of the focal length and zoom of the lens group 200 described above, lens control for controlling incident light to the image sensor 201 through the lens control module 206, input button 208, posture detection sensor 207, and the like. These control algorithms are executed by software or the like, such as control of input control with respect to the external input, operation control of the compression / decompression IC 212, and the like.

クロック205は、ビデオカメラ100内で動作するCPU204等の回路に処理動作の基準となるクロック信号を出力するものである。なお、クロック205は利用する集積回路やまた扱うデータによって、単一または複数のクロックを用いることも可能である。また、ひとつの発振子のクロック信号を任意の倍数に乗じて使用してもよい。   The clock 205 outputs a clock signal serving as a reference for processing operation to a circuit such as the CPU 204 operating in the video camera 100. Note that the clock 205 may be a single clock or a plurality of clocks depending on an integrated circuit to be used and data to be handled. Further, an arbitrary multiple of the clock signal of one oscillator may be used.

レンズ制御モジュール206はレンズ群200の状態を検出し、CPU204からの制御に基づいてレンズを動作させるものである。レンズ制御モジュール206は、レンズ制御用モータとレンズ位置センサを備える。レンズ位置センサはレンズ群200を構成する複数のレンズ間の距離または位置関係等を検出するものである。レンズ位置センサが検出した複数のレンズ間の位置情報等はCPU204に送信される。CPU204はレンズ位置センサからの情報、撮像素子201等の他の構成要素からの情報に基づいて、複数のレンズを適正に配置させるための信号をレンズ制御用モータに送信する。レンズ制御用モータは、CPU204から送信された制御信号に基づいてレンズを動作させるモータを駆動する。この結果、レンズ群200の複数のレンズ間の距離が変更され、レンズの焦点距離、およびズームを調整することで、レンズ群200を通過した入射光は撮像素子201上で、目的とする被写体像を結ぶものとなる。   The lens control module 206 detects the state of the lens group 200 and operates the lens based on the control from the CPU 204. The lens control module 206 includes a lens control motor and a lens position sensor. The lens position sensor detects a distance or a positional relationship between a plurality of lenses constituting the lens group 200. Position information between the plurality of lenses detected by the lens position sensor is transmitted to the CPU 204. The CPU 204 transmits a signal for properly arranging a plurality of lenses to the lens control motor based on information from the lens position sensor and information from other components such as the image sensor 201. The lens control motor drives a motor that operates the lens based on a control signal transmitted from the CPU 204. As a result, the distance between the plurality of lenses of the lens group 200 is changed, and by adjusting the focal length and zoom of the lens, the incident light that has passed through the lens group 200 is the target object image on the image sensor 201. Will be tied.

なおCPU204は上記以外にも、ビデオカメラ100で映像撮影時の手振れを、レンズ位置センサや後述する姿勢検出センサ等で検出し、レンズ制御用モータを駆動する制御を行うことで、手振れ防止の動作をレンズ制御モジュール206で実行させることも可能である。   In addition to the above, the CPU 204 detects camera shake during video shooting with the video camera 100 using a lens position sensor, a posture detection sensor described later, and the like, and performs control to drive the lens control motor, thereby preventing camera shake. Can also be executed by the lens control module 206.

姿勢検出センサ207は、ビデオカメラ100の姿勢の状態を検出するものである。姿勢検出センサ207は、加速度センサ、角速度センサ、仰角・俯角センサ等を備える。これらの各種センサにより、ビデオカメラ100がどのような状態で撮影を行っているかをCPU204は検出する。なお、これらのセンサは好ましくはビデオカメラ100の姿勢を詳細に検出するために、3軸方向(垂直方向、水平方向等)についてそれぞれ検出できることが望ましい。   The posture detection sensor 207 detects the posture state of the video camera 100. The posture detection sensor 207 includes an acceleration sensor, an angular velocity sensor, an elevation angle / decline angle sensor, and the like. With these various sensors, the CPU 204 detects in what state the video camera 100 is shooting. Note that these sensors are preferably capable of detecting in three axial directions (vertical direction, horizontal direction, etc.) in order to detect the attitude of the video camera 100 in detail.

入力ボタン208は、ビデオカメラ100の撮影者が使用する入力インタフェースの一つである。これにより、撮影者が撮影の開始や終了、ビデオ撮影中の映像にマーキングを挿入する等、各種要求をビデオカメラ100に伝えることが可能となる。   The input button 208 is one of input interfaces used by the photographer of the video camera 100. Accordingly, the photographer can transmit various requests to the video camera 100, such as the start and end of shooting, and the insertion of a marking in the video being video-recorded.

ディスプレイ209は、ビデオカメラ100が撮影した映像を見るためや、撮影ファインダー等として利用するために設けられている。これにより、撮影者は撮影した映像をその場で確認することが可能となる。また、それ以外にもビデオカメラ100の各種情報を表示することで、撮影情報等、機器情報等のより詳細な情報を撮影者に伝えることが可能となる。   The display 209 is provided for viewing images taken by the video camera 100 or for use as a shooting finder or the like. As a result, the photographer can check the photographed image on the spot. In addition, by displaying various information of the video camera 100, it is possible to convey more detailed information such as shooting information and device information to the photographer.

スピーカー210は、撮影した映像を再生する際の音声出力に使用される。それ以外にも、ビデオカメラ100が出力する警告を音で撮影者へ伝えることも可能である。   The speaker 210 is used for audio output when playing back a captured video. In addition, it is possible to convey a warning output from the video camera 100 to the photographer with sound.

出力I/F211は、ビデオカメラ100が撮影した映像を外部機器へ出力するために用いられる。具体的には、外部機器とケーブルで接続する場合のケーブルインタフェースや、撮影した映像をメモリカードに記録する場合のメモリカードインタフェース等などがある。これにより、撮影した映像をビデオカメラ100に備え付けのディスプレイ209よりも大きな外部のディスプレイを用いて視聴等することが可能となる。   The output I / F 211 is used to output video captured by the video camera 100 to an external device. Specifically, there are a cable interface for connecting to an external device with a cable, a memory card interface for recording a photographed video on a memory card, and the like. As a result, the captured video can be viewed using an external display larger than the display 209 provided in the video camera 100.

圧縮伸張IC212は、撮影した映像または音声を所定のデジタルデータ形式(符号化処理)にするものである。具体的には、撮影した映像・音声データをMPEG(Moving Picture Expoerts Group)やH264等の符号化処理を行い、所定のデータ方式に変換(圧縮)するものである。また、撮影したデータの再生時には、圧縮伸張ICがこれら、所定のデータ形式の映像データを伸張してディスプレイ209等に表示するデータ処理をおこなうものである。   The compression / decompression IC 212 converts the captured video or audio into a predetermined digital data format (encoding process). Specifically, the captured video / audio data is encoded (moving picture experts group), H264, etc., and converted (compressed) into a predetermined data format. Further, at the time of reproducing the captured data, the compression / decompression IC performs data processing for decompressing the video data in a predetermined data format and displaying it on the display 209 or the like.

ROM213は、CPU204が処理するソフトウェアのプログラムやプログラムを動作させるための各種データを記録するものである。   The ROM 213 records software programs processed by the CPU 204 and various data for operating the programs.

RAM214は、CPU204が処理するソフトウェアのプログラム実行時に使用するメモリ領域等として使用される。また、圧縮伸張IC212と共用でこのRAM214を使用してもよい。   The RAM 214 is used as a memory area used when executing a software program processed by the CPU 204. The RAM 214 may be used in common with the compression / decompression IC 212.

HDD215は、圧縮伸張IC212が符号化した映像データやその他撮影した静止画像データを蓄積等する目的で利用される。なお、記録されるデータはこれ以外にも、後述する再生情報のデータ等を記録することも可能である。   The HDD 215 is used for the purpose of storing video data encoded by the compression / decompression IC 212 and other captured still image data. In addition to this, it is also possible to record reproduction information data to be described later.

音声ADC216は、マイクロフォン217が出力する音声の電気データをアナログからデジタルへ変換処理するものである。   The audio ADC 216 converts the electrical data of audio output from the microphone 217 from analog to digital.

マイクロフォン217は、ビデオカメラ100外部の音声を電気信号に変換して出力するものである。   The microphone 217 converts audio outside the video camera 100 into an electrical signal and outputs it.

三脚センサ218は、ビデオカメラ100が三脚に設置されているか否かを検出するものである。具体的には、三脚が固定される部分にスイッチを設けておくことにより、ビデオカメラ100が三脚を使用した撮影か否かを判定できる。   The tripod sensor 218 detects whether the video camera 100 is installed on a tripod. Specifically, it is possible to determine whether or not the video camera 100 is shooting using a tripod by providing a switch in a portion where the tripod is fixed.

上記のとおりビデオカメラ100のハードウェア構成を示したが、本発明では上記の構成に限定されるものではない。例えば、映像ADC202や映像信号変換IC203等を単一の集積回路として実現することも可能であるし、CPU204が実行するソフトウェアプログラムの一部を別途、FPGA(Field Programmable Gate Array)を用いてハードウェアとして実現することも可能である。   Although the hardware configuration of the video camera 100 has been described as described above, the present invention is not limited to the above configuration. For example, the video ADC 202, the video signal conversion IC 203, and the like can be realized as a single integrated circuit, and a part of a software program executed by the CPU 204 is separately separated by hardware using an FPGA (Field Programmable Gate Array). It is also possible to realize.

図3にビデオカメラ100の機能構成図を示す。ビデオカメラ100は、機能構成として、レンズ部300、撮像部301、映像AD変換部302、信号処理部303、映像信号圧縮部304、撮像制御部305、映像解析部306、レンズ制御部307、姿勢検出部308、属性情報生成部309、シーン解析部310、再生情報生成部311、音声解析部312、音声信号圧縮部313、多重化部314、記憶部315、ダイジェスト再生部316、映像信号伸張部317、映像表示部318、音声信号伸張部319、音声出力部320、音声AD変換部321、マイク部322、外部入力部323、を備える。   FIG. 3 shows a functional configuration diagram of the video camera 100. The video camera 100 includes, as a functional configuration, a lens unit 300, an imaging unit 301, a video AD conversion unit 302, a signal processing unit 303, a video signal compression unit 304, an imaging control unit 305, a video analysis unit 306, a lens control unit 307, an attitude. Detection unit 308, attribute information generation unit 309, scene analysis unit 310, reproduction information generation unit 311, audio analysis unit 312, audio signal compression unit 313, multiplexing unit 314, storage unit 315, digest reproduction unit 316, video signal expansion unit 317, a video display unit 318, an audio signal expansion unit 319, an audio output unit 320, an audio AD conversion unit 321, a microphone unit 322, and an external input unit 323.

レンズ部300は、被写体から入射した光の焦点距離、ズーム倍率(映像の拡大倍率)を調整するものである。これらはレンズ制御部307からの制御により行われる。レンズ部300は、図2のレンズ群200に該当する。   The lens unit 300 adjusts the focal length of the light incident from the subject and the zoom magnification (magnification magnification of the image). These are performed under the control of the lens control unit 307. The lens unit 300 corresponds to the lens group 200 in FIG.

撮像部301は、レンズ部300を透過した光を電気信号に変換するものである。撮像部301は、撮像制御部305の制御により、撮像素子上の任意の範囲のデータを出力する。また映像データ以外にも、3原色点の色度空間情報、白色の座標、および3原色のうち少なくとも2つのゲイン情報、色温度情報、Δuv(デルタuv)、および3原色または輝度信号のガンマ情報等の情報も出力することが可能である。この場合、これらの情報は、属性情報生成部309へ出力する。撮像部301は、図2の撮像素子201に該当する。   The imaging unit 301 converts light transmitted through the lens unit 300 into an electrical signal. The imaging unit 301 outputs data in an arbitrary range on the imaging device under the control of the imaging control unit 305. In addition to video data, chromaticity space information of three primary colors, white coordinates, and gain information of at least two of the three primary colors, color temperature information, Δuv (delta uv), and gamma information of the three primary colors or luminance signals Etc. can also be output. In this case, these pieces of information are output to the attribute information generation unit 309. The imaging unit 301 corresponds to the imaging element 201 in FIG.

映像AD変換部302は、撮像部301からの電気信号を所定の処理内容にしたがってアナログ・デジタル変換を行う。映像AD変換部302は、図2の映像ADC202に該当する。   The video AD conversion unit 302 performs analog / digital conversion on the electrical signal from the imaging unit 301 in accordance with predetermined processing contents. The video AD converter 302 corresponds to the video ADC 202 in FIG.

信号処理部303は、映像AD変換部302が出力したデジタル信号を所定の映像信号フォーマットに変換するものである。例えば、NTSC(National Television System Committee)で規定された水平線の数、走査線の数、フレームレートに準拠した映像信号とするものなどである。信号処理部303は、図2の映像信号変換IC203に該当する。   The signal processing unit 303 converts the digital signal output from the video AD conversion unit 302 into a predetermined video signal format. For example, the video signal conforms to the number of horizontal lines, the number of scanning lines, and the frame rate specified by NTSC (National Television System Committee). The signal processing unit 303 corresponds to the video signal conversion IC 203 in FIG.

映像信号圧縮部304は、デジタル映像信号を所定の符号化変換を行い、データ量の圧縮等を実現する。具体例としては、MPEG2、MPEG4、H264の符号化方式がある。映像信号圧縮部304は、図2の圧縮伸張IC212の圧縮機能に相当する。   The video signal compression unit 304 performs predetermined coding conversion on the digital video signal, and realizes data amount compression and the like. Specific examples include MPEG2, MPEG4, and H264 encoding methods. The video signal compression unit 304 corresponds to the compression function of the compression / decompression IC 212 in FIG.

撮像制御部305は、撮像部301の動作を制御するものである。撮像部301に対して、撮影時の露出量や撮影速度、感度等を制御するものである。また、これらの制御情報は属性情報生成部309へも併せて出力する。撮像制御部305は、図2のCPU204で処理される制御アルゴリズムの一つである。   The imaging control unit 305 controls the operation of the imaging unit 301. For the imaging unit 301, the amount of exposure at the time of shooting, the shooting speed, sensitivity, and the like are controlled. These control information are also output to the attribute information generation unit 309. The imaging control unit 305 is one of control algorithms processed by the CPU 204 in FIG.

映像解析部306は、撮影された映像信号から映像の特徴を抽出するものである。本実施の形態では、色情報(例えば、映像に含まれる色の分布を検出する)や、ホワイトバランス、映像に人物の顔が含まれている場合には、顔検出を行う等、映像信号を解析することで、映像の特徴を抽出するものである。なお、色分布の検出は映像信号を形成するデータに含まれる色情報を確認することで実現可能である。また、顔検出については、パターンマッチング等を用いることにより実現可能である。映像解析部306は、図2のCPU204でソフトウェア処理されるアルゴリズムの一つである。   The video analysis unit 306 extracts video features from the captured video signal. In the present embodiment, the color signal (for example, color distribution included in the video is detected), white balance, and when the video includes a human face, the video signal is detected by performing face detection. By analyzing, the feature of the video is extracted. The color distribution can be detected by confirming color information included in the data forming the video signal. Further, face detection can be realized by using pattern matching or the like. The video analysis unit 306 is one of algorithms processed by the CPU 204 in FIG.

レンズ制御部307は、レンズ部300の動作を制御するものである。レンズ制御には、ズーム制御、フォーカス制御、また手振れ補正制御等がある。レンズ制御部307はレンズ部300を制御するとともに、これらの制御情報を属性情報生成部309へ出力する。レンズ制御部307は、図2のレンズ制御モジュール206に相当する。   The lens control unit 307 controls the operation of the lens unit 300. Lens control includes zoom control, focus control, camera shake correction control, and the like. The lens control unit 307 controls the lens unit 300 and outputs the control information to the attribute information generation unit 309. The lens control unit 307 corresponds to the lens control module 206 in FIG.

姿勢検出部308は、ビデオカメラ100の加速度、角速度、仰角・俯角等を検出する。こられの情報はビデオカメラ100の姿勢やその変化状況を検出する目的等に用いられる。加速度や角速度については、垂直・水平(2方向)の3方向について検出できることが望ましい。姿勢検出部308は、図2の姿勢検出センサ207に相当する。   The posture detection unit 308 detects acceleration, angular velocity, elevation angle, depression angle, and the like of the video camera 100. These pieces of information are used for the purpose of detecting the posture of the video camera 100 and its change state. It is desirable that acceleration and angular velocity can be detected in three directions, vertical and horizontal (two directions). The posture detection unit 308 corresponds to the posture detection sensor 207 in FIG.

マイク部322は、周囲の音を電気信号に変化して音声信号として出力するものである。マイク部322は、図2のマイクロフォン217に相当する。   The microphone unit 322 converts ambient sounds into electrical signals and outputs them as audio signals. The microphone unit 322 corresponds to the microphone 217 in FIG.

音声AD変換部321は、マイク部322が出力したアナログの音声信号をデジタル形式の音声データに変換する。音声AD変換部321は、図2の音声ADC216に相当する。   The audio AD conversion unit 321 converts the analog audio signal output from the microphone unit 322 into digital audio data. The audio AD conversion unit 321 corresponds to the audio ADC 216 in FIG.

音声解析部312は、音声データから特徴のある音を抽出するものである。ここで特徴のある音とは、例えば、撮影者の声、特定の単語の発音、歓声、銃声等がある。これらの音の識別は、これらの音(音声)が持つ特有の周波数を予め登録しておき、それとの比較結果で判別するなどの方法等を用いることで、抽出が可能である。またこれ以外にも、マイクが捕捉した音の入力レベル等の特徴も検出する。音声解析部312は、図2のCPU204でソフトウェア処理されるアルゴリズムの一つである。   The voice analysis unit 312 extracts a characteristic sound from the voice data. The characteristic sounds here include, for example, a photographer's voice, pronunciation of a specific word, cheers, gunshots, and the like. These sounds can be identified by registering in advance the unique frequencies of these sounds (speech) and using a method such as discrimination based on the comparison result. In addition, other features such as the input level of the sound captured by the microphone are also detected. The voice analysis unit 312 is one of algorithms processed by the CPU 204 in FIG.

音声信号圧縮部313は、音声AD変換部321が出力した音声データを所定の符号化アルゴリズムで変換するものである。符号化にはMP3(MPEG Audio Layer−3)やAAC(Advanced Audio Coding)等の方法がある。音声信号圧縮部313は、図2の圧縮伸張IC212での圧縮機能の一つである。   The audio signal compression unit 313 converts the audio data output from the audio AD conversion unit 321 using a predetermined encoding algorithm. There are methods such as MP3 (MPEG Audio Layer-3) and AAC (Advanced Audio Coding) for encoding. The audio signal compression unit 313 is one of the compression functions in the compression / decompression IC 212 in FIG.

外部入力部323は、映像撮影時に外部から受信した各種の情報、例えば、撮影者によるボタン入力、外部から通信経由で受信した撮影インデックス情報等を出力するものである。なお、撮影インデックス情報とは、例えば、映画撮影時における、撮影場面を識別する番号や、撮影回数を示す番号等のそれぞれの撮影を識別するために用いられる識別番号などである。外部入力部323は、図2の入力ボタン208や三脚センサ218等に該当する。   The external input unit 323 outputs various types of information received from the outside during video shooting, such as button input by a photographer, shooting index information received from the outside via communication, and the like. Note that the shooting index information is, for example, an identification number used for identifying each shooting such as a number for identifying a shooting scene or a number indicating the number of shooting times at the time of shooting a movie. The external input unit 323 corresponds to the input button 208, the tripod sensor 218, etc. in FIG.

属性情報生成部309は、映像撮影時の撮影情報、外部入力情報及びその他の情報を属性情報(メタデータ)とする。属性情報の一例として以下のような情報が考えられる。
・焦点距離
・ズーム倍率
・露出
・撮影速度
・感度
・3原色点の色空間情報
・ホワイトバランス
・3原色のうち少なくとも2つのゲイン情報
・色温度情報
・Δuv(デルタuv)
・3原色または輝度信号のガンマ情報
・色分布
・顔認識情報
・カメラ姿勢(加速度、角速度、仰角・俯角等)
・撮影時刻(撮影開始時刻、終了時刻)
・撮影インデックス情報
・ユーザ入力
・フレームレート
・サンプリング周波数
The attribute information generation unit 309 uses shooting information at the time of video shooting, external input information, and other information as attribute information (metadata). The following information can be considered as an example of attribute information.
-Focal length-Zoom magnification-Exposure-Shooting speed-Sensitivity-Color space information of the three primary colors-White balance-Gain information of at least two of the three primary colors-Color temperature information-Δuv (Delta uv)
・ Gamma information of three primary colors or luminance signals ・ Color distribution ・ Face recognition information ・ Camera posture (acceleration, angular velocity, elevation angle, depression angle, etc.)
-Shooting time (shooting start time, end time)
・ Shooting index information ・ User input ・ Frame rate ・ Sampling frequency

属性情報には、上記の撮影時の各種情報から算出される映像シーンを特徴づける新たな情報(撮影時の各種情報等を組み合わせ、それらを分析等することで算出される情報等)も含まれる。例えば、カメラ姿勢(加速度、角速度、仰角・俯角等)の情報からビデオカメラ100が撮影時にパン、ティルト等のカメラワークを算出することが可能となる。また、焦点距離や、ズーム倍率の情報はそのままでも、属性情報として用いることが可能とである。属性情報生成部309は、撮影時の各種情報からシーン評価に有用な情報を抽出、算出等して属性情報を生成する。   The attribute information also includes new information that characterizes the video scene calculated from the various information at the time of shooting (information calculated by combining various information at the time of shooting and analyzing them). . For example, it becomes possible for the video camera 100 to calculate camera work such as panning and tilting at the time of photographing from information on the camera posture (acceleration, angular velocity, elevation angle, depression angle, etc.). Further, the focal length and zoom magnification information can be used as attribute information as they are. The attribute information generation unit 309 generates attribute information by extracting and calculating information useful for scene evaluation from various types of information at the time of shooting.

シーン解析部310は、属性情報生成部309が生成した属性情報に基づいて、それぞれのシーンを評価し、その結果に基づいて再生すべきシーンを選択するものである。シーンの評価や選択方法等について後に詳細に説明する。   The scene analysis unit 310 evaluates each scene based on the attribute information generated by the attribute information generation unit 309 and selects a scene to be reproduced based on the result. The scene evaluation and selection method will be described in detail later.

再生情報生成部311は、シーン解析部310が選択した再生すべきシーンを再生情報として生成するものである。この点についても後述する。   The reproduction information generation unit 311 generates the scene to be reproduced selected by the scene analysis unit 310 as reproduction information. This point will also be described later.

属性情報生成部309、シーン解析部310、再生情報生成部311は、図2のCPU204においてソフトウェアとして処理される。   The attribute information generation unit 309, the scene analysis unit 310, and the reproduction information generation unit 311 are processed as software by the CPU 204 in FIG.

多重化部314は、映像信号圧縮部304からの符号化映像データ、音声信号圧縮部313からの符号化音声データ、再生情報生成部311からの再生情報を多重化して出力するものである。多重化部314は、図2のCPU204で実行されるソフトウェアであってもよいし、圧縮伸張IC212で、処理されるものであってもよい。   The multiplexing unit 314 multiplexes and outputs the encoded video data from the video signal compression unit 304, the encoded audio data from the audio signal compression unit 313, and the reproduction information from the reproduction information generation unit 311. The multiplexing unit 314 may be software executed by the CPU 204 in FIG. 2, or may be processed by the compression / decompression IC 212.

記憶部315は、多重化部314から出力された符号化映像データ、符号化音声データ、再生情報が多重化されたデータを一時保持又は長期保持するものである。記憶部315は、図2のHDD215やRAM214等に該当する。   The storage unit 315 temporarily or long-term holds the encoded video data, the encoded audio data, and the data multiplexed with the reproduction information output from the multiplexing unit 314. The storage unit 315 corresponds to the HDD 215, the RAM 214, or the like in FIG.

ダイジェスト再生部316は、記憶部315に記録された多重化されたデータを読み出し、そこから再生情報を抽出し、再生情報に従って映像データ、音声データを映像信号伸張部317、音声信号伸張部319でそれぞれ復号させ、映像表示部318、音声出力部320から出力する。ダイジェスト再生部316は、図2のCPU204で実行されるソフトウェア処理のアルゴリズムである。   The digest reproduction unit 316 reads the multiplexed data recorded in the storage unit 315, extracts reproduction information from the data, and in accordance with the reproduction information, the video data and audio data are converted by the video signal expansion unit 317 and the audio signal expansion unit 319. Each is decoded and output from the video display unit 318 and the audio output unit 320. The digest playback unit 316 is a software processing algorithm executed by the CPU 204 of FIG.

上記の構成により、ビデオカメラ100で撮影された映像は、属性情報に基づいて抽出された好ましいシーンの選択を自動的に行い、その部分のみを再生等することが可能となる。   With the above-described configuration, it is possible to automatically select a preferable scene extracted based on the attribute information and reproduce only that portion of the video shot by the video camera 100.

なお、図2及び図3のハードウェア構成図、機能図は本発明の実施するための一態様であり、これに限定されるものではない。例えば、図3において、シーン解析部310、再生情報生成部311は、記憶部315にデータを記録する前に処理されているが、記憶部315に圧縮された映像信号、圧縮された音声信号と、撮影時の属性情報を多重化して一度記録し、当該データを記憶部315から読み出した後にシーン解析、再生情報の生成等を行うものであっても良い。   Note that the hardware configuration diagrams and functional diagrams of FIGS. 2 and 3 are one mode for carrying out the present invention, and the present invention is not limited to this. For example, in FIG. 3, the scene analysis unit 310 and the reproduction information generation unit 311 are processed before recording data in the storage unit 315, but the compressed video signal and compressed audio signal are stored in the storage unit 315. Alternatively, the attribute information at the time of shooting may be multiplexed and recorded once, and after the data is read from the storage unit 315, scene analysis, generation of reproduction information, and the like may be performed.

また、図2のハードウェア構成と図3の機能構成の対応関係は、上記記載に限定するものではない。上記の説明は、本発明を実施するための一形態として示すものであって、機能構成とハードウェア構成が異なる関係であってもよい。   Also, the correspondence between the hardware configuration of FIG. 2 and the functional configuration of FIG. 3 is not limited to the above description. The above description is given as an embodiment for carrying out the present invention, and the functional configuration and the hardware configuration may be different.

<2.撮影したシーンの解析、再生情報の生成>
図4は、ビデオカメラ100が撮影する映像の構成を示す図である。撮影者が撮影開始を指示し、撮影の終了又は撮影の一時停止を指示するまでに撮影された映像の単位を「クリップ」とする。撮影者が撮影の開始、撮影の終了又は一時停止を何度も繰り返すと、クリップが複数生成される。
<2. Analysis of captured scene, generation of playback information>
FIG. 4 is a diagram illustrating a configuration of an image captured by the video camera 100. The unit of the video imaged until the photographer gives an instruction to start shooting and gives an instruction to end shooting or pause shooting is “clip”. When the photographer repeats the start of shooting, the end of shooting, or the pause repeatedly, a plurality of clips are generated.

一つのクリップは一つ又は複数の「シーン」から構成される。「シーン」は論理的につながりのある一続きの映像である。シーンは、任意に設定することが可能である。例えば、クリップを一つのシーンとして「1クリップ」=「1シーン」と設定してもよい。また、画面が大きく変わることを境として「シーン」を設定してもよい。この場合には、映像解析部306がフレーム間の動きベクトルを算出し、「動き」の大きさ(変化)が所定の値より大きい場合を、「シーン」の切り替え部分としてもよい。その他の撮影情報等に基づいて「シーン」を区切っても良い。例えば、撮影者からのボタン入力により「シーン」を区切っても良い。この場合に、撮影者の明確な意図で「クリップ」内の「シーン」を構成することが可能となる。   One clip is composed of one or a plurality of “scenes”. A “scene” is a series of images that are logically connected. A scene can be set arbitrarily. For example, “1 clip” = “1 scene” may be set with a clip as one scene. In addition, a “scene” may be set on the boundary that the screen changes greatly. In this case, when the video analysis unit 306 calculates a motion vector between frames and the magnitude (change) of “motion” is larger than a predetermined value, the “scene” switching portion may be used. The “scene” may be divided based on other shooting information or the like. For example, the “scene” may be divided by a button input from the photographer. In this case, the “scene” in the “clip” can be configured with a clear intention of the photographer.

「シーン」は、一つ又は複数の「フレーム」から構成される。「フレーム」は映像を構成する個々の画像である。   A “scene” is composed of one or more “frames”. A “frame” is an individual image constituting a video.

図5は、シーン解析部310が、クリップ内を複数のシーンに分割した場合の例を示すものである。シーン解析部310は、上述の通り属性情報等に基づいてクリップを分割する。図5では、それぞれのシーンを「開始時間」と「終了時間」で定めているが、フレーム番号等でシーンの開始と終了を定めても良い。   FIG. 5 shows an example in which the scene analysis unit 310 divides the clip into a plurality of scenes. The scene analysis unit 310 divides the clip based on the attribute information and the like as described above. In FIG. 5, each scene is defined by “start time” and “end time”, but the start and end of the scene may be defined by a frame number or the like.

図6は、シーン解析部310が、それぞれのシーンを評価する際に用いる属性情報と評価の関係例を示した図である。例えば、クリップイン(撮影の開始部分)やクリップアウト(撮影の終了前部分)部分については、映像の導入部分や重要部分と考えている場合は、撮影された映像が持つ論理的な意味が高いと推論される。この例では、クリップイン(A)及びクリップアウト(F)は、評価が100となっている。その他にも、撮影時のカメラワークとしてズームアップ(D)やズームダウン(G)についても、特定の被写体への注目度を高めるとの観点から評価が30として定められている。このように、シーン解析部310は予め属性情報それぞれに対する数値化された評価を持っている。図6の例では、評価点が高いほど高い評価(好ましい)として表現している。シーン解析部310は、このような図6の属性情報と評価との関係に基づいて各シーンを評価する。なお、一つのシーンに複数の属性情報が与えられている場合は、それぞれの属性情報に割り当てられている評価(評価点)を加算してもよい。また、一つのシーンに複数の属性情報が与えられている場合、その属性情報のなかから最も評価の高い属性が持つ評価(評価点)を当該シーンの評価点としてもよい。さらに、シーン内に含まれる種々の属性を考慮するのであれば、複数の属性の評価点の平均値等を評価としてもよい。さらに、より詳細に評価を行う場合には、シーンに含まれるフレーム毎に評価をしてもよい。なお、評価は好ましいシーンだけに行う必要はない。例えば、撮影時の手振れは、映像の視聴者に見づらい映像となる可能性があるので、こういった属性を持つシーンには減点(マイナス点)の評価をおこなうものであってもよい。   FIG. 6 is a diagram showing an example of the relationship between attribute information and evaluation used when the scene analysis unit 310 evaluates each scene. For example, if the clip-in (shooting start part) or clip-out (pre-shooting end part) part is considered as an introduction part or an important part of the picture, the logical meaning of the shot picture is high. It is inferred. In this example, the evaluation of clip-in (A) and clip-out (F) is 100. In addition, with regard to zoom-up (D) and zoom-down (G) as camera work at the time of shooting, the evaluation is set to 30 from the viewpoint of increasing the degree of attention to a specific subject. In this way, the scene analysis unit 310 has a numerical evaluation for each piece of attribute information in advance. In the example of FIG. 6, the higher the evaluation score, the higher the evaluation (preferred). The scene analysis unit 310 evaluates each scene based on the relationship between the attribute information and evaluation in FIG. When a plurality of pieces of attribute information are given to one scene, evaluations (evaluation points) assigned to the respective attribute information may be added. Further, when a plurality of pieces of attribute information are given to one scene, the evaluation (evaluation point) of the attribute having the highest evaluation among the attribute information may be used as the evaluation point of the scene. Furthermore, if various attributes included in the scene are taken into consideration, an average value of evaluation points of a plurality of attributes may be evaluated. Furthermore, when evaluating in more detail, you may evaluate for every flame | frame contained in a scene. Note that the evaluation need not be performed only on a preferable scene. For example, camera shake at the time of shooting may result in a video that is difficult for the viewer of the video to view. Therefore, a scene having such an attribute may be evaluated for a deduction (minus point).

なお、図6の属性情報と評価の関係は、一つに限定するものではない。例えば、複数の属性情報・評価の組み合わせデータをビデオカメラ100の撮影者が撮影するモード(例えば、風景の撮影、人物(ポートレート)撮影、静物撮影等)によって切り換えるものであってもよい。また、予め複数の組み合わせデータを備えておき、撮影モードによって、複数のデータを合成(それぞれの評価の値を一定の比率で加算等)したものであってもよい。この場合には、合成の比率を変えることで、動的に属性情報・評価の組み合わせデータを変更することが可能となる。   Note that the relationship between the attribute information and the evaluation in FIG. 6 is not limited to one. For example, the combination data of a plurality of attribute information / evaluation may be switched depending on a mode (for example, landscape shooting, person (portrait) shooting, still life shooting, etc.) in which the video camera 100 is shooting. Alternatively, a plurality of combination data may be provided in advance, and a plurality of data may be combined (addition of respective evaluation values at a certain ratio, etc.) depending on the shooting mode. In this case, the combination data of attribute information and evaluation can be dynamically changed by changing the composition ratio.

図7はシーン解析部310が、各シーンに評価(優先度)を割り当てた結果を示した図である。図7は横軸に時間(シーン)を、縦軸に各シーンの評価(優先度)を示したものである。   FIG. 7 is a diagram showing a result of assigning an evaluation (priority) to each scene by the scene analysis unit 310. FIG. 7 shows time (scene) on the horizontal axis and evaluation (priority) of each scene on the vertical axis.

図7の時間0付近のAは、撮影を開始した直後であるため「クリップイン」の属性を持つ。図6に従えば、「クリップイン」の属性は評価(優先度)100を持つ。   A in the vicinity of time 0 in FIG. 7 has an attribute of “clip in” because it is immediately after the start of shooting. According to FIG. 6, the attribute of “clip-in” has an evaluation (priority) of 100.

Bの符号が付けられているシーンは、「特定音声の抽出」の属性を持つ。特定音声の抽出は、上述の音声解析部312等により得られるものである。図6に従えば、「特定音声の抽出」の属性は評価(優先度)70を持つ。   The scene to which the symbol B is attached has an attribute of “extraction of specific sound”. The extraction of the specific voice is obtained by the above-described voice analysis unit 312 or the like. According to FIG. 6, the attribute of “extraction of specific speech” has an evaluation (priority) 70.

Cの符号が付けられているシーンは、撮影者がカメラをパン、ティルト等のビデオカメラ100本体を動かして撮影した後に、静止して撮影することを意味する属性を示す。このようなシーンは、静止して撮影する際の被写体に映像としての価値が高いと判断できることが考えられる。図6に従えば、このような属性は評価(優先度)40を持つ。   The scene with the symbol C indicates an attribute that means that the photographer shoots by moving the camera body of the video camera 100 such as pan and tilt, and then shoots still. It is conceivable that such a scene can be judged to have a high value as a video for a subject when shooting still. According to FIG. 6, such an attribute has an evaluation (priority) 40.

Dの符号が付けられているシーンは、ビデオカメラをズームアップ又はズームダウン等して撮影しているシーンである。図6では、ズームアップ/ズームダウンでは評価(優先度)30を持つ。ただし、ズームアップとズームダウンで評価の値をかえることも可能である。例えばズームアップをズームダウンよりも評価を高く設定することで、ズームアップで撮影されるシーン、つまり映像の拡大倍率が大きくなるシーン(拡大されて撮影される被写体があるシーン)、について高い評価(優先度)を割り当てても良い。逆に、映像の拡大倍率が小さくなるシーンについては比較的低い評価(優先度)を割り当てることも可能である。   The scene with the symbol D is a scene that is photographed by zooming up or down the video camera. In FIG. 6, the zoom up / zoom down has an evaluation (priority) 30. However, it is also possible to change the evaluation value by zooming up and down. For example, by setting the zoom-up higher than the zoom-down, the scene that is shot with the zoom-up, that is, the scene where the enlargement magnification of the video is large (the scene with the subject that is shot with the zoom) is highly evaluated ( (Priority) may be assigned. On the other hand, a relatively low evaluation (priority) can be assigned to a scene with a small video magnification.

Eの符号が付けられているシーンは、ビデオカメラがパン、ティルト等の動きをともなった撮影(カメラワーク)を行ったシーンである。この場合は評価(優先度)25が割り当てられる。   The scene with the symbol E is a scene in which the video camera has taken a picture (camera work) with movement such as panning and tilting. In this case, evaluation (priority) 25 is assigned.

以上よりシーン解析部310は、各シーンについて評価(優先度)を割り当てる。なお、図7の例では、シーンを単位として評価を割り当てたが、シーン解析部310はクリップ単位、又は、フレーム単位で上記の評価割り当てをおこなってもよい。   As described above, the scene analysis unit 310 assigns an evaluation (priority) to each scene. In the example of FIG. 7, the evaluation is assigned in units of scenes. However, the scene analysis unit 310 may perform the above-described evaluation assignments in units of clips or frames.

シーン解析部310は、さらに、各シーンに割り当てた評価に基づいて、好ましいシーンのみを抽出する。具体的には評価の高いシーンのみを抽出する。図7の例では、#1〜#3の部分のシーンのみを抽出することとなる。なお、抽出方法については、抽出されたシーンの合計再生時間が所定の時間以内であること、又は、シーンの評価が一定以上であること等、様々な観点で抽出をすることが可能である。   The scene analysis unit 310 further extracts only a preferable scene based on the evaluation assigned to each scene. Specifically, only highly evaluated scenes are extracted. In the example of FIG. 7, only the scenes of the # 1 to # 3 portions are extracted. As for the extraction method, extraction can be performed from various viewpoints such as that the total playback time of the extracted scenes is within a predetermined time, or that the evaluation of the scene is more than a certain level.

再生情報生成部311は、シーン解析部310が抽出したシーンに従って、映像再生の手順・方法を記した再生情報を生成するものである。この再生情報とは、例えば、図8に示すような、再生対象となるシーンの開始時刻と終了時刻で示されるものであってもよい。この場合、各シーンの中における代表的な映像画面(シーン中における最も評価の高い映像画面等)を別途記録しておくと、参照用画面の検索にも有効である。   The reproduction information generation unit 311 generates reproduction information describing a video reproduction procedure / method according to the scene extracted by the scene analysis unit 310. This reproduction information may be indicated by the start time and end time of a scene to be reproduced as shown in FIG. 8, for example. In this case, if a representative video screen in each scene (a video screen having the highest evaluation in the scene, etc.) is recorded separately, it is also effective for searching the reference screen.

なお、再生情報の管理は上記の内容に限られず、他の方法であってもよい。例えば、フレーム番号での指定などでも可能である。また、再生情報生成部311が生成した再生情報を、MPEG等のTS(Transport Stream)として多重化部314で多重化する場合等には、多重化時に用いられる時刻情報(例えばPTSやDTSの時刻情報)等を用いて再生情報を記録することも可能である。H264の場合にも同様に所定の多重化時の時刻情報を用いてもよい。   Note that the management of reproduction information is not limited to the above contents, and other methods may be used. For example, designation by a frame number is also possible. In addition, when the reproduction information generated by the reproduction information generation unit 311 is multiplexed by the multiplexing unit 314 as a TS (Transport Stream) such as MPEG, the time information used at the time of multiplexing (for example, the time of PTS or DTS) It is also possible to record reproduction information using (information) etc. Similarly, in the case of H264, time information at the time of predetermined multiplexing may be used.

さらに、一部のビデオカメラのデータ記録方式として用いられているAVCHD(Advanced Video Codec High Definition)等の規格を用いて映像データを記録する場合には、PlayListファイル等に再生情報を記録する方法を用いても良い。   Furthermore, when video data is recorded using a standard such as AVCHD (Advanced Video Code High Definition), which is used as a data recording method of some video cameras, a method of recording reproduction information in a PlayList file or the like is used. It may be used.

以上により、撮影した映像からダイジェスト映像(要約された映像)を自動的に生成することが可能となる。   As described above, a digest video (summarized video) can be automatically generated from the captured video.

<3.属性情報におけるズームアップの扱いについて>
シーン解析部310は、ズームアップについて属性情報として一定の評価(優先度)(図6の例では30)を割り当てている。しかし、ズームアップの機能は、一般的にレンズ部300のレンズを制御することで映像の拡大倍率を変更する「光学ズーム」と、撮像部301(撮像部301〜信号処理部303の場合もある)で受像した映像信号の一部を信号処理として画像を拡大する「電子ズーム」の2種類がある。
<3. Handling zoom-up in attribute information>
The scene analysis unit 310 assigns a constant evaluation (priority) (30 in the example of FIG. 6) as attribute information for zooming up. However, the zoom-up function generally includes an “optical zoom” that changes the magnification of an image by controlling the lens of the lens unit 300, and an imaging unit 301 (imaging unit 301 to signal processing unit 303). There are two types of “electronic zoom” that enlarges an image by using a part of the video signal received in (1) as signal processing.

図9は、光学ズームと電子ズームとの使用例を示すものである。低倍率(0から10倍)の範囲では、光学ズームのみを用い、10倍以上の領域では、光学ズームと電子ズームを併用することで対応する。電子ズームは、光学ズームと比較して撮像部301で受像した映像の一部分を信号処理により拡大したものであるため、映像コンテンツの実質的な解像度(電子ズームで拡大される映像コンテンツの一部分を、撮像部301で受像する際の解像度)は、映像コンテンツの拡大倍率が大きくなるほど低下する。   FIG. 9 shows an example of using optical zoom and electronic zoom. In the range of low magnification (0 to 10 times), only the optical zoom is used, and in the region of 10 times or more, the optical zoom and the electronic zoom are used together. Since the electronic zoom is obtained by enlarging a part of the video received by the imaging unit 301 by signal processing as compared with the optical zoom, a substantial resolution of the video content (a part of the video content enlarged by the electronic zoom is The resolution at the time of image reception by the imaging unit 301 decreases as the enlargement magnification of the video content increases.

シーン解析部310は、光学ズームと電子ズームの特性を考慮してズームアップに対する属性情報及びその評価を設定する。光学ズームと電子ズームが図9に示すように、予め拡大倍率に応じて用いられるズーム方法が決められている場合について説明する。   The scene analysis unit 310 sets attribute information for zoom-up and its evaluation in consideration of the characteristics of optical zoom and electronic zoom. As shown in FIG. 9, the optical zoom and the electronic zoom will be described in the case where a zoom method to be used according to the enlargement magnification is determined in advance.

属性情報生成部309は、撮影時に各種センサや制御情報を収集する。拡大倍率の情報は、レンズ制御部307からの制御情報、及び、撮像制御部306または信号処理部303の情報等に基づいて、光学ズーム、電子ズームの動作内容から属性情報生成部309がシーン毎に算出する。   The attribute information generation unit 309 collects various sensors and control information at the time of shooting. Based on the control information from the lens control unit 307 and the information from the imaging control unit 306 or the signal processing unit 303, the magnification information is obtained by the attribute information generation unit 309 from the operation contents of the optical zoom and the electronic zoom for each scene. To calculate.

シーン解析部310は、属性情報生成部309が生成した拡大倍率の情報に基づいて、シーンの評価(優先度)を決定する。図10は、拡大倍率と評価の関係を示したグラフである。この場合、光学ズームの範囲では、拡大率が大きくなるにしたがって評価も増加する。しかし、電子ズームが作用し始める10倍以上の拡大倍率の領域に入ると、評価は減少し、20倍で評価が0となる。これは、電子ズームでは、撮影される映像の実質的な解像度が低下するため、電子ズームが作用し始める倍率になると、拡大倍率に応じて評価を下げるものである。これにより、ズームアップによる撮影者の注目度と画質の低下との関係を考慮した属性情報の評価が可能となる。図10の例では、所定の拡大倍率(閾値)と比較し、閾値よりも大きい場合(電子ズームが適用される場合)は、評価を減少、あるいは行わない。閾値よりも小さい場合(工学ズームのみの場合)は、属性情報の評価を行うものである。   The scene analysis unit 310 determines scene evaluation (priority) based on the magnification information generated by the attribute information generation unit 309. FIG. 10 is a graph showing the relationship between magnification and evaluation. In this case, in the optical zoom range, the evaluation increases as the enlargement ratio increases. However, the evaluation decreases when entering an area with an enlargement magnification of 10 times or more at which the electronic zoom starts to act, and the evaluation becomes 0 at 20 times. This is because, in the electronic zoom, the substantial resolution of the captured image is lowered, and therefore, when the magnification at which the electronic zoom starts to act is reached, the evaluation is lowered according to the enlargement magnification. As a result, it is possible to evaluate the attribute information in consideration of the relationship between the degree of attention of the photographer and the reduction in image quality due to zoom-up. In the example of FIG. 10, compared with a predetermined enlargement magnification (threshold value), if it is larger than the threshold value (when electronic zoom is applied), the evaluation is reduced or not performed. When it is smaller than the threshold value (in the case of engineering zoom only), the attribute information is evaluated.

また、別の評価方法として、図11に示す例がある。図11の例では、シーン解析部310は、光学ズームと電子ズームが併用される拡大倍率30倍までは拡大倍率に応じて評価を増加させる。それ以降については、評価を0とするものである。これは、電子ズームによる映像の拡大は、拡大倍率に応じて画質が劣化するが、電子ズームの拡大倍率が小さい領域では画質レベルが著しく低下するわけではないので、所定の拡大倍率(閾値)まではシーンの評価を行うものである。所定の拡大倍率を超えた場合は、画質レベルが著しく低下するためシーンの評価を行わない。図11の場合は30倍を所定の拡大倍率の境とした場合の例である。   Moreover, there exists an example shown in FIG. 11 as another evaluation method. In the example of FIG. 11, the scene analysis unit 310 increases the evaluation according to the enlargement magnification up to an enlargement magnification of 30 times in which the optical zoom and the electronic zoom are used together. After that, the evaluation is 0. This is because, when an image is enlarged by electronic zoom, the image quality deteriorates according to the enlargement magnification, but the image quality level does not decrease significantly in an area where the enlargement magnification of electronic zoom is small. Is to evaluate the scene. When the predetermined enlargement magnification is exceeded, the image quality level is remarkably lowered, and the scene is not evaluated. The case of FIG. 11 is an example when 30 times is set as a boundary of a predetermined magnification.

なお、拡大倍率10倍から30倍までの間は、電子ズームによる拡大が行われるが、この際、電子ズームで取得される映像の解像度を規定の解像度(例えば、表示画面の解像度、映像の記録の際に定められた解像度)に変換する技術を用いても良い。これにより、電子ズームを用いて撮影された映像を解像度補完により、より高い解像度で記録、表示等をすることが可能となり、電子ズームの欠点である実質的な解像度が低下する課題を解決することが可能となる。   It should be noted that enlargement by electronic zoom is performed between 10 and 30 times, and at this time, the resolution of the video acquired by the electronic zoom is set to a specified resolution (for example, display screen resolution, video recording). For example, a technique for converting the resolution to a resolution determined at the time of As a result, it is possible to record and display video captured using the electronic zoom at a higher resolution by complementing the resolution, and solve the problem that the substantial resolution, which is a drawback of the electronic zoom, is reduced. Is possible.

解像度補完には、映像を形成する個々のフレーム、それぞれで処理を行うフレーム内処理と、複数のフレームを用いて処理を行うフレーム間処理がある。上記の解像度補完には、いずれの方法を用いても良い。   Resolution complementation includes an individual frame forming an image, an intra-frame process in which processing is performed in each frame, and an inter-frame process in which processing is performed using a plurality of frames. Any method may be used for the above-described resolution complementation.

さらに別の評価方法として、図12に示す例がある。図12の例では、光学ズームのみの拡大領域の範囲と電子ズームが用いられる拡大領域の範囲とで、拡大倍率に応じて評価の増加率を変えるものである。この場合には、光学ズームによる拡大と電子ズームによる拡大の効果の大きさに関連させて、評価の方法を変えるものである。   As another evaluation method, there is an example shown in FIG. In the example of FIG. 12, the rate of increase in evaluation is changed in accordance with the enlargement magnification between an enlargement area range using only optical zoom and an enlargement area range where electronic zoom is used. In this case, the evaluation method is changed in relation to the effect of enlargement by optical zoom and enlargement by electronic zoom.

以上より、光学ズームと電子ズームによる映像の拡大倍率によってズームアップ時のシーンの評価をかえることで、より、撮影された映像内容に従ったシーンの抽出が可能となる。   As described above, by changing the evaluation of the scene at the time of zooming up according to the magnification of the image by the optical zoom and the electronic zoom, it becomes possible to extract the scene according to the content of the photographed image.

また属性情報生成部309が、レンズ制御部307や撮像制御部305から直接、光学ズーム、電子ズームの動作に関わる情報を取得できる場合は、シーン解析部は、これら映像倍率変更方法に基づいてシーンを評価することも可能である。例えば、光学ズームの場合は高評価とするが、電子ズームが動作している場合は、評価しない(評価0)としてもよい。   In addition, when the attribute information generation unit 309 can acquire information related to the optical zoom and electronic zoom operations directly from the lens control unit 307 and the imaging control unit 305, the scene analysis unit performs scenes based on these video magnification change methods. Can also be evaluated. For example, the evaluation is high in the case of the optical zoom, but may not be evaluated (evaluation 0) when the electronic zoom is operating.

この場合も上記と同様に撮影された映像内容に従ったシーンの抽出が可能となる。   In this case as well, it is possible to extract a scene according to the content of the video imaged as described above.

<4.新評価に基づく再生情報の生成について>
再生情報生成部311は、シーン解析部310がシーン毎に行った評価に基づいて再生すべきシーンを特定する。上記の映像の拡大倍率に応じたシーンの評価の例を図13に示す。図13は、シーンと拡大倍率(ズームレベル)と、再生される映像の関係を示した図である。図13(A)は、シーンとそのシーンの拡大倍率との関係を示した図である。シーン解析部はこの拡大倍率に応じてシーンを評価する。この例では、映像の拡大倍率(ズームレベル)が30倍を超えるシーンについては、評価しない(評価0とする)。図13(A)では、シーン1、2、4はいずれの拡大倍率が30倍以下であるが、シーン3が50倍であるため、シーン解析部310は、シーン3については評価していない。図13(B)
は、図13(A)のシーン1〜4に対応するシーンの位置を表す図である。図13(B)は、シーン解析部310の評価に基づいて、拡大倍率(ズームレベル)の属性情報を持つシーンに該当する部分、及びそのうち、評価されているシーンを示す図である。図13(C)は、シーン解析部310の評価に従って、再生情報生成部311が生成する再生情報により再生される映像を表す図である。
<4. About generation of reproduction information based on new evaluation>
The reproduction information generation unit 311 specifies a scene to be reproduced based on the evaluation performed by the scene analysis unit 310 for each scene. FIG. 13 shows an example of scene evaluation according to the above video magnification. FIG. 13 is a diagram illustrating a relationship between a scene, an enlargement magnification (zoom level), and a reproduced video. FIG. 13A shows the relationship between a scene and the magnification of the scene. The scene analysis unit evaluates the scene according to the magnification. In this example, a scene with an image magnification (zoom level) exceeding 30 times is not evaluated (evaluation is 0). In FIG. 13A, scenes 1, 2, and 4 have a magnification of 30 times or less, but since scene 3 is 50 times, scene analysis unit 310 does not evaluate scene 3. FIG. 13 (B)
FIG. 14 is a diagram illustrating scene positions corresponding to scenes 1 to 4 in FIG. FIG. 13B is a diagram illustrating a portion corresponding to a scene having magnification ratio (zoom level) attribute information based on the evaluation of the scene analysis unit 310 and a scene being evaluated. FIG. 13C is a diagram illustrating a video that is reproduced by the reproduction information generated by the reproduction information generation unit 311 in accordance with the evaluation of the scene analysis unit 310.

なお、再生情報生成部311が生成する再生情報は評価されたシーンのみを再生するものでなくてもよい。例えば、評価されたシーンについては、通常の速度で再生を行い、評価されなかったシーンについては高速再生を行うものであってもよい。つまり、評価されたシーン(評価の高いシーン)と評価されなかったシーン(評価の低いシーン)とで、再生方法をかえるものであってもよい。   Note that the reproduction information generated by the reproduction information generation unit 311 does not have to reproduce only the evaluated scene. For example, an evaluated scene may be reproduced at a normal speed, and a scene that has not been evaluated may be reproduced at a high speed. That is, the playback method may be changed between an evaluated scene (a highly evaluated scene) and a non-evaluated scene (a low evaluated scene).

以上、本実施の形態に示した構成により、ビデオカメラ100は撮影した映像から、好適なシーン抽出を行うことが可能となる。   As described above, with the configuration described in this embodiment, the video camera 100 can perform suitable scene extraction from the captured video.

(実施の形態2)
本実施の形態と実施の形態1との異なる点は、光学ズームと電子ズームの属性情報の評価についてである。その他の点については、実施の形態1と共通であるため、説明を省略する。
(Embodiment 2)
The difference between the present embodiment and the first embodiment is the evaluation of attribute information of optical zoom and electronic zoom. The other points are the same as those in the first embodiment, and thus description thereof is omitted.

本実施の形態では、拡大倍率とズームアップ時に伴う映像の実質的な解像度に基づいてシーンの評価を行う方法を示す。   In the present embodiment, a method for evaluating a scene based on an enlargement magnification and a substantial resolution of a video accompanying zoom-up will be described.

属性情報生成部309は、撮像制御部305又は映像解析部306からの情報に基づいて、映像の実質的な解像度を算出する。例えば、撮像部301で受像した映像信号を後段の映像AD変換部302、信号処理部303等で全く電子ズームの信号処理を行っていない場合、映像の実質的な解像度は撮像部301の解像度と等しくなる。電子ズームを使用している場合は、撮像部301で受像した画像の一部を信号処理により拡大しているため、映像の実質的な解像度を算出する必要がある。具体例を図14に示す。撮像部301の光を受像する撮像面1401は、撮像面全体でレンズ部300を透過した光を受像する。電子ズームの場合、撮像面1401が受像した光の内、一部の領域である部分領域1402で受像した光の信号のみを、信号処理により撮像面1401の大きさに拡大するものである。そのため、この場合の映像の実質的な解像度とは、この部分領域の解像度といえる。図14の例では、撮像面1401の解像度に(a/A)×(b/B)を乗じたものが実質的な解像度となる。   The attribute information generation unit 309 calculates the substantial resolution of the video based on information from the imaging control unit 305 or the video analysis unit 306. For example, when the video signal received by the imaging unit 301 is not subjected to electronic zoom signal processing by the subsequent video AD conversion unit 302, the signal processing unit 303, or the like, the substantial resolution of the video is the resolution of the imaging unit 301. Will be equal. When the electronic zoom is used, since a part of the image received by the imaging unit 301 is enlarged by signal processing, it is necessary to calculate the substantial resolution of the video. A specific example is shown in FIG. An imaging surface 1401 that receives light from the imaging unit 301 receives light that has passed through the lens unit 300 over the entire imaging surface. In the case of the electronic zoom, only the light signal received by the partial area 1402 which is a partial area of the light received by the imaging surface 1401 is enlarged to the size of the imaging surface 1401 by signal processing. Therefore, the substantial resolution of the video in this case can be said to be the resolution of this partial area. In the example of FIG. 14, the resolution is obtained by multiplying the resolution of the imaging surface 1401 by (a / A) × (b / B).

この場合の拡大倍率と実質的な解像度との関係を図15に示す。光学ズームのみにより映像を拡大している場合(10倍まで)、映像は撮像面1401全体の解像度を持つが、電子ズームによる拡大処理が行われると、拡大率に従って映像の実質的な解像度が低下する。   FIG. 15 shows the relationship between the magnification and the substantial resolution in this case. When the image is magnified only by the optical zoom (up to 10 times), the image has the resolution of the entire imaging surface 1401, but when the enlargement process is performed by the electronic zoom, the substantial resolution of the image is reduced according to the magnification ratio. To do.

シーン解析部310は、属性情報として上記の映像の実質的な解像度を利用してシーンの評価を行う。図15は、映像の拡大倍率と実質的な解像度の関係の一例を示すグラフである。図15において、解像度が60以上ではシーンとして評価し、60未満では評価しない(評価0)とする。この場合、シーン解析部は、映像の拡大倍率が30倍以下であれば、シーンとして評価され、30倍を超えると評価されないこととなる。   The scene analysis unit 310 evaluates the scene using the substantial resolution of the video as attribute information. FIG. 15 is a graph showing an example of the relationship between the image magnification and the actual resolution. In FIG. 15, a scene is evaluated when the resolution is 60 or more, and is not evaluated when the resolution is less than 60 (evaluation 0). In this case, the scene analysis unit is evaluated as a scene if the magnification of the video is 30 times or less, and is not evaluated if it exceeds 30 times.

以上より、本実施の形態では、映像の実質的な解像度に基づいてシーンを評価することにより、映像内容に従ったシーン抽出を自動的に行うことが可能となる。   As described above, in the present embodiment, it is possible to automatically perform scene extraction according to the video content by evaluating the scene based on the substantial resolution of the video.

なお、映像の実質的な解像度の算出には幾つかの方法がる。映像信号そのものを解析して拡大率を算出する場合は、映像信号を構成する一つの画素において、該画素とその隣接する画素又は該画素と一定の距離内にある他の画素との表示内容を比較し、表示内容の近似度を算出する。これを映像信号の画面全体でおこなうことで画面全体の近似度の傾向を計る。この結果により、映像の実質的な解像度を推定等することが可能となる。   There are several methods for calculating the substantial resolution of the video. When calculating the enlargement ratio by analyzing the video signal itself, in one pixel constituting the video signal, display contents of the pixel and its neighboring pixels or other pixels within a certain distance from the pixel are displayed. The degree of approximation of display contents is calculated by comparison. By performing this over the entire screen of the video signal, the tendency of the degree of approximation of the entire screen is measured. As a result, it is possible to estimate the substantial resolution of the video.

また、他の方法として、撮像部301〜信号処理部303までの制御内容から映像信号の拡大処理が施されていることを検出し、撮像制御部307等から、属性情報取得部309が拡大率を取得することで映像の実施的な解像度を正確に取得することも可能である。   As another method, it is detected from the control contents from the imaging unit 301 to the signal processing unit 303 that the enlargement process of the video signal is performed, and the attribute information acquisition unit 309 receives the enlargement rate from the imaging control unit 307 and the like. It is also possible to acquire the actual resolution of the video accurately by acquiring the.

本実施の形態では、属性情報の内容に基づいて評価を行い、評価の高いシーンから抽出する方法について説明したが、これに限定するものではない。例えば、評価の低いシーンのみを抽出し、映像再生時にそれら評価の低いシーンのみを除外して再生するものであってもよい。このようにすることで、視聴者は撮影した映像を大きく変更することなく、視聴することが可能となる。   In the present embodiment, the method of performing the evaluation based on the content of the attribute information and extracting from the highly evaluated scene has been described. However, the present invention is not limited to this. For example, only scenes with a low evaluation may be extracted, and only the scenes with a low evaluation may be excluded during video playback. In this way, the viewer can view the captured video without greatly changing.

(実施の形態3)
本実施の形態と実施の形態1との異なる点は、属性情報の評価についてである。その他の点については、実施の形態1と共通であるため、説明を省略する。
(Embodiment 3)
The difference between the present embodiment and the first embodiment is the evaluation of attribute information. The other points are the same as those in the first embodiment, and thus description thereof is omitted.

本実施の形態では、ズームアップ時、ズームダウン時の映像拡大率の時間単位での変化量に基づいてシーンの評価を行う方法を示す。これは、ズームアップやズームダウンの動作が著しく速く行われて撮影された映像は、見にくい映像(評価として低い)という考えに基づくものである。   In the present embodiment, a method for evaluating a scene based on the amount of change in time unit of the video enlargement ratio at the time of zooming up and zooming down is shown. This is based on the idea that images shot with zoom-up and zoom-down operations performed extremely fast are difficult to see (low evaluation).

図16に拡大変更速度(ズーム速度)とシーン評価(優先度)の関係の一例を示す。図16の例では、2倍/秒で拡大倍率を変更する際に最も高い評価(優先度)を設定している。これ以上の速度で映像の拡大倍率を変更する場合は、倍率を変更する速度が高くなるにしたがって評価(優先度)をさげている。これは、視聴者が映像を視聴する際に、視聴者にとって適正な映像の拡大変更速度(ズーム速度)を想定し、その想定に近い場合ほど高評価を得るとする考え方である。これにより、撮影した映像からより視聴者に好ましいシーンの抽出を自動的に行うことが可能となる。   FIG. 16 shows an example of the relationship between the enlargement change speed (zoom speed) and the scene evaluation (priority). In the example of FIG. 16, the highest evaluation (priority) is set when the enlargement magnification is changed at 2 times / second. When changing the enlargement magnification of a video at a higher speed, the evaluation (priority) is reduced as the speed of changing the magnification increases. This is an idea that when a viewer views a video, an enlargement change speed (zoom speed) of the video that is appropriate for the viewer is assumed, and the higher the rating is, the higher the rating is. Thereby, it is possible to automatically extract a scene more preferable for the viewer from the captured video.

なお、この拡大変更速度は、シーン解析部310が、レンズ制御部307によるレンズ部300を光学ズーム制御する際の制御内容や、撮像部300等による電子ズームの制御内容に基づいて単位時間毎、又は、単位フレーム毎の拡大変更速度を算出することが可能である。   The enlargement change speed is determined based on the control content when the scene analysis unit 310 performs optical zoom control of the lens unit 300 by the lens control unit 307 and the control content of electronic zoom by the imaging unit 300 or the like. Alternatively, it is possible to calculate the enlargement change speed for each unit frame.

また、別の方法として撮影された映像信号から拡大速度を算出することも可能である。この場合は、映像解析部306が連続するフレーム間での動きベクトルを算出する。この場合、ズームアップ及びズームダウンによる撮影が行われていると、撮影画像の中心を起点または終点として連続するフレーム間で放射状の動きベクトルを算出する。また、この際の動きベクトルの大きさでズームアップ、ズームダウンの拡大変更速度を推定することも可能である。以上より、映像解析部306による映像信号の解析により、画像変更速度(ズーム速度)の算出も可能である。   As another method, it is also possible to calculate the enlargement speed from a captured video signal. In this case, the video analysis unit 306 calculates a motion vector between consecutive frames. In this case, when shooting by zooming up and zooming down is performed, a radial motion vector is calculated between successive frames with the center of the shot image as the starting point or the ending point. It is also possible to estimate the zoom-in / zoom-out enlargement change speed based on the magnitude of the motion vector at this time. As described above, the image change speed (zoom speed) can also be calculated by analyzing the video signal by the video analysis unit 306.

以上により、シーン解析部310は、画像変更速度に応じてシーンの評価(優先度)をすることが可能となる。この評価に基づいて実施の形態1と同様に再生情報生成部311は、再生情報を生成することが可能となる。   As described above, the scene analysis unit 310 can evaluate (priority) the scene according to the image change speed. Based on this evaluation, the reproduction information generating unit 311 can generate reproduction information as in the first embodiment.

(実施の形態4)
本実施の形態と実施の形態1との異なる点は、光学ズームと電子ズームの属性情報の評価についてである。その他の点については、実施の形態1と共通であるため、説明を省略する。
(Embodiment 4)
The difference between the present embodiment and the first embodiment is the evaluation of attribute information of optical zoom and electronic zoom. The other points are the same as those in the first embodiment, and thus description thereof is omitted.

本実施の形態では、シーン解析部310が図2に示す三脚センサ218からの入力情報に基づいてシーン解析を行う例を説明する。   In this embodiment, an example will be described in which the scene analysis unit 310 performs scene analysis based on input information from the tripod sensor 218 illustrated in FIG.

一般に撮影時の拡大倍率(ズームアップ)が大きくなると、撮影時の手振れが大きくなるという課題がある。シーン解析部310は、レンズ制御部307や姿勢検出部308からの各種制御情報により、撮影時の手振れを検出することが可能である。また、レンズ部300が手振れ補正機能を備えている場合には、そこからの制御情報を直接取得することでも、手振れを検出することができる。   In general, when the enlargement magnification (zoom-up) at the time of shooting increases, there is a problem that camera shake at the time of shooting increases. The scene analysis unit 310 can detect camera shake during shooting based on various control information from the lens control unit 307 and the posture detection unit 308. Further, when the lens unit 300 has a camera shake correction function, camera shake can be detected by directly acquiring control information from the lens unit 300.

これらの手振れは、レンズ制御部307等を通じてレンズ部300を制御することにより、補正をすることが可能である。しかし、これらの補正は限られたものが一般であるため、特に撮影の拡大倍率が大きくなると、完全には補正できない場合がある。撮影時の手振れ補正等を防ぐには、一般には三脚等を用いて安定した状態での固定撮影が望ましい。   These camera shakes can be corrected by controlling the lens unit 300 through the lens control unit 307 or the like. However, since these corrections are generally limited, there is a case where the correction cannot be made completely, particularly when the magnification for photographing is increased. In order to prevent camera shake correction at the time of shooting, it is generally desirable to perform fixed shooting in a stable state using a tripod or the like.

そこで、シーン解析部310は、映像の拡大率と三脚センサ218との属性情報に基づいてシーン毎に評価を行う。具体的には、属性情報の一つである三脚センサが「無」を意味している場合は、図17(A)に示すシーンの評価を行う。属性情報の三脚使用が「有」を意味している場合は、図17(B)のように、シーン毎の評価を行う。   Therefore, the scene analysis unit 310 performs evaluation for each scene based on the magnification ratio of the video and the attribute information of the tripod sensor 218. Specifically, when the tripod sensor, which is one of the attribute information, means “none”, the scene shown in FIG. 17A is evaluated. When the tripod use of the attribute information means “present”, the evaluation for each scene is performed as shown in FIG.

シーン解析部310は図17(A)と図17(B)の評価方法を三脚の有無で切り換える。この評価方法は、拡大倍率が大きい場合の撮影では、撮影者が三脚無しで手に持って撮影すると手振れによる撮影映像の乱れ、拡大倍率が大きくても、ビデオカメラを三脚に固定して撮影する場合は、映像の乱れが比較的小さくなる、という観点で評価を行っている。そこで、本実施の形態では、映像の拡大倍率と三脚使用状況に基づいて、シーン毎の評価を切り換えて行うものである。   The scene analysis unit 310 switches between the evaluation methods shown in FIGS. 17A and 17B depending on whether a tripod is used. In this evaluation method, when shooting with a large magnification, if the photographer holds the camera in his / her hand without a tripod, the video will be disturbed due to camera shake, and the video camera will be fixed to a tripod even if the magnification is large. In this case, the evaluation is performed from the viewpoint that the disturbance of the image is relatively small. Therefore, in the present embodiment, the evaluation for each scene is switched based on the enlargement magnification of the video and the use status of the tripod.

これにより、撮影条件を考慮した撮影シーンの評価を行うことができ、視聴者によってより好ましいシーンの抽出を自動的に行うことが可能となる。   As a result, it is possible to evaluate a shooting scene in consideration of shooting conditions, and it is possible to automatically extract a more preferable scene by the viewer.

なお、本実施の形態では、三脚を例にあげて説明したが、これに限定するものではない。三脚以外の一脚であってもよい。つまり撮影時にビデオカメラが手振れ等の影響がない固定された状況(安定した状況)での撮影か、手振れ等の恐れのある状況(不安定な状況)での撮影かを識別できるものであればよい。これは、映像撮影装置がこれを識別する方法として、外部からの入力(三脚センサ218)を利用し、これによりシーン解析部310はシーン評価の評価方法を変えるというものである。   In the present embodiment, a tripod has been described as an example, but the present invention is not limited to this. A monopod other than a tripod may be used. In other words, if the video camera can identify whether the video camera is shooting in a fixed situation (stable situation) where there is no influence of camera shake, etc., or a situation where there is a risk of camera shake (unstable situation) Good. This is because the video photographing apparatus uses an external input (tripod sensor 218) as a method for identifying this, whereby the scene analysis unit 310 changes the evaluation method of the scene evaluation.

(実施の形態5)
本実施の形態と実施の形態4との異なる点は、電子ズームの評価についてである。その他の点については、実施の形態4と共通であるため説明を省略する。
(Embodiment 5)
The difference between the present embodiment and the fourth embodiment is the evaluation of electronic zoom. The other points are the same as those in the fourth embodiment, and thus description thereof is omitted.

本実施の形態では、信号処理部303が、電子ズームを行う際に、解像度補完処理を行う場合と行わない場合とで、シーン解析部310がシーン評価を異なるものとする場合について説明する。   In the present embodiment, a case will be described in which the scene analysis unit 310 performs different scene evaluations when the signal processing unit 303 performs the electronic zoom and when the resolution complementing process is not performed.

信号処理部303が、電子ズームを用いて撮影された映像を、解像度補完技術を用いて、映像の解像度を高めると、電子ズームの拡大率が相対的に小さい場合、電子ズームによる解像度の低下を解像度補完技術によって擬似的に補うことが可能となる。そのため、この場合には、シーン解析部310は、図17(B)に示すように、所定の解像度までは、シーンの評価を拡大倍率の増加に伴って、高める。   When the signal processing unit 303 increases the resolution of the video captured using the electronic zoom using the resolution complement technology, the resolution is reduced due to the electronic zoom when the enlargement rate of the electronic zoom is relatively small. It becomes possible to compensate in a pseudo manner by resolution complementation technology. Therefore, in this case, as shown in FIG. 17B, the scene analysis unit 310 increases the evaluation of the scene as the enlargement magnification is increased up to a predetermined resolution.

反対に、解像度補完技術を用いない場合、電子ズームによる拡大倍率の増加にともなって、映像の実質的な解像度も低下するため、図17(A)のように評価する。この場合、たとえば、映像の実質的な解像度の変化は、図15に記した解像度補完処理を行わない場合(実線)と解像度補完処理を行う場合(点線)のようになる。   On the other hand, when the resolution complementing technique is not used, the substantial resolution of the video also decreases as the enlargement magnification is increased by the electronic zoom. Therefore, the evaluation is performed as shown in FIG. In this case, for example, the substantial change in the resolution of the video is as in the case where the resolution complementing process shown in FIG.

これにより、解像度補完技術を伴った電子ズームの撮影であるか否かによって、シーンの評価を行うことが可能となり、より好ましいシーンの抽出をシーン解析部310は自動的に行うことができる。   This makes it possible to evaluate a scene depending on whether or not the electronic zoom is accompanied by a resolution complementation technique, and the scene analysis unit 310 can automatically perform a more preferable scene extraction.

なお、上記すべての実施の形態で説明した評価の方法(特に評価の嗜好)は、すべて一例であり上記の評価方法に限定されるものではない。例えば、視聴者の好む映像の種類に応じて評価の方法をかえてもよい。   Note that the evaluation methods (particularly evaluation preferences) described in all of the above embodiments are all examples and are not limited to the above evaluation methods. For example, the evaluation method may be changed according to the type of video preferred by the viewer.

また、上記の実施の形態で示した複数の評価方法を組み合わせて評価することも当然可能である。   In addition, it is naturally possible to evaluate by combining a plurality of evaluation methods shown in the above embodiments.

さらに、シーン解析部310が算出した属性情報に基づいて、別の属性情報(2次属性情報)を生成し、それらに基づいてシーンを評価するものであってもよい。属性情報生成部が収集する複数の属性情報から新たな属性情報を生成ることで、より高度なシーンの判別をすることも可能となる。   Furthermore, another attribute information (secondary attribute information) may be generated based on the attribute information calculated by the scene analysis unit 310, and the scene may be evaluated based on the attribute information. By generating new attribute information from a plurality of attribute information collected by the attribute information generation unit, it becomes possible to determine a more advanced scene.

また、上記の実施の形態では、映像撮影装置を用いて説明したが、本発明はこれに限定されるものではない。例えば、映像撮影装置で撮影した映像を編集する映像編集装置でも同様に実施できる。この場合、映像編集装置は、映像撮影装置から撮影した映像、音声だけを受け取り、それぞれの映像、音声のみを解析することでシーン毎の属性情報を抽出する方法を採用することで実現できる。さらに、映像編集装置が、映像、音声だけでなく、属性情報等も取得できる場合は、上記の実施の形態と同様に取得した属性情報に基づいてシーンの評価を行うことができる。   In the above-described embodiment, the video photographing apparatus has been described. However, the present invention is not limited to this. For example, the present invention can be similarly applied to a video editing apparatus that edits a video shot by a video shooting apparatus. In this case, the video editing apparatus can be realized by adopting a method of receiving attribute information for each scene by receiving only video and audio captured from the video imaging apparatus and analyzing only the video and audio. Furthermore, when the video editing apparatus can acquire not only video and audio, but also attribute information and the like, the scene can be evaluated based on the acquired attribute information in the same manner as in the above embodiment.

本発明は、映像を撮影する映像撮影装置や、映像を編集する映像編集装置で実現することができる。特に、映像撮影時の拡大率変更(ズーム)動作に関する属性情報を利用することで、より映像としての価値が高いシーンを自動的に抽出することが可能となる。   The present invention can be realized by a video photographing device for photographing a video or a video editing device for editing a video. In particular, it is possible to automatically extract a scene having a higher value as a video by using attribute information relating to an enlargement ratio changing (zoom) operation at the time of video shooting.

100 ビデオカメラ
200 レンズ群
201 撮像素子
202 映像ADC
203 映像信号変換IC
204 CPU
205 クロック
206 レンズ制御モジュール
207 姿勢検出センサ
208 入力ボタン
209 ディスプレイ
210 スピーカー
211 出力I/F
212 圧縮伸張IC
213 ROM
214 RAM
215 HDD
216 音声ADC
217 マイクロフォン
218 三脚センサ
300 レンズ部
301 撮像部
302 映像AD変換部
303 信号処理部
304 映像信号圧縮部
305 撮像制御部
306 映像解析部
307 レンズ制御部
308 姿勢検出部
309 属性情報生成部
310 シーン解析部
311 再生情報生成部
312 音声解析部
313 音声信号圧縮部
314 多重化部
315 記憶部
316 ダイジェスト再生部
317 映像信号伸張部
318 映像表示部
319 音声信号伸張部
320 音声出力部
321 音声AD変換部
322 マイク部
323 外部入力部
DESCRIPTION OF SYMBOLS 100 Video camera 200 Lens group 201 Image pick-up element 202 Image | video ADC
203 Video signal conversion IC
204 CPU
205 Clock 206 Lens Control Module 207 Posture Detection Sensor 208 Input Button 209 Display 210 Speaker 211 Output I / F
212 Compression / decompression IC
213 ROM
214 RAM
215 HDD
216 Audio ADC
217 Microphone 218 Tripod sensor 300 Lens unit 301 Imaging unit 302 Video AD conversion unit 303 Signal processing unit 304 Video signal compression unit 305 Imaging control unit 306 Video analysis unit 307 Lens control unit 308 Posture detection unit 309 Attribute information generation unit 310 Scene analysis unit 311 Playback Information Generation Unit 312 Audio Analysis Unit 313 Audio Signal Compression Unit 314 Multiplexing Unit 315 Storage Unit 316 Digest Playback Unit 317 Video Signal Expansion Unit 318 Video Display Unit 319 Audio Signal Expansion Unit 320 Audio Output Unit 321 Audio AD Conversion Unit 322 Microphone Part 323 External input part

Claims (7)

映像を撮影する映像撮影装置であって、
前記映像撮影時の属性情報を生成する属性情報生成部と、
前記属性情報に含まれる前記映像の映像倍率変更方法に関する情報と、映像倍率に関する情報と、前記映像の実質的な解像度に関する情報と、映像倍率の時間変化率に関する情報と、の少なくとも一つに基づいて前記映像をシーン毎に評価するシーン解析部と、
前記評価に基づいて、前記映像の再生情報を生成する再生情報生成部と、
を備える映像撮影装置。
A video shooting device for shooting video,
An attribute information generating unit for generating attribute information at the time of video shooting;
Based on at least one of information on the video magnification change method of the video included in the attribute information, information on the video magnification, information on the substantial resolution of the video, and information on the temporal change rate of the video magnification. A scene analysis unit for evaluating the video for each scene;
Based on the evaluation, a reproduction information generation unit that generates reproduction information of the video,
A video shooting device comprising:
被写体からの入射した光を電気信号に変換する撮像部と、
前記撮像部へ入射する光を調整するレンズ部と、
をさらに備え、
前記映像倍率変更方法に関する情報とは、前記レンズ部での光学調整による倍率変更方法と、前記撮像部が出力する電気信号に基づいた信号処理による倍率変更方法と、の少なくとも一つを示す情報である、
請求項1に記載の映像撮影装置。
An imaging unit that converts incident light from an object into an electrical signal;
A lens unit for adjusting light incident on the imaging unit;
Further comprising
The information on the video magnification changing method is information indicating at least one of a magnification changing method by optical adjustment in the lens unit and a magnification changing method by signal processing based on an electrical signal output from the imaging unit. is there,
The video imaging device according to claim 1.
前記シーン解析部は、前記映像倍率に関する情報に基づくシーンの評価を、前記映像コンテンツの映像倍率と所定の倍率とを比較して評価する、
請求項1に記載の映像撮影装置。
The scene analysis unit evaluates the evaluation of the scene based on the information on the video magnification by comparing the video magnification of the video content with a predetermined magnification;
The video imaging device according to claim 1.
前記シーン解析部は、前記映像コンテンツの実質的な解像度に関する情報に基づくシーンの評価を、前記映像コンテンツの実質的な解像度と所定の解像度とを比較して評価する、
請求項1に記載の映像撮影装置。
The scene analysis unit evaluates the evaluation of the scene based on the information regarding the substantial resolution of the video content by comparing the substantial resolution of the video content with a predetermined resolution;
The video imaging device according to claim 1.
前記シーン解析部は、前記映像倍率の時間変化率に関する情報に基づくシーンの評価を、前記映像コンテンツの時間変化率と所定の時間変化率とを比較して評価する、
請求項1に記載の映像撮影装置。
The scene analysis unit evaluates the evaluation of the scene based on the information about the time change rate of the video magnification by comparing the time change rate of the video content with a predetermined time change rate;
The video imaging device according to claim 1.
前記シーン解析部は、該映像撮影装置の撮影状況に応じて、前記評価方法を変える、
請求項1に記載の映像撮影装置。
The scene analysis unit changes the evaluation method according to a shooting situation of the video shooting device.
The video imaging device according to claim 1.
前記シーン解析部は、解像度補完処理の情報に基づいて、前記映像をシーン毎に評価する、
請求項1に記載の映像撮影装置。
The scene analysis unit evaluates the video for each scene based on the information of resolution complement processing.
The video imaging device according to claim 1.
JP2010023878A 2009-04-07 2010-02-05 Video photographing apparatus Pending JP2010263611A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010023878A JP2010263611A (en) 2009-04-07 2010-02-05 Video photographing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009092619 2009-04-07
JP2010023878A JP2010263611A (en) 2009-04-07 2010-02-05 Video photographing apparatus

Publications (1)

Publication Number Publication Date
JP2010263611A true JP2010263611A (en) 2010-11-18

Family

ID=43361276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010023878A Pending JP2010263611A (en) 2009-04-07 2010-02-05 Video photographing apparatus

Country Status (1)

Country Link
JP (1) JP2010263611A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015139162A (en) * 2014-01-23 2015-07-30 キヤノン株式会社 Acoustic signal processing apparatus, moving image imaging apparatus and control method therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015139162A (en) * 2014-01-23 2015-07-30 キヤノン株式会社 Acoustic signal processing apparatus, moving image imaging apparatus and control method therefor

Similar Documents

Publication Publication Date Title
JP5685732B2 (en) Video extraction device, program, and recording medium
JP5456023B2 (en) Image photographing apparatus, image photographing method, program, and integrated circuit
US8208792B2 (en) Content shooting apparatus for generating scene representation metadata
US7884860B2 (en) Content shooting apparatus
US8000558B2 (en) Thumbnail generating apparatus and image shooting apparatus
KR101000605B1 (en) Image pickup apparatus, image recording apparatus and image recording method
JP5106335B2 (en) Imaging apparatus, control method thereof, and program
JP4637045B2 (en) Imaging device
JP4992639B2 (en) Content shooting device
JP4960121B2 (en) Content shooting device
JPWO2015098110A1 (en) Imaging apparatus, imaging system, and imaging method
KR20150032165A (en) Moving image selection apparatus for selecting moving image to be combined, moving image selection method, and storage medium
JP2010245856A (en) Video editing device
JP2010074323A (en) Recording apparatus and method, and recording and playback apparatus and method
JP5655668B2 (en) Imaging apparatus, image processing method, and program
JP2007266659A (en) Imaging reproducing apparatus
US20130063621A1 (en) Imaging device
US8305467B2 (en) Image pickup apparatus and image pickup method
JP2011119936A (en) Photographing device and reproducing method
JP2011119934A (en) Image shooting device and image shooting method
JP2008205953A (en) Imaging device and image reproducing device
JP2010263611A (en) Video photographing apparatus
JP2011101161A (en) Imaging device, control method of the same, reproducing device, and program
JP2021002803A (en) Image processing apparatus, control method therefor, and program
JP2015192227A (en) Imaging apparatus, control method thereof, and program