JP2013055408A - Video processing device and control method therefor - Google Patents
Video processing device and control method therefor Download PDFInfo
- Publication number
- JP2013055408A JP2013055408A JP2011190684A JP2011190684A JP2013055408A JP 2013055408 A JP2013055408 A JP 2013055408A JP 2011190684 A JP2011190684 A JP 2011190684A JP 2011190684 A JP2011190684 A JP 2011190684A JP 2013055408 A JP2013055408 A JP 2013055408A
- Authority
- JP
- Japan
- Prior art keywords
- video
- information
- shooting time
- processing apparatus
- acquired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、動画像を処理する技術に関する。 The present invention relates to a technique for processing a moving image.
近年、家庭用デジタルビデオカメラの普及に加え、デジタル一眼レフカメラに動画撮影機能が追加されるなど、デジタル動画を撮影する機会が増えている。 In recent years, in addition to the popularization of home digital video cameras, there are increasing opportunities to shoot digital moving images, such as the addition of moving image shooting functions to digital single-lens reflex cameras.
一般に、撮影したままの動画を視聴することは退屈である。そのため、撮影した動画や静止画等の素材映像を集めて編集し、視聴に耐えうる編集後映像を作成する必要がある。このとき、映像に応じてカットの再生時間を変化させることで、編集後映像を観やすくできる。例えば、カットの再生時間は、映像の情報量が多いほど長くすることが望ましい。映像の情報量が多いほど、視聴者が映像の内容を理解するために多くの時間を要するためである。 In general, viewing a video as it is taken is tedious. Therefore, it is necessary to collect and edit material videos such as shot videos and still images, and to create edited videos that can withstand viewing. At this time, the edited video can be easily viewed by changing the playback time of the cut according to the video. For example, it is desirable that the cut playback time be longer as the amount of video information increases. This is because the larger the information amount of the video, the more time it takes for the viewer to understand the content of the video.
映像に応じてカットの再生時間を変化させる作業は、一般にはユーザが手作業で行うが、自動で行うシステムも存在する。 The operation of changing the reproduction time of the cut in accordance with the video is generally performed manually by the user, but there is a system that automatically performs the operation.
例えば、特許文献1に公開されている方法によれば、スライドショーの再生時、画像内の人物の数が多いほど再生時間を短くする。これにより、主役の写っている画像を長い時間表示することを可能にしている。
For example, according to the method disclosed in
また、特許文献2に公開されている方法によれば、電子アルバムの自動ページ送りにおいて、画像内のアルバムのページに含まれる画像の枚数や動画の時間に応じて、ページの再生時間を変化させる。これにより、情報量が多いページの再生時間を長くすることを可能にしている。
According to the method disclosed in
これらの方法を応用することで、映像の編集時に、映像に応じてカットの再生時間を変化させることが容易に可能となる。 By applying these methods, it is possible to easily change the playback time of the cut according to the video when editing the video.
上記の方法を利用するためには、予め十分な長さの素材映像を撮影しておくことが必要となる。 In order to use the above method, it is necessary to take a sufficiently long material image in advance.
しかしながら、撮影時に、撮影している映像の、編集時に必要となる長さを判断することは、ユーザにとって非常に困難である。そのため、ユーザが必要な長さの映像を撮り忘れてしまうという問題が発生する。全ての映像を長めに撮影しておいても良いが、その場合には、編集時に使用しない余分な映像が記憶容量を圧迫し、トータルの記録時間が短くなってしまうという問題が発生する。 However, it is very difficult for the user to determine the length required for editing the video being shot during shooting. Therefore, there arises a problem that the user forgets to take a video having a required length. All the videos may be taken longer, but in this case, an extra video that is not used at the time of editing presses the storage capacity, resulting in a problem that the total recording time is shortened.
本発明は、上記の問題を鑑みて、ユーザに、編集時に最低限必要な長さを容易に知らせることができる映像処理装置を提供することを目的としている。 In view of the above problems, an object of the present invention is to provide a video processing apparatus capable of easily notifying a user of a minimum length required for editing.
上記の目的を達成するための本発明の一態様による映像処理装置は以下の構成を備える。すなわち、映像を入力する映像入力手段と、前記映像入力手段によって入力された映像から映像情報を取得する映像情報取得手段と、前記映像情報取得手段によって取得された映像情報に基づいて推奨撮影時間を取得する推奨撮影時間取得手段と、前記推奨撮影時間取得手段によって取得された推奨撮影時間に基づく情報を提示する提示手段とを備える。 In order to achieve the above object, a video processing apparatus according to an aspect of the present invention has the following arrangement. That is, a video input unit for inputting video, a video information acquisition unit for acquiring video information from the video input by the video input unit, and a recommended shooting time based on the video information acquired by the video information acquisition unit Recommended photographing time acquisition means to be acquired, and presenting means for presenting information based on the recommended photographing time acquired by the recommended photographing time acquisition means.
本発明によれば、撮影している映像の映像情報から、ユーザに、編集時に最低限必要な長さを容易に知らせることができるようになる。 According to the present invention, it is possible to easily inform the user of the minimum length required for editing from the video information of the video being shot.
以下、本発明の好適な実施形態について添付の図面を参照して詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[第1実施形態]
図1は、本実施形態を実現する映像処理装置の概略を示した図である。
[First Embodiment]
FIG. 1 is a diagram showing an outline of a video processing apparatus that realizes the present embodiment.
撮像部101は、ズームレンズ、フォーカスレンズ,ぶれ補正レンズ,絞り,シャッター,光学ローパスフィルタ,iRカットフィルタ,カラーフィルタ,及びCMOSやCCDなどのセンサなどから構成され、被写体の光量を検知する。
The
A/D変換部102は、被写体の光量をデジタル値に変換する。信号処理部103は、上記デジタル値にデモザイキング処理,ホワイトバランス処理,ガンマ処理などを行い、デジタル画像を生成する。D/A変換部104は、上記デジタル画像に対しアナログ変換を行う。
The A /
エンコーダ部105は、上記デジタル画像をJPEG,MPEG,H.264などのファイルフォーマットに変換する処理を行う。メディアインターフェース106は、映像処理装置をPCやその他メディア(例えば、ハードディスク,メモリーカード,CFカード,SDカード,USBメモリ)につなぐためのインターフェースである。
The
CPU107は、各構成の処理全てに関わり、ROM108やRAM109に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。また、ROM108とRAM109は、その処理に必要なプログラム,データ,作業領域などをCPU107に提供する。後述する各処理も、ROM、RAMに格納されている処理プログラムを読み込み、CPU107で実行される。
The
撮像系制御部110は、フォーカスを合わせる,シャッターを開く,絞りを調節するなどの、CPU107から指示された撮像系の制御を行う。
The imaging
操作部111は、ボタンやモードダイヤルなどが該当し、これらを介して入力されたユーザ指示を受け取る。レンズのズームなどの指示も、操作部111を介して行うことができる。キャラクタージェネレータ112は、文字やグラフィックなどを生成する。
The
表示部113は、一般的には液晶ディスプレイが広く用いられており、キャラクタージェネレーション部110やD/A変換部104から受け取った撮影画像や文字の表示を行う。また、タッチスクリーン機能を有していても良く、その場合は、ユーザ指示を操作部111の入力として扱うことも可能である。
In general, a liquid crystal display is widely used as the
動き検出部114は、公知の3軸の加速度センサや角速度センサなどから構成され、映像処理装置にかかる動きに関する情報(傾き,動きの方向,加速度など)を検出する。
The
なお、装置の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。 In addition, although the component of an apparatus exists other than the above, since it is not the main point of this invention, description is abbreviate | omitted.
また、本発明の構成要素は、複数の機器(例えばホストコンピュータ,インターフェース機器,リーダ,プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、カメラ,複写機,ファクシミリ装置など)に適用しても良い。 The component of the present invention can be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), or a device (for example, a camera, a copier, The present invention may be applied to a facsimile machine or the like.
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムが記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。 An object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the system reads and executes the program codes stored in the storage medium. Is also achieved.
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。プログラムコードを供給するための記憶媒体としては、例えば、フロッピーディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のデータ保存部,ROMなどを用いることが出来る。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile data storage unit, a ROM, or the like can be used. .
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部を行う。さらに、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. Perform some of the actual processing. Furthermore, it is needless to say that the case where the functions of the above-described embodiments are realized by the processing is included.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるデータ保存部に書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, the program code read from the storage medium is written to a data storage unit provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing, and the processing of the above-described embodiment is realized by the processing. Needless to say.
本実施形態では、上記映像処理装置の一形態として、ビデオカメラを例にとって説明する。 In the present embodiment, a video camera will be described as an example of the video processing apparatus.
図2は、本実施形態における映像処理装置であるビデオカメラの外観を示す図である。 FIG. 2 is a diagram illustrating an appearance of a video camera that is a video processing apparatus according to the present embodiment.
ボタン201は、撮影開始・終了を指示するためのボタンである。撮影が行われていない状態でボタン201が押下されると、映像の撮影を開始する。撮影が行われている状態でボタン201が押下されると、撮影を終了する。 The button 201 is a button for instructing start / end of shooting. When the button 201 is pressed in a state where shooting is not performed, video shooting is started. When the button 201 is pressed while shooting is being performed, shooting is terminated.
ディスプレイ202は、各種情報を表示するためのディスプレイである。図1における表示部113に相当する。撮影中の映像に加え、文字やグラフィックなどを表示することができる。ここでは映像とは主に動画のことを指すが、静止画も撮影可能なものであってもよい。
The
図3は、本実施形態における機能構成を示すブロック図である。映像処理装置301には、映像入力部302、処理部303、映像情報取得部304、推奨映像時間取得部305、提示部306を備える。なお、処理部303は、図1のCPU107に相当する。また、提示部306は、図1の表示部113、図2のディスプレイ202に相当する。
FIG. 3 is a block diagram showing a functional configuration in the present embodiment. The
映像入力部302で映像が入力されると、映像情報取得部304が入力された映像から必要な情報を取得し、取得した情報から、推奨映像時間取得部305が推奨時間を取得し、取得された推奨時間を提示部306が提示する。
When a video is input by the
図4は、本実施形態のビデオカメラにおいて、ユーザがボタン201を押下して撮影を開始した際の処理の流れを示すフローチャートである。また、ユーザの撮影動作とビデオカメラの動作の対応を、図5に示す。なお、図4におけるS***のそれぞれは、所定工程(ステップ)に該当する。S401では、フラグFに0を代入する。S402では、ユーザの撮影動作が固定されているかどうかを判断する。ユーザの撮影動作が固定されているかどうかは、操作部111の入力情報と、動き検出部114より取得できるビデオカメラの動きに関する情報とから判断する。
FIG. 4 is a flowchart showing the flow of processing when the user starts shooting by pressing the button 201 in the video camera of this embodiment. FIG. 5 shows the correspondence between the user's shooting operation and the operation of the video camera. Each of S *** in FIG. 4 corresponds to a predetermined process (step). In S401, 0 is substituted for the flag F. In S402, it is determined whether the user's shooting operation is fixed. Whether or not the user's shooting operation is fixed is determined based on input information of the
本実施形態では、操作部111からの入力情報がなく、かつ、ビデオカメラにかかる動きがない場合に、ユーザの撮影動作が固定されていると判断する。ただし、ビデオカメラにかかる動きを判断する際には、手ぶれ等による微量な動きは無視するものとする。ユーザの撮影動作が固定されていると判断されれば、S403へ進む。それ以外であれば、S405へ進む。
In this embodiment, when there is no input information from the
S403では、フラグFの値をチェックする。F=0であれば、S404へ進む。それ以外であれば、S408へ進む。S404では、フラグFに1を代入する。S405では、フラグFに0を代入する。 In S403, the value of the flag F is checked. If F = 0, the process proceeds to S404. Otherwise, the process proceeds to S408. In S404, 1 is assigned to the flag F. In S405, 0 is substituted for the flag F.
S406では、現在の時間T0を取得する。T0は、撮影ボタンを押下した瞬間から経過した秒数で表されるものとする。S407では、撮影している映像の内容から、推奨撮影時間Tを取得する。推奨撮影時間Tは、後の編集で使用するために最低限必要となる時間(秒)である。推奨撮影時間Tを取得する方法は、図8を用いて後述する。 In S406, to get the current time T 0. T 0 is represented by the number of seconds that have elapsed since the moment the photograph button was pressed. In S407, the recommended shooting time T is acquired from the content of the video being shot. The recommended shooting time T is the minimum time (seconds) required for use in later editing. A method of acquiring the recommended shooting time T will be described later with reference to FIG.
S408では、現在の時間T1を取得する。T1は、撮影ボタンを押下した瞬間から経過した秒数で表されるものとする。S409では、固定撮影持続時間Tkを取得する。Tkは、ユーザの撮影動作が固定されていると判断されてから経過した時間(秒)であり、次の式により算出する。 In S408, to get the T 1 the current time. T 1 is assumed to be expressed by the number of seconds elapsed from the moment the user presses the capture button. In S409, to acquire the fixed shooting duration T k. T k is the time (seconds) that has elapsed since it was determined that the user's shooting operation is fixed, and is calculated by the following equation.
Tk = T1 − T0 …(1)
S410では、S407で取得した推奨撮影時間Tと、S409で取得した固定撮影持続時間Tkを、ディスプレイ202に表示する。表示は、例えば、図6に示すように行う。図6では、推奨撮影時間Tが最大値となるようなメータを作成し、メータ上に固定撮影持続時間Tkを表すことで、推奨撮影時間Tと固定撮影持続時間Tkの関係をグラフィカルに表示している。
T k = T 1 −T 0 (1)
In S410, the recommended imaging time T obtained in S407, the fixed photographing duration T k obtained in S409, is displayed on the
また、現在の撮影時間の達成度を、メッセージとして%表示するようにしてもよい。 Further, the degree of achievement of the current shooting time may be displayed as a message in%.
S411では、ユーザによりボタン201が押下されたかどうかを判断する。ボタン201が押下されたと判断されれば、S412へ進む。それ以外の場合は、S402へ進む。 In S411, it is determined whether or not the button 201 has been pressed by the user. If it is determined that the button 201 has been pressed, the process proceeds to S412. Otherwise, the process proceeds to S402.
S412は、ビデオカメラの撮影動作を終了し、撮影された映像を保存する。 In step S412, the shooting operation of the video camera is terminated, and the shot video is stored.
尚、上記説明では、撮影動作が固定されていると固定判断された場合に、固定をトリガに撮影時間の取得の開始のタイミングとしたが、シーンチェンジを検出して、シーンの変わり目から撮影時間を求めてもよい。 In the above description, when it is determined that the shooting operation is fixed, the timing for starting the acquisition of the shooting time is set as the trigger, but the shooting time is detected from the change of the scene when a scene change is detected. You may ask for.
(推奨撮影時間取得処理)
ここでは、図4のS407で行う、推奨撮影時間の取得の詳細について説明する。
(Recommended shooting time acquisition process)
Here, details of acquisition of the recommended shooting time performed in S407 of FIG. 4 will be described.
本実施形態では、推奨撮影時間を判断するために、まず、映像の内容を解析して映像の情報量Iを算出する。情報量Iは、0〜1の間の値で表されるものとする。また、情報量Iと推奨撮影時間Tが対応付けて保存されたデータベースを予め用意しておき、算出した情報量Iをキーにして、推奨撮影時間Tを取得する。データベースの例を図7に示す。情報量の算出方法は後述する。 In this embodiment, in order to determine the recommended shooting time, first, the content of video is analyzed to calculate the video information amount I. The information amount I is represented by a value between 0 and 1. Further, a database in which the information amount I and the recommended shooting time T are stored in association with each other is prepared in advance, and the recommended shooting time T is acquired using the calculated information amount I as a key. An example of the database is shown in FIG. A method for calculating the information amount will be described later.
図8は、本実施形態における推奨撮影時間を取得する際の処理の流れを示すフローチャートである。 FIG. 8 is a flowchart showing the flow of processing when acquiring the recommended shooting time in the present embodiment.
S801では、情報量Iに0を代入する。S802では、映像中の顔の数を元にした情報量IFを算出する。IFは、0〜1の間の値で表されるものとする。情報量IFの算出方法については、図9を用いて後述する。 In S801, 0 is substituted into the information amount I. In S802, it calculates the amount of information I F was based on the number of faces in the image. I F shall be represented by a value between 0 and 1. A method for calculating the amount of information I F, will be described later with reference to FIG.
S803では、映像中の色数を元にした情報量ICを算出する。ICは、0〜1の間の値で表されるものとする。情報量ICの算出方法については、図10を用いて後述する。 In S803, it calculates the amount of information I C was based on the number of colors in the image. I C is represented by a value between 0 and 1. A method of calculating the information amount I C will be described later with reference to FIG.
S804では、映像の情報量Iを算出する。情報量Iは、IF,ICを用いて、次のように算出される。ここで、a,bは、それぞれ、IF,ICに対する重み付けの値であり、a+b=2 となるように任意の値を設定する。本実施形態では、a=b=1 であるとする。 In step S804, the video information amount I is calculated. The information amount I is calculated as follows using I F and I C. Here, a and b are weighting values for I F and I C , respectively, and arbitrary values are set so that a + b = 2. In the present embodiment, it is assumed that a = b = 1.
I = ( a・IF + b・IC )/2 …(2)
S805では、情報量Iをキーにして、図7に示すデータベースから推奨撮影時間を取得する。
I = (a · I F + b · I C) / 2 ... (2)
In S805, the recommended shooting time is acquired from the database shown in FIG. 7 using the information amount I as a key.
図9は、図8のS802における、顔の数を元にした情報量IFを算出する処理の流れを示すフローチャートである。 Figure 9 is a flow chart illustrating in S802 of FIG. 8, a flow of a process for calculating the amount of information I F was based on the number of faces.
なお、以下の処理は、静止画像に対して行うものとする。処理の対象となる画像は、ビデオカメラで撮影される映像の1フレームを選択して使用する。また、映像の複数フレームから1枚の画像を作成し、処理の対象としても良い。 Note that the following processing is performed on a still image. As an image to be processed, one frame of video shot by a video camera is selected and used. Further, one image may be created from a plurality of frames of video and may be processed.
S901では、IFに0を代入する。S902では、画像中の顔の数NFを取得する。画像中の顔領域の検出は、公知の方法に従う。例えば、特開平09−252534号公報には、予め登録された標準顔画像(テンプレート)を用いて顔領域を抽出する技術が開示されている。特開平09−252534号公報は、更に、抽出された顔領域の中から眼球(黒目)や鼻穴などの特徴点の候補を抽出し、これらの配置や予め登録されている目、鼻、口領域などのテンプレートとの類似度から目、鼻、口等の顔部品を検出する技術が開示されている。 In S901, 0 is assigned to the I F. In S902, obtains the number N F of a face in an image. The detection of the face area in the image follows a known method. For example, Japanese Patent Laid-Open No. 09-252534 discloses a technique for extracting a face region using a standard face image (template) registered in advance. Japanese Patent Application Laid-Open No. 09-252534 further extracts candidate feature points such as eyeballs (black eyes) and nostrils from the extracted face region, and their arrangement and pre-registered eyes, nose, mouth A technique for detecting facial parts such as eyes, nose, and mouth from a similarity with a template such as a region is disclosed.
S903では、顔の数の最大値NF,MAXに値を代入する。NF,MAXには、1以上の任意の値を代入する。本実施形態では、NF,MAXは10であるとする。S904では、NFとNF,MAXの値を比較する。NF>NF,MAXであれば、S905へ進む。それ以外であれば、S906へ進む。S905では、IFに1.0を代入する。S906では、IFに(NF/NF,MAX)を代入する。 In step S903, a value is substituted for the maximum number of faces N F, MAX . An arbitrary value of 1 or more is substituted for N F and MAX . In the present embodiment , NF and MAX are assumed to be 10. In S904, it compares the value of N F and N F, MAX. If N F > N F, MAX , the process proceeds to S905. Otherwise, the process proceeds to S906. In S905, substituting the 1.0 to I F. In S906, substituting (N F / N F, MAX ) to I F.
図10は、図8のS803における、色数を元にした情報量ICを算出する処理の流れを示すフローチャートである。 Figure 10 is a flowchart showing the flow of processing for calculating in S803 of FIG. 8, the amount of information I C was based on the number of colors.
なお、以下の処理は、静止画像に対して行うものとする。処理の対象となる画像は、ビデオカメラで撮影される映像の1フレームを選択して使用する。また、映像の複数フレームから1枚の画像を作成し、処理の対象としても良い。 Note that the following processing is performed on a still image. As an image to be processed, one frame of video shot by a video camera is selected and used. Further, one image may be created from a plurality of frames of video and may be processed.
画像の各画素には、色情報として、R,G,Bの3チャンネルの値が各8ビットで格納されているものとする。したがって、R,G,Bはそれぞれ0〜255の範囲の値をとる。 Assume that each pixel of the image stores three channel values of R, G, and B as 8-bit colors as color information. Therefore, R, G, and B each take a value in the range of 0 to 255.
また、画像の各画素には、画像の左下を原点とし、右方向に+x,上方向に+yとなる座標系でアクセスできるものとする。この座標系において、r(i,j),g(i,j),b(i,j)は、x=i,y=jの位置の画素におけるR,G,Bの値をそれぞれ表すものとする。 Each pixel of the image can be accessed in a coordinate system in which the lower left of the image is the origin, + x in the right direction and + y in the upper direction. In this coordinate system, r (i, j), g (i, j), and b (i, j) represent R, G, and B values in the pixel at the position of x = i and y = j, respectively. And
また、画像の幅をW,画像の高さをHで表すものとする。 Also, the width of the image is represented by W and the height of the image is represented by H.
S1001では、ICに0を代入する。S1002では、256×256×256 の3次元配列FLGのバッファを作成する。FLG[r][g][b]のように表記することで、配列の任意の位置にアクセスできるものとする。S1003では、3次元配列FLGの全ての位置に0を代入する。 In S1001, 0 is substituted for I C. In S1002, a buffer of 256 × 256 × 256 three-dimensional array FLG is created. By notation such as FLG [r] [g] [b], an arbitrary position in the array can be accessed. In S1003, 0 is assigned to all positions of the three-dimensional array FLG.
S1004では、変数jに0を代入する。S1005では、変数iに0を代入する。S1006では、FLG[r(i,j)][g(i,j)][b(i,j)]の値をチェックする。FLG[r(i,j)][g(i,j)][b(i,j)]の値が0であれば、S1007へ進む。それ以外であれば、S1008へ進む。 In S1004, 0 is substituted into the variable j. In S1005, 0 is substituted into the variable i. In S1006, the value of FLG [r (i, j)] [g (i, j)] [b (i, j)] is checked. If the value of FLG [r (i, j)] [g (i, j)] [b (i, j)] is 0, the process proceeds to S1007. Otherwise, the process proceeds to S1008.
S1007では、FLG[r(i,j)][g(i,j)][b(i,j)]に1を代入する。S1008では、変数iに1を加算する。S1009では、変数iとWの値を比較する。i>Wであれば、S1010へ進む。それ以外であれば、S1006へ進む。S1010では、変数jに1を加算する。 In S1007, 1 is assigned to FLG [r (i, j)] [g (i, j)] [b (i, j)]. In S1008, 1 is added to the variable i. In S1009, the values of variables i and W are compared. If i> W, the process proceeds to S1010. Otherwise, the process proceeds to S1006. In S1010, 1 is added to the variable j.
S1011では、変数jとHの値を比較する。j>Hであれば、S1012へ進む。それ以外であれば、S1005へ進む。S1012では、画像の色数NCを取得する。画像の色数NCは、3次元配列FLGの全位置の値を足し合わせた値である。S1013では、色数の最大値NC,MAXに値を代入する。NC,MAXには、1〜16777216の間の任意の値を代入する。本実施形態では、NC,MAXは1000であるとする。 In S1011, the variable j is compared with the value of H. If j> H, the process proceeds to S1012. Otherwise, the process proceeds to S1005. In S1012, obtains the number of colors N C of the image. Color number N C of the image is a value obtained by adding the values of all the position of the three-dimensional array FLG. In S1013, a value is substituted for the maximum number of colors N C and MAX . An arbitrary value between 1 and 16777216 is substituted for N C and MAX . In the present embodiment, it is assumed that N C and MAX are 1000.
S1014では、NCとNC,MAXの値を比較する。NC>NC,MAXであれば、S1015へ進む。それ以外であれば、S1016へ進む。S1015では、ICに1.0を代入する。S1016では、ICに(NC/NC,MAX)を代入する。 In S1014, the values of N C and N C, MAX are compared. If N C > N C, MAX , the process proceeds to S1015. Otherwise, the process proceeds to S1016. In S1015, 1.0 is substituted for I C. In S1016, (N C / N C, MAX ) is substituted for I C.
なお、以上の例では、各々の画素が色情報としてR,G,Bの3チャンネルの値を各8ビットで持っているものとした。しかし、他の形式で色情報を持っていても良い。例えば、R,G,Bの3チャンネルの値を各16ビットで持っている場合には、それぞれの値の範囲は0〜65535となり、3次元配列FLGも 65535×65535×65535 のバッファを作成する。また、チャンネル数が増えた場合には、FLGの次元数が増える。 In the above example, each pixel has values of 3 channels of R, G, and B as color information in 8 bits each. However, it may have color information in other formats. For example, if the values of 3 channels of R, G, B are each 16 bits, the range of each value is 0 to 65535, and the 3D array FLG also creates a buffer of 65535 × 65535 × 65535. . In addition, when the number of channels increases, the number of FLG dimensions increases.
また、上記の例では、画像の1画素ごとの色をカウントしていった。しかし、画像を複数ブロックに分割し、ブロック毎の色をカウントしても良い。例えば、20×20ピクセルのブロック毎に平均の色を求めてカウントしていっても良い。 In the above example, the color for each pixel of the image is counted. However, the image may be divided into a plurality of blocks and the color for each block may be counted. For example, an average color may be obtained and counted for each block of 20 × 20 pixels.
以上のように、本実施形態では、図8を用いて説明したように、映像情報として、映像の情報量を用いて、編集時に最低限必要となる映像の長さを判断して推奨撮影時間を取得し、ユーザに呈示する。これにより、ユーザに、映像毎に、編集時に最低限必要な長さを容易に知らせることができるようになる。更に、余分な映像を撮影することによる記憶容量の圧迫を削減することができるようになる。 As described above, in the present embodiment, as described with reference to FIG. 8, the recommended shooting time is determined by determining the minimum video length required for editing using the video information amount as video information. Is obtained and presented to the user. This makes it possible to easily inform the user of the minimum length required for editing for each video. Furthermore, it is possible to reduce the compression of the storage capacity due to the shooting of extra video.
なお、本実施形態では、映像の情報量を算出する際に、映像中の顔の数と色数を用いたが、他の項目を用いても良い。例えば、画像を周波数解析し、高周波成分の数を用いて映像の情報量を算出するようにしても良い。また、オブジェクトを検出して、オブジェクトの数を用いてもよい。 In the present embodiment, the number of faces and the number of colors in the video are used when calculating the information amount of the video, but other items may be used. For example, the frequency of the image may be analyzed, and the amount of video information may be calculated using the number of high frequency components. Alternatively, an object may be detected and the number of objects may be used.
また、本実施形態では、取得した推奨撮影時間は、情報としてユーザに提示するのみであったが、他の動作を加えても良い。例えば、固定撮影持続時間が推奨撮影時間を越えたら、強制的に撮影を終了するようにしても良い。 In the present embodiment, the acquired recommended shooting time is only presented to the user as information, but other operations may be added. For example, when the fixed shooting duration exceeds the recommended shooting time, the shooting may be forcibly terminated.
なお、上記実施形態では、映像の情報量から推奨撮影時間を取得したが、本発明はこれに限らない。例えば、映像情報として、顔のサイズが表示画面に対して大きいほど推奨撮影時間を長くすることも有効である。これによれば、顔のアップがあった場合に、長時間表示することができる。 In the above embodiment, the recommended shooting time is acquired from the video information amount, but the present invention is not limited to this. For example, as video information, it is effective to increase the recommended shooting time as the face size is larger than the display screen. According to this, when the face is raised, it can be displayed for a long time.
以上より、映像情報として、顔のサイズを用いて推奨撮影時間を取得し、ユーザに提示することで、ユーザに、映像毎に、編集時に最低限必要な長さを容易に知らせることができるようになる。 As described above, the recommended shooting time is acquired as the video information using the face size and presented to the user so that the user can easily be notified of the minimum length required for editing for each video. become.
以上の実施形態によれば、映像情報から推奨撮影時間を取得し、ユーザに提示することで、ユーザに、映像毎に、編集時に最低限必要な長さを容易に知らせることができるようになる。 According to the above embodiment, by obtaining the recommended shooting time from the video information and presenting it to the user, it becomes possible to easily inform the user of the minimum length required for editing for each video. .
Claims (10)
前記入力された映像から映像情報を取得する映像情報取得手段と、
前記取得された映像情報に基づいて推奨撮影時間を取得する
推奨撮影時間取得手段と、
前記取得された推奨撮影時間に基づく情報を提示する提示手段と
を備えることを特徴とする映像処理装置。 An input means for inputting video;
Video information acquisition means for acquiring video information from the input video;
Recommended shooting time acquisition means for acquiring a recommended shooting time based on the acquired video information;
A video processing apparatus comprising: presentation means for presenting information based on the acquired recommended shooting time.
前記固定判断手段によって固定されていると判断された場合に、前記推奨撮影時間取得手段は、前記推奨撮影時間の取得を開始することを特徴とする請求項1に記載の映像処理装置。 Fixed determination means for determining whether the shooting operation is fixed;
The video processing apparatus according to claim 1, wherein the recommended shooting time acquisition unit starts acquiring the recommended shooting time when it is determined by the fixing determination unit to be fixed.
入力手段により、映像を入力するステップと、
映像情報取得手段により、前記入力された映像から映像情報を取得するステップと、
推奨撮影時間取得手段により、前記取得された映像情報に基づいて推奨撮影時間を取得するステップと、
提示手段により、前記取得された推奨撮影時間に基づく情報を提示させるステップと
を備えることを特徴とする制御方法。 A method for controlling a video processing apparatus,
A step of inputting video by input means;
Acquiring video information from the input video by video information acquisition means;
Obtaining recommended shooting time based on the acquired video information by recommended shooting time acquisition means;
And a step of presenting information based on the acquired recommended photographing time by a presenting means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011190684A JP2013055408A (en) | 2011-09-01 | 2011-09-01 | Video processing device and control method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011190684A JP2013055408A (en) | 2011-09-01 | 2011-09-01 | Video processing device and control method therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013055408A true JP2013055408A (en) | 2013-03-21 |
Family
ID=48132057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011190684A Withdrawn JP2013055408A (en) | 2011-09-01 | 2011-09-01 | Video processing device and control method therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013055408A (en) |
-
2011
- 2011-09-01 JP JP2011190684A patent/JP2013055408A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4999268B2 (en) | Electronic camera and program | |
JP4645685B2 (en) | Camera, camera control program, and photographing method | |
KR101797041B1 (en) | Digital imaging processing apparatus and controlling method thereof | |
KR101901910B1 (en) | Method and apparatus for generating or storing resultant image which changes selected area | |
WO2009113383A1 (en) | Imaging device and imaging reproduction device | |
JP4732303B2 (en) | Imaging device | |
CN105934940B (en) | Image processing apparatus, method and program | |
EP3316568B1 (en) | Digital photographing device and operation method therefor | |
KR101989152B1 (en) | Apparatus and method for capturing still image during moving image photographing or reproducing | |
KR20150078275A (en) | Digital Photographing Apparatus And Method For Capturing a Moving Subject | |
JP2015053741A (en) | Image reproduction device | |
JP2006303961A (en) | Imaging apparatus | |
KR20150141059A (en) | Apparatus and method for providing thumbnail image of moving picture | |
JP2009089220A (en) | Imaging apparatus | |
JP5266701B2 (en) | Imaging apparatus, subject separation method, and program | |
JP6104077B2 (en) | Photographing equipment and photographing method | |
JP2007228453A (en) | Imaging apparatus, reproduction device, program, and storage medium | |
JP2011239267A (en) | Imaging apparatus and image processing apparatus | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP2010171491A (en) | Imaging device, imaging method, and program | |
JP2004112550A (en) | Imaging apparatus, camera, program, and recording medium | |
JP2010081562A (en) | Imaging device, method, and program | |
JP2011066828A (en) | Imaging device, imaging method and program | |
JP5289354B2 (en) | Imaging device | |
JP2013055408A (en) | Video processing device and control method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141104 |