JP2013055408A - Video processing device and control method therefor - Google Patents

Video processing device and control method therefor Download PDF

Info

Publication number
JP2013055408A
JP2013055408A JP2011190684A JP2011190684A JP2013055408A JP 2013055408 A JP2013055408 A JP 2013055408A JP 2011190684 A JP2011190684 A JP 2011190684A JP 2011190684 A JP2011190684 A JP 2011190684A JP 2013055408 A JP2013055408 A JP 2013055408A
Authority
JP
Japan
Prior art keywords
video
information
shooting time
processing apparatus
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011190684A
Other languages
Japanese (ja)
Inventor
Naoki Matsuki
直紀 松木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011190684A priority Critical patent/JP2013055408A/en
Publication of JP2013055408A publication Critical patent/JP2013055408A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a video processing device which allows a minimum length required in editing to be easily known.SOLUTION: A video processing device inputs video (302), acquires video information from the input video (304), acquires a recommended photographing time on the basis of the acquired video information (305), and presents information based on the acquired recommended photographing time (306).

Description

本発明は、動画像を処理する技術に関する。   The present invention relates to a technique for processing a moving image.

近年、家庭用デジタルビデオカメラの普及に加え、デジタル一眼レフカメラに動画撮影機能が追加されるなど、デジタル動画を撮影する機会が増えている。   In recent years, in addition to the popularization of home digital video cameras, there are increasing opportunities to shoot digital moving images, such as the addition of moving image shooting functions to digital single-lens reflex cameras.

一般に、撮影したままの動画を視聴することは退屈である。そのため、撮影した動画や静止画等の素材映像を集めて編集し、視聴に耐えうる編集後映像を作成する必要がある。このとき、映像に応じてカットの再生時間を変化させることで、編集後映像を観やすくできる。例えば、カットの再生時間は、映像の情報量が多いほど長くすることが望ましい。映像の情報量が多いほど、視聴者が映像の内容を理解するために多くの時間を要するためである。   In general, viewing a video as it is taken is tedious. Therefore, it is necessary to collect and edit material videos such as shot videos and still images, and to create edited videos that can withstand viewing. At this time, the edited video can be easily viewed by changing the playback time of the cut according to the video. For example, it is desirable that the cut playback time be longer as the amount of video information increases. This is because the larger the information amount of the video, the more time it takes for the viewer to understand the content of the video.

映像に応じてカットの再生時間を変化させる作業は、一般にはユーザが手作業で行うが、自動で行うシステムも存在する。   The operation of changing the reproduction time of the cut in accordance with the video is generally performed manually by the user, but there is a system that automatically performs the operation.

例えば、特許文献1に公開されている方法によれば、スライドショーの再生時、画像内の人物の数が多いほど再生時間を短くする。これにより、主役の写っている画像を長い時間表示することを可能にしている。   For example, according to the method disclosed in Patent Document 1, when a slide show is reproduced, the reproduction time is shortened as the number of persons in the image increases. As a result, it is possible to display an image in which the leading role appears for a long time.

また、特許文献2に公開されている方法によれば、電子アルバムの自動ページ送りにおいて、画像内のアルバムのページに含まれる画像の枚数や動画の時間に応じて、ページの再生時間を変化させる。これにより、情報量が多いページの再生時間を長くすることを可能にしている。   According to the method disclosed in Patent Document 2, in the automatic page feed of an electronic album, the playback time of the page is changed according to the number of images included in the album page in the image and the time of the moving image. . This makes it possible to lengthen the playback time of a page with a large amount of information.

これらの方法を応用することで、映像の編集時に、映像に応じてカットの再生時間を変化させることが容易に可能となる。   By applying these methods, it is possible to easily change the playback time of the cut according to the video when editing the video.

特開2006−245646号公報JP 2006-245646 A 特開2002−157275号公報JP 2002-157275 A

上記の方法を利用するためには、予め十分な長さの素材映像を撮影しておくことが必要となる。   In order to use the above method, it is necessary to take a sufficiently long material image in advance.

しかしながら、撮影時に、撮影している映像の、編集時に必要となる長さを判断することは、ユーザにとって非常に困難である。そのため、ユーザが必要な長さの映像を撮り忘れてしまうという問題が発生する。全ての映像を長めに撮影しておいても良いが、その場合には、編集時に使用しない余分な映像が記憶容量を圧迫し、トータルの記録時間が短くなってしまうという問題が発生する。   However, it is very difficult for the user to determine the length required for editing the video being shot during shooting. Therefore, there arises a problem that the user forgets to take a video having a required length. All the videos may be taken longer, but in this case, an extra video that is not used at the time of editing presses the storage capacity, resulting in a problem that the total recording time is shortened.

本発明は、上記の問題を鑑みて、ユーザに、編集時に最低限必要な長さを容易に知らせることができる映像処理装置を提供することを目的としている。   In view of the above problems, an object of the present invention is to provide a video processing apparatus capable of easily notifying a user of a minimum length required for editing.

上記の目的を達成するための本発明の一態様による映像処理装置は以下の構成を備える。すなわち、映像を入力する映像入力手段と、前記映像入力手段によって入力された映像から映像情報を取得する映像情報取得手段と、前記映像情報取得手段によって取得された映像情報に基づいて推奨撮影時間を取得する推奨撮影時間取得手段と、前記推奨撮影時間取得手段によって取得された推奨撮影時間に基づく情報を提示する提示手段とを備える。   In order to achieve the above object, a video processing apparatus according to an aspect of the present invention has the following arrangement. That is, a video input unit for inputting video, a video information acquisition unit for acquiring video information from the video input by the video input unit, and a recommended shooting time based on the video information acquired by the video information acquisition unit Recommended photographing time acquisition means to be acquired, and presenting means for presenting information based on the recommended photographing time acquired by the recommended photographing time acquisition means.

本発明によれば、撮影している映像の映像情報から、ユーザに、編集時に最低限必要な長さを容易に知らせることができるようになる。   According to the present invention, it is possible to easily inform the user of the minimum length required for editing from the video information of the video being shot.

映像処理装置の概略を示す図The figure which shows the outline of the image processing device 映像処理装置の外観を示す図The figure which shows the appearance of the image processing device 機能構成を示すブロック図である。It is a block diagram which shows a function structure. ユーザが撮影を開始した際の処理の流れを示すフローチャートFlowchart showing the flow of processing when the user starts shooting 映像撮影時のユーザ動作とビデオカメラ動作の対応を示す図Diagram showing the correspondence between user actions and video camera actions during video shooting 推奨撮影時間と固定撮影持続時間の表示例を示す図Figure showing a display example of recommended shooting time and fixed shooting duration 映像の情報量と推奨撮影時間の対応表の例を示す図The figure which shows the example of the correspondence table of information quantity of picture and recommended photographing time 推奨撮影時間を取得する処理の流れを示すフローチャートFlow chart showing the flow of processing to obtain recommended shooting time 顔の数による情報量を算出する処理の流れを示すフローチャートFlow chart showing the flow of processing for calculating the amount of information based on the number of faces 色数による情報量を算出する処理の流れを示すフローチャートA flowchart showing a flow of processing for calculating the information amount by the number of colors

以下、本発明の好適な実施形態について添付の図面を参照して詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[第1実施形態]
図1は、本実施形態を実現する映像処理装置の概略を示した図である。
[First Embodiment]
FIG. 1 is a diagram showing an outline of a video processing apparatus that realizes the present embodiment.

撮像部101は、ズームレンズ、フォーカスレンズ,ぶれ補正レンズ,絞り,シャッター,光学ローパスフィルタ,iRカットフィルタ,カラーフィルタ,及びCMOSやCCDなどのセンサなどから構成され、被写体の光量を検知する。   The imaging unit 101 includes a zoom lens, a focus lens, a shake correction lens, a diaphragm, a shutter, an optical low-pass filter, an iR cut filter, a color filter, and a sensor such as a CMOS or a CCD, and detects the amount of light of a subject.

A/D変換部102は、被写体の光量をデジタル値に変換する。信号処理部103は、上記デジタル値にデモザイキング処理,ホワイトバランス処理,ガンマ処理などを行い、デジタル画像を生成する。D/A変換部104は、上記デジタル画像に対しアナログ変換を行う。   The A / D conversion unit 102 converts the light amount of the subject into a digital value. The signal processing unit 103 performs demosaicing processing, white balance processing, gamma processing, and the like on the digital value to generate a digital image. The D / A conversion unit 104 performs analog conversion on the digital image.

エンコーダ部105は、上記デジタル画像をJPEG,MPEG,H.264などのファイルフォーマットに変換する処理を行う。メディアインターフェース106は、映像処理装置をPCやその他メディア(例えば、ハードディスク,メモリーカード,CFカード,SDカード,USBメモリ)につなぐためのインターフェースである。   The encoder unit 105 converts the digital image into JPEG, MPEG, H.264. A process of converting to a file format such as H.264 is performed. The media interface 106 is an interface for connecting the video processing apparatus to a PC or other media (for example, a hard disk, a memory card, a CF card, an SD card, a USB memory).

CPU107は、各構成の処理全てに関わり、ROM108やRAM109に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。また、ROM108とRAM109は、その処理に必要なプログラム,データ,作業領域などをCPU107に提供する。後述する各処理も、ROM、RAMに格納されている処理プログラムを読み込み、CPU107で実行される。   The CPU 107 is involved in all the processes of each configuration, reads the instructions stored in the ROM 108 and RAM 109 in order, interprets them, and executes the processes according to the results. The ROM 108 and the RAM 109 provide the CPU 107 with programs, data, work areas, and the like necessary for the processing. Each process to be described later is also executed by the CPU 107 by reading a processing program stored in the ROM and RAM.

撮像系制御部110は、フォーカスを合わせる,シャッターを開く,絞りを調節するなどの、CPU107から指示された撮像系の制御を行う。   The imaging system control unit 110 controls the imaging system instructed by the CPU 107 such as focusing, opening a shutter, and adjusting an aperture.

操作部111は、ボタンやモードダイヤルなどが該当し、これらを介して入力されたユーザ指示を受け取る。レンズのズームなどの指示も、操作部111を介して行うことができる。キャラクタージェネレータ112は、文字やグラフィックなどを生成する。   The operation unit 111 corresponds to a button, a mode dial, and the like, and receives a user instruction input via these buttons. An instruction such as zooming of the lens can also be given via the operation unit 111. The character generator 112 generates characters and graphics.

表示部113は、一般的には液晶ディスプレイが広く用いられており、キャラクタージェネレーション部110やD/A変換部104から受け取った撮影画像や文字の表示を行う。また、タッチスクリーン機能を有していても良く、その場合は、ユーザ指示を操作部111の入力として扱うことも可能である。   In general, a liquid crystal display is widely used as the display unit 113 and displays a captured image and characters received from the character generation unit 110 and the D / A conversion unit 104. In addition, a touch screen function may be provided, and in this case, a user instruction can be handled as an input of the operation unit 111.

動き検出部114は、公知の3軸の加速度センサや角速度センサなどから構成され、映像処理装置にかかる動きに関する情報(傾き,動きの方向,加速度など)を検出する。   The motion detection unit 114 is composed of a known triaxial acceleration sensor, angular velocity sensor, and the like, and detects information (tilt, direction of motion, acceleration, etc.) related to the motion applied to the video processing device.

なお、装置の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。   In addition, although the component of an apparatus exists other than the above, since it is not the main point of this invention, description is abbreviate | omitted.

また、本発明の構成要素は、複数の機器(例えばホストコンピュータ,インターフェース機器,リーダ,プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、カメラ,複写機,ファクシミリ装置など)に適用しても良い。   The component of the present invention can be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), or a device (for example, a camera, a copier, The present invention may be applied to a facsimile machine or the like.

本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムが記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。   An object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the system reads and executes the program codes stored in the storage medium. Is also achieved.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。プログラムコードを供給するための記憶媒体としては、例えば、フロッピーディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のデータ保存部,ROMなどを用いることが出来る。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile data storage unit, a ROM, or the like can be used. .

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部を行う。さらに、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. Perform some of the actual processing. Furthermore, it is needless to say that the case where the functions of the above-described embodiments are realized by the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるデータ保存部に書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, the program code read from the storage medium is written to a data storage unit provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing, and the processing of the above-described embodiment is realized by the processing. Needless to say.

本実施形態では、上記映像処理装置の一形態として、ビデオカメラを例にとって説明する。   In the present embodiment, a video camera will be described as an example of the video processing apparatus.

図2は、本実施形態における映像処理装置であるビデオカメラの外観を示す図である。   FIG. 2 is a diagram illustrating an appearance of a video camera that is a video processing apparatus according to the present embodiment.

ボタン201は、撮影開始・終了を指示するためのボタンである。撮影が行われていない状態でボタン201が押下されると、映像の撮影を開始する。撮影が行われている状態でボタン201が押下されると、撮影を終了する。   The button 201 is a button for instructing start / end of shooting. When the button 201 is pressed in a state where shooting is not performed, video shooting is started. When the button 201 is pressed while shooting is being performed, shooting is terminated.

ディスプレイ202は、各種情報を表示するためのディスプレイである。図1における表示部113に相当する。撮影中の映像に加え、文字やグラフィックなどを表示することができる。ここでは映像とは主に動画のことを指すが、静止画も撮影可能なものであってもよい。   The display 202 is a display for displaying various information. This corresponds to the display unit 113 in FIG. In addition to the video being shot, characters and graphics can be displayed. Here, video mainly refers to moving images, but still images may also be taken.

図3は、本実施形態における機能構成を示すブロック図である。映像処理装置301には、映像入力部302、処理部303、映像情報取得部304、推奨映像時間取得部305、提示部306を備える。なお、処理部303は、図1のCPU107に相当する。また、提示部306は、図1の表示部113、図2のディスプレイ202に相当する。   FIG. 3 is a block diagram showing a functional configuration in the present embodiment. The video processing device 301 includes a video input unit 302, a processing unit 303, a video information acquisition unit 304, a recommended video time acquisition unit 305, and a presentation unit 306. The processing unit 303 corresponds to the CPU 107 in FIG. The presentation unit 306 corresponds to the display unit 113 in FIG. 1 and the display 202 in FIG.

映像入力部302で映像が入力されると、映像情報取得部304が入力された映像から必要な情報を取得し、取得した情報から、推奨映像時間取得部305が推奨時間を取得し、取得された推奨時間を提示部306が提示する。   When a video is input by the video input unit 302, the video information acquisition unit 304 acquires necessary information from the input video, and the recommended video time acquisition unit 305 acquires and acquires the recommended time from the acquired information. The presentation unit 306 presents the recommended time.

図4は、本実施形態のビデオカメラにおいて、ユーザがボタン201を押下して撮影を開始した際の処理の流れを示すフローチャートである。また、ユーザの撮影動作とビデオカメラの動作の対応を、図5に示す。なお、図4におけるS***のそれぞれは、所定工程(ステップ)に該当する。S401では、フラグFに0を代入する。S402では、ユーザの撮影動作が固定されているかどうかを判断する。ユーザの撮影動作が固定されているかどうかは、操作部111の入力情報と、動き検出部114より取得できるビデオカメラの動きに関する情報とから判断する。   FIG. 4 is a flowchart showing the flow of processing when the user starts shooting by pressing the button 201 in the video camera of this embodiment. FIG. 5 shows the correspondence between the user's shooting operation and the operation of the video camera. Each of S *** in FIG. 4 corresponds to a predetermined process (step). In S401, 0 is substituted for the flag F. In S402, it is determined whether the user's shooting operation is fixed. Whether or not the user's shooting operation is fixed is determined based on input information of the operation unit 111 and information on the motion of the video camera that can be acquired from the motion detection unit 114.

本実施形態では、操作部111からの入力情報がなく、かつ、ビデオカメラにかかる動きがない場合に、ユーザの撮影動作が固定されていると判断する。ただし、ビデオカメラにかかる動きを判断する際には、手ぶれ等による微量な動きは無視するものとする。ユーザの撮影動作が固定されていると判断されれば、S403へ進む。それ以外であれば、S405へ進む。   In this embodiment, when there is no input information from the operation unit 111 and there is no movement on the video camera, it is determined that the user's shooting operation is fixed. However, when determining the movement of the video camera, a small amount of movement due to camera shake is ignored. If it is determined that the user's shooting operation is fixed, the process proceeds to S403. Otherwise, the process proceeds to S405.

S403では、フラグFの値をチェックする。F=0であれば、S404へ進む。それ以外であれば、S408へ進む。S404では、フラグFに1を代入する。S405では、フラグFに0を代入する。   In S403, the value of the flag F is checked. If F = 0, the process proceeds to S404. Otherwise, the process proceeds to S408. In S404, 1 is assigned to the flag F. In S405, 0 is substituted for the flag F.

S406では、現在の時間Tを取得する。Tは、撮影ボタンを押下した瞬間から経過した秒数で表されるものとする。S407では、撮影している映像の内容から、推奨撮影時間Tを取得する。推奨撮影時間Tは、後の編集で使用するために最低限必要となる時間(秒)である。推奨撮影時間Tを取得する方法は、図8を用いて後述する。 In S406, to get the current time T 0. T 0 is represented by the number of seconds that have elapsed since the moment the photograph button was pressed. In S407, the recommended shooting time T is acquired from the content of the video being shot. The recommended shooting time T is the minimum time (seconds) required for use in later editing. A method of acquiring the recommended shooting time T will be described later with reference to FIG.

S408では、現在の時間Tを取得する。Tは、撮影ボタンを押下した瞬間から経過した秒数で表されるものとする。S409では、固定撮影持続時間Tを取得する。Tは、ユーザの撮影動作が固定されていると判断されてから経過した時間(秒)であり、次の式により算出する。 In S408, to get the T 1 the current time. T 1 is assumed to be expressed by the number of seconds elapsed from the moment the user presses the capture button. In S409, to acquire the fixed shooting duration T k. T k is the time (seconds) that has elapsed since it was determined that the user's shooting operation is fixed, and is calculated by the following equation.

= T− T …(1)
S410では、S407で取得した推奨撮影時間Tと、S409で取得した固定撮影持続時間Tを、ディスプレイ202に表示する。表示は、例えば、図6に示すように行う。図6では、推奨撮影時間Tが最大値となるようなメータを作成し、メータ上に固定撮影持続時間Tを表すことで、推奨撮影時間Tと固定撮影持続時間Tの関係をグラフィカルに表示している。
T k = T 1 −T 0 (1)
In S410, the recommended imaging time T obtained in S407, the fixed photographing duration T k obtained in S409, is displayed on the display 202. For example, the display is performed as shown in FIG. In FIG. 6, a meter is created so that the recommended shooting time T becomes the maximum value, and the fixed shooting duration T k is represented on the meter, so that the relationship between the recommended shooting time T and the fixed shooting duration T k is graphically represented. it's shown.

また、現在の撮影時間の達成度を、メッセージとして%表示するようにしてもよい。   Further, the degree of achievement of the current shooting time may be displayed as a message in%.

S411では、ユーザによりボタン201が押下されたかどうかを判断する。ボタン201が押下されたと判断されれば、S412へ進む。それ以外の場合は、S402へ進む。   In S411, it is determined whether or not the button 201 has been pressed by the user. If it is determined that the button 201 has been pressed, the process proceeds to S412. Otherwise, the process proceeds to S402.

S412は、ビデオカメラの撮影動作を終了し、撮影された映像を保存する。   In step S412, the shooting operation of the video camera is terminated, and the shot video is stored.

尚、上記説明では、撮影動作が固定されていると固定判断された場合に、固定をトリガに撮影時間の取得の開始のタイミングとしたが、シーンチェンジを検出して、シーンの変わり目から撮影時間を求めてもよい。   In the above description, when it is determined that the shooting operation is fixed, the timing for starting the acquisition of the shooting time is set as the trigger, but the shooting time is detected from the change of the scene when a scene change is detected. You may ask for.

(推奨撮影時間取得処理)
ここでは、図4のS407で行う、推奨撮影時間の取得の詳細について説明する。
(Recommended shooting time acquisition process)
Here, details of acquisition of the recommended shooting time performed in S407 of FIG. 4 will be described.

本実施形態では、推奨撮影時間を判断するために、まず、映像の内容を解析して映像の情報量Iを算出する。情報量Iは、0〜1の間の値で表されるものとする。また、情報量Iと推奨撮影時間Tが対応付けて保存されたデータベースを予め用意しておき、算出した情報量Iをキーにして、推奨撮影時間Tを取得する。データベースの例を図7に示す。情報量の算出方法は後述する。   In this embodiment, in order to determine the recommended shooting time, first, the content of video is analyzed to calculate the video information amount I. The information amount I is represented by a value between 0 and 1. Further, a database in which the information amount I and the recommended shooting time T are stored in association with each other is prepared in advance, and the recommended shooting time T is acquired using the calculated information amount I as a key. An example of the database is shown in FIG. A method for calculating the information amount will be described later.

図8は、本実施形態における推奨撮影時間を取得する際の処理の流れを示すフローチャートである。   FIG. 8 is a flowchart showing the flow of processing when acquiring the recommended shooting time in the present embodiment.

S801では、情報量Iに0を代入する。S802では、映像中の顔の数を元にした情報量Iを算出する。Iは、0〜1の間の値で表されるものとする。情報量Iの算出方法については、図9を用いて後述する。 In S801, 0 is substituted into the information amount I. In S802, it calculates the amount of information I F was based on the number of faces in the image. I F shall be represented by a value between 0 and 1. A method for calculating the amount of information I F, will be described later with reference to FIG.

S803では、映像中の色数を元にした情報量Iを算出する。Iは、0〜1の間の値で表されるものとする。情報量Iの算出方法については、図10を用いて後述する。 In S803, it calculates the amount of information I C was based on the number of colors in the image. I C is represented by a value between 0 and 1. A method of calculating the information amount I C will be described later with reference to FIG.

S804では、映像の情報量Iを算出する。情報量Iは、I,Iを用いて、次のように算出される。ここで、a,bは、それぞれ、I,Iに対する重み付けの値であり、a+b=2 となるように任意の値を設定する。本実施形態では、a=b=1 であるとする。 In step S804, the video information amount I is calculated. The information amount I is calculated as follows using I F and I C. Here, a and b are weighting values for I F and I C , respectively, and arbitrary values are set so that a + b = 2. In the present embodiment, it is assumed that a = b = 1.

I = ( a・I+ b・I)/2 …(2)
S805では、情報量Iをキーにして、図7に示すデータベースから推奨撮影時間を取得する。
I = (a · I F + b · I C) / 2 ... (2)
In S805, the recommended shooting time is acquired from the database shown in FIG. 7 using the information amount I as a key.

図9は、図8のS802における、顔の数を元にした情報量Iを算出する処理の流れを示すフローチャートである。 Figure 9 is a flow chart illustrating in S802 of FIG. 8, a flow of a process for calculating the amount of information I F was based on the number of faces.

なお、以下の処理は、静止画像に対して行うものとする。処理の対象となる画像は、ビデオカメラで撮影される映像の1フレームを選択して使用する。また、映像の複数フレームから1枚の画像を作成し、処理の対象としても良い。   Note that the following processing is performed on a still image. As an image to be processed, one frame of video shot by a video camera is selected and used. Further, one image may be created from a plurality of frames of video and may be processed.

S901では、Iに0を代入する。S902では、画像中の顔の数Nを取得する。画像中の顔領域の検出は、公知の方法に従う。例えば、特開平09−252534号公報には、予め登録された標準顔画像(テンプレート)を用いて顔領域を抽出する技術が開示されている。特開平09−252534号公報は、更に、抽出された顔領域の中から眼球(黒目)や鼻穴などの特徴点の候補を抽出し、これらの配置や予め登録されている目、鼻、口領域などのテンプレートとの類似度から目、鼻、口等の顔部品を検出する技術が開示されている。 In S901, 0 is assigned to the I F. In S902, obtains the number N F of a face in an image. The detection of the face area in the image follows a known method. For example, Japanese Patent Laid-Open No. 09-252534 discloses a technique for extracting a face region using a standard face image (template) registered in advance. Japanese Patent Application Laid-Open No. 09-252534 further extracts candidate feature points such as eyeballs (black eyes) and nostrils from the extracted face region, and their arrangement and pre-registered eyes, nose, mouth A technique for detecting facial parts such as eyes, nose, and mouth from a similarity with a template such as a region is disclosed.

S903では、顔の数の最大値NF,MAXに値を代入する。NF,MAXには、1以上の任意の値を代入する。本実施形態では、NF,MAXは10であるとする。S904では、NとNF,MAXの値を比較する。N>NF,MAXであれば、S905へ進む。それ以外であれば、S906へ進む。S905では、Iに1.0を代入する。S906では、Iに(N/NF,MAX)を代入する。 In step S903, a value is substituted for the maximum number of faces N F, MAX . An arbitrary value of 1 or more is substituted for N F and MAX . In the present embodiment , NF and MAX are assumed to be 10. In S904, it compares the value of N F and N F, MAX. If N F > N F, MAX , the process proceeds to S905. Otherwise, the process proceeds to S906. In S905, substituting the 1.0 to I F. In S906, substituting (N F / N F, MAX ) to I F.

図10は、図8のS803における、色数を元にした情報量Iを算出する処理の流れを示すフローチャートである。 Figure 10 is a flowchart showing the flow of processing for calculating in S803 of FIG. 8, the amount of information I C was based on the number of colors.

なお、以下の処理は、静止画像に対して行うものとする。処理の対象となる画像は、ビデオカメラで撮影される映像の1フレームを選択して使用する。また、映像の複数フレームから1枚の画像を作成し、処理の対象としても良い。   Note that the following processing is performed on a still image. As an image to be processed, one frame of video shot by a video camera is selected and used. Further, one image may be created from a plurality of frames of video and may be processed.

画像の各画素には、色情報として、R,G,Bの3チャンネルの値が各8ビットで格納されているものとする。したがって、R,G,Bはそれぞれ0〜255の範囲の値をとる。   Assume that each pixel of the image stores three channel values of R, G, and B as 8-bit colors as color information. Therefore, R, G, and B each take a value in the range of 0 to 255.

また、画像の各画素には、画像の左下を原点とし、右方向に+x,上方向に+yとなる座標系でアクセスできるものとする。この座標系において、r(i,j),g(i,j),b(i,j)は、x=i,y=jの位置の画素におけるR,G,Bの値をそれぞれ表すものとする。   Each pixel of the image can be accessed in a coordinate system in which the lower left of the image is the origin, + x in the right direction and + y in the upper direction. In this coordinate system, r (i, j), g (i, j), and b (i, j) represent R, G, and B values in the pixel at the position of x = i and y = j, respectively. And

また、画像の幅をW,画像の高さをHで表すものとする。   Also, the width of the image is represented by W and the height of the image is represented by H.

S1001では、Iに0を代入する。S1002では、256×256×256 の3次元配列FLGのバッファを作成する。FLG[r][g][b]のように表記することで、配列の任意の位置にアクセスできるものとする。S1003では、3次元配列FLGの全ての位置に0を代入する。 In S1001, 0 is substituted for I C. In S1002, a buffer of 256 × 256 × 256 three-dimensional array FLG is created. By notation such as FLG [r] [g] [b], an arbitrary position in the array can be accessed. In S1003, 0 is assigned to all positions of the three-dimensional array FLG.

S1004では、変数jに0を代入する。S1005では、変数iに0を代入する。S1006では、FLG[r(i,j)][g(i,j)][b(i,j)]の値をチェックする。FLG[r(i,j)][g(i,j)][b(i,j)]の値が0であれば、S1007へ進む。それ以外であれば、S1008へ進む。   In S1004, 0 is substituted into the variable j. In S1005, 0 is substituted into the variable i. In S1006, the value of FLG [r (i, j)] [g (i, j)] [b (i, j)] is checked. If the value of FLG [r (i, j)] [g (i, j)] [b (i, j)] is 0, the process proceeds to S1007. Otherwise, the process proceeds to S1008.

S1007では、FLG[r(i,j)][g(i,j)][b(i,j)]に1を代入する。S1008では、変数iに1を加算する。S1009では、変数iとWの値を比較する。i>Wであれば、S1010へ進む。それ以外であれば、S1006へ進む。S1010では、変数jに1を加算する。   In S1007, 1 is assigned to FLG [r (i, j)] [g (i, j)] [b (i, j)]. In S1008, 1 is added to the variable i. In S1009, the values of variables i and W are compared. If i> W, the process proceeds to S1010. Otherwise, the process proceeds to S1006. In S1010, 1 is added to the variable j.

S1011では、変数jとHの値を比較する。j>Hであれば、S1012へ進む。それ以外であれば、S1005へ進む。S1012では、画像の色数Nを取得する。画像の色数Nは、3次元配列FLGの全位置の値を足し合わせた値である。S1013では、色数の最大値NC,MAXに値を代入する。NC,MAXには、1〜16777216の間の任意の値を代入する。本実施形態では、NC,MAXは1000であるとする。 In S1011, the variable j is compared with the value of H. If j> H, the process proceeds to S1012. Otherwise, the process proceeds to S1005. In S1012, obtains the number of colors N C of the image. Color number N C of the image is a value obtained by adding the values of all the position of the three-dimensional array FLG. In S1013, a value is substituted for the maximum number of colors N C and MAX . An arbitrary value between 1 and 16777216 is substituted for N C and MAX . In the present embodiment, it is assumed that N C and MAX are 1000.

S1014では、NとNC,MAXの値を比較する。N>NC,MAXであれば、S1015へ進む。それ以外であれば、S1016へ進む。S1015では、Iに1.0を代入する。S1016では、Iに(N/NC,MAX)を代入する。 In S1014, the values of N C and N C, MAX are compared. If N C > N C, MAX , the process proceeds to S1015. Otherwise, the process proceeds to S1016. In S1015, 1.0 is substituted for I C. In S1016, (N C / N C, MAX ) is substituted for I C.

なお、以上の例では、各々の画素が色情報としてR,G,Bの3チャンネルの値を各8ビットで持っているものとした。しかし、他の形式で色情報を持っていても良い。例えば、R,G,Bの3チャンネルの値を各16ビットで持っている場合には、それぞれの値の範囲は0〜65535となり、3次元配列FLGも 65535×65535×65535 のバッファを作成する。また、チャンネル数が増えた場合には、FLGの次元数が増える。   In the above example, each pixel has values of 3 channels of R, G, and B as color information in 8 bits each. However, it may have color information in other formats. For example, if the values of 3 channels of R, G, B are each 16 bits, the range of each value is 0 to 65535, and the 3D array FLG also creates a buffer of 65535 × 65535 × 65535. . In addition, when the number of channels increases, the number of FLG dimensions increases.

また、上記の例では、画像の1画素ごとの色をカウントしていった。しかし、画像を複数ブロックに分割し、ブロック毎の色をカウントしても良い。例えば、20×20ピクセルのブロック毎に平均の色を求めてカウントしていっても良い。   In the above example, the color for each pixel of the image is counted. However, the image may be divided into a plurality of blocks and the color for each block may be counted. For example, an average color may be obtained and counted for each block of 20 × 20 pixels.

以上のように、本実施形態では、図8を用いて説明したように、映像情報として、映像の情報量を用いて、編集時に最低限必要となる映像の長さを判断して推奨撮影時間を取得し、ユーザに呈示する。これにより、ユーザに、映像毎に、編集時に最低限必要な長さを容易に知らせることができるようになる。更に、余分な映像を撮影することによる記憶容量の圧迫を削減することができるようになる。   As described above, in the present embodiment, as described with reference to FIG. 8, the recommended shooting time is determined by determining the minimum video length required for editing using the video information amount as video information. Is obtained and presented to the user. This makes it possible to easily inform the user of the minimum length required for editing for each video. Furthermore, it is possible to reduce the compression of the storage capacity due to the shooting of extra video.

なお、本実施形態では、映像の情報量を算出する際に、映像中の顔の数と色数を用いたが、他の項目を用いても良い。例えば、画像を周波数解析し、高周波成分の数を用いて映像の情報量を算出するようにしても良い。また、オブジェクトを検出して、オブジェクトの数を用いてもよい。   In the present embodiment, the number of faces and the number of colors in the video are used when calculating the information amount of the video, but other items may be used. For example, the frequency of the image may be analyzed, and the amount of video information may be calculated using the number of high frequency components. Alternatively, an object may be detected and the number of objects may be used.

また、本実施形態では、取得した推奨撮影時間は、情報としてユーザに提示するのみであったが、他の動作を加えても良い。例えば、固定撮影持続時間が推奨撮影時間を越えたら、強制的に撮影を終了するようにしても良い。   In the present embodiment, the acquired recommended shooting time is only presented to the user as information, but other operations may be added. For example, when the fixed shooting duration exceeds the recommended shooting time, the shooting may be forcibly terminated.

なお、上記実施形態では、映像の情報量から推奨撮影時間を取得したが、本発明はこれに限らない。例えば、映像情報として、顔のサイズが表示画面に対して大きいほど推奨撮影時間を長くすることも有効である。これによれば、顔のアップがあった場合に、長時間表示することができる。   In the above embodiment, the recommended shooting time is acquired from the video information amount, but the present invention is not limited to this. For example, as video information, it is effective to increase the recommended shooting time as the face size is larger than the display screen. According to this, when the face is raised, it can be displayed for a long time.

以上より、映像情報として、顔のサイズを用いて推奨撮影時間を取得し、ユーザに提示することで、ユーザに、映像毎に、編集時に最低限必要な長さを容易に知らせることができるようになる。   As described above, the recommended shooting time is acquired as the video information using the face size and presented to the user so that the user can easily be notified of the minimum length required for editing for each video. become.

以上の実施形態によれば、映像情報から推奨撮影時間を取得し、ユーザに提示することで、ユーザに、映像毎に、編集時に最低限必要な長さを容易に知らせることができるようになる。   According to the above embodiment, by obtaining the recommended shooting time from the video information and presenting it to the user, it becomes possible to easily inform the user of the minimum length required for editing for each video. .

Claims (10)

映像を入力する入力手段と、
前記入力された映像から映像情報を取得する映像情報取得手段と、
前記取得された映像情報に基づいて推奨撮影時間を取得する
推奨撮影時間取得手段と、
前記取得された推奨撮影時間に基づく情報を提示する提示手段と
を備えることを特徴とする映像処理装置。
An input means for inputting video;
Video information acquisition means for acquiring video information from the input video;
Recommended shooting time acquisition means for acquiring a recommended shooting time based on the acquired video information;
A video processing apparatus comprising: presentation means for presenting information based on the acquired recommended shooting time.
前記映像情報とは、前記映像入力手段によって入力された映像の情報量であることを特徴とする請求項1に記載の映像処理装置。   The video processing apparatus according to claim 1, wherein the video information is an information amount of video input by the video input unit. 前記映像の情報量とは、映像中の顔の数に基づいて取得されることを特徴とする請求項2に記載の映像処理装置。   The video processing apparatus according to claim 2, wherein the information amount of the video is acquired based on the number of faces in the video. 前記映像の情報量とは、映像中の色数に基づいて取得されることを特徴とする請求項2に記載の映像処理装置。   The video processing apparatus according to claim 2, wherein the information amount of the video is acquired based on the number of colors in the video. 前記映像情報とは、前記映像入力手段によって入力された映像の被写体のサイズであることを特徴とする請求項1に記載の映像処理装置。   The video processing apparatus according to claim 1, wherein the video information is a size of a subject of the video input by the video input unit. 撮影動作が固定されているかどうかを判断する固定判断手段と、
前記固定判断手段によって固定されていると判断された場合に、前記推奨撮影時間取得手段は、前記推奨撮影時間の取得を開始することを特徴とする請求項1に記載の映像処理装置。
Fixed determination means for determining whether the shooting operation is fixed;
The video processing apparatus according to claim 1, wherein the recommended shooting time acquisition unit starts acquiring the recommended shooting time when it is determined by the fixing determination unit to be fixed.
前記提示手段は、前記推奨撮影時間取得手段によって取得された推奨撮影時間をグラフィカルに提示することを特徴とする請求項1に記載の映像処理装置。   The video processing apparatus according to claim 1, wherein the presentation unit graphically presents the recommended shooting time acquired by the recommended shooting time acquisition unit. 映像処理装置の制御方法であって、
入力手段により、映像を入力するステップと、
映像情報取得手段により、前記入力された映像から映像情報を取得するステップと、
推奨撮影時間取得手段により、前記取得された映像情報に基づいて推奨撮影時間を取得するステップと、
提示手段により、前記取得された推奨撮影時間に基づく情報を提示させるステップと
を備えることを特徴とする制御方法。
A method for controlling a video processing apparatus,
A step of inputting video by input means;
Acquiring video information from the input video by video information acquisition means;
Obtaining recommended shooting time based on the acquired video information by recommended shooting time acquisition means;
And a step of presenting information based on the acquired recommended photographing time by a presenting means.
コンピュータに読み込み込ませることで、請求項8に記載の映像処理装置の制御方法をコンピュータに実行させるためのプログラム。   A non-transitory computer-readable storage medium storing a program for causing a computer to execute the video processing apparatus control method according to claim 8 by being read by the computer. 請求項9に記載のコンピュータプログラムを記憶したことを特徴とするコンピュータ可読記憶媒体。   A computer-readable storage medium storing the computer program according to claim 9.
JP2011190684A 2011-09-01 2011-09-01 Video processing device and control method therefor Withdrawn JP2013055408A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011190684A JP2013055408A (en) 2011-09-01 2011-09-01 Video processing device and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011190684A JP2013055408A (en) 2011-09-01 2011-09-01 Video processing device and control method therefor

Publications (1)

Publication Number Publication Date
JP2013055408A true JP2013055408A (en) 2013-03-21

Family

ID=48132057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011190684A Withdrawn JP2013055408A (en) 2011-09-01 2011-09-01 Video processing device and control method therefor

Country Status (1)

Country Link
JP (1) JP2013055408A (en)

Similar Documents

Publication Publication Date Title
JP4999268B2 (en) Electronic camera and program
JP4645685B2 (en) Camera, camera control program, and photographing method
KR101797041B1 (en) Digital imaging processing apparatus and controlling method thereof
KR101901910B1 (en) Method and apparatus for generating or storing resultant image which changes selected area
WO2009113383A1 (en) Imaging device and imaging reproduction device
JP4732303B2 (en) Imaging device
CN105934940B (en) Image processing apparatus, method and program
EP3316568B1 (en) Digital photographing device and operation method therefor
KR101989152B1 (en) Apparatus and method for capturing still image during moving image photographing or reproducing
KR20150078275A (en) Digital Photographing Apparatus And Method For Capturing a Moving Subject
JP2015053741A (en) Image reproduction device
JP2006303961A (en) Imaging apparatus
KR20150141059A (en) Apparatus and method for providing thumbnail image of moving picture
JP2009089220A (en) Imaging apparatus
JP5266701B2 (en) Imaging apparatus, subject separation method, and program
JP6104077B2 (en) Photographing equipment and photographing method
JP2007228453A (en) Imaging apparatus, reproduction device, program, and storage medium
JP2011239267A (en) Imaging apparatus and image processing apparatus
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2010171491A (en) Imaging device, imaging method, and program
JP2004112550A (en) Imaging apparatus, camera, program, and recording medium
JP2010081562A (en) Imaging device, method, and program
JP2011066828A (en) Imaging device, imaging method and program
JP5289354B2 (en) Imaging device
JP2013055408A (en) Video processing device and control method therefor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104