JP2016010078A - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP2016010078A
JP2016010078A JP2014130838A JP2014130838A JP2016010078A JP 2016010078 A JP2016010078 A JP 2016010078A JP 2014130838 A JP2014130838 A JP 2014130838A JP 2014130838 A JP2014130838 A JP 2014130838A JP 2016010078 A JP2016010078 A JP 2016010078A
Authority
JP
Japan
Prior art keywords
image processing
calculating
trajectory
processing apparatus
composite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014130838A
Other languages
Japanese (ja)
Inventor
千里 石田
Chisato Ishida
千里 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014130838A priority Critical patent/JP2016010078A/en
Publication of JP2016010078A publication Critical patent/JP2016010078A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system that prevents unnatural animation effects even when animation effects are synthesized to a moving image with panning and zooming.SOLUTION: Synthesis is performed by calculating a synthetic position obtained by adding a movement amount generated by panning or zooming of a previous frame and a current frame to an image object synthetic position of a current frame specified by a user. Thus, with the synthetic position tracking the panning and the zooming, natural synthesis is performed.

Description

本発明は、動画に画像オブジェクトを合成する画像処理装置およびその制御方法に関する。   The present invention relates to an image processing apparatus that combines an image object with a moving image and a control method thereof.

カメラやビデオカメラで撮影した動画に画像オブジェクトを合成してアニメーション効果を付ける技術は従来からあるが、指定された合成オブジェクトの動き量に、フレーム間の動き量を加算した位置に画像オブジェクトを合成して、動画のパンニングやズーミングに追従する自然なアニメーション効果を付ける技術はなかった。   There is a conventional technique to add an animation effect by synthesizing an image object to a video shot with a camera or video camera. However, the image object is synthesized at the position where the motion amount between frames is added to the motion amount of the specified composite object. And there was no technology to add a natural animation effect to follow the panning and zooming of the video.

特許文献1には、合成する画像オブジェクトの動きの指定のためタッチパネルをなぞらせたり、装置を動かしてジャイロセンサー等で動きを検出したりアニメーションを定義する技術が開示されている。   Patent Document 1 discloses a technique for tracing a touch panel for designating a motion of an image object to be combined, detecting a motion with a gyro sensor or the like by moving a device, and defining an animation.

特許文献2には、カメラの傾きを検出してそれに応じて画像の合成の速度を決める技術が開示されている。   Patent Document 2 discloses a technique for detecting the tilt of a camera and determining the image composition speed accordingly.

特許文献3には、合成オブジェクトの表示位置を地球に固定(すなわち、スルー画像に対して固定位置)するためにジャイロセンサー等でカメラの傾き検出するか、前後のフレーム画像を比較して動き量を検出する技術が開示されている。   Japanese Patent Laid-Open No. 2004-228561 detects the camera tilt with a gyro sensor or the like in order to fix the display position of the composite object to the earth (that is, the fixed position with respect to the through image), or compares the amount of motion by comparing previous and next frame images. A technique for detecting the above is disclosed.

特開2002-223389号公報JP 2002-223389 A 特開2010-009575号公報JP 2010-009575 A 特開2001-243012号公報Japanese Patent Laid-Open No. 2001-243012

しかし、特許文献1の技術では、パンニングやズーミングにより画面が変化する動画では、単純にユーザが指定した動きのみで画像オブジェクトを合成した場合に、動画のパンニングやズーミングに追従しないため、不自然なアニメーション効果になってしまう。   However, in the technique of Patent Document 1, in a moving image whose screen changes due to panning or zooming, when an image object is simply synthesized with only a motion specified by the user, it does not follow the panning or zooming of the moving image. It becomes an animation effect.

また、特許文献2の技術では、パンニングやズーミング等、画像自体の動きに応じた処理は考慮されていない。   In the technique of Patent Document 2, processing according to the movement of the image itself, such as panning and zooming, is not considered.

また、特許文献3の技術では、固定位置で表示するための技術のため合成オブジェクトを動かすための処理は考慮されていない。   Further, in the technique of Patent Document 3, a process for moving a composite object is not considered because it is a technique for displaying at a fixed position.

請求項1の画像処理装置の構成は、合成する合成オブジェクトを複数記憶している記憶手段と、画像処理装置の傾きを検出する傾斜検出手段と、動画の前後2枚のフレームを相関演算し、フレーム間の移動量を算出するフレーム間移動量算出手段と、前記傾斜検出手段での検出結果より得られる重力方向と、前記フレーム間移動量とに基づいて、動画に合成する合成オブジェクトの動きを算出する合成オブジェクト軌跡算出手段と、前記合成オブジェクト軌跡算出手段により算出した軌跡に従って合成オブジェクトを動画に合成する合成手段と、を備えることを特徴とする。   The configuration of the image processing apparatus according to claim 1 includes a storage unit that stores a plurality of composite objects to be combined, a tilt detection unit that detects a tilt of the image processing device, and a correlation calculation between two frames before and after the moving image, Based on the movement direction calculation means for calculating the movement amount between frames, the direction of gravity obtained from the detection result of the inclination detection means, and the movement amount between frames, the motion of the composite object to be combined with the moving image is calculated. A composite object trajectory calculating means for calculating and a compositing means for compositing the composite object with a moving image according to the trajectory calculated by the composite object trajectory calculating means are provided.

請求項1の画像処理装置の動きの速度を検出する動作速度検出手段と、前記動作速度検出手段により検出した前記画像処理装置の移動速度により、前記軌跡の合成オブジェクトの移動速度パラメータを調節する合成オブジェクト移動速度調整手段と、を備えることを特徴とする。   An operation speed detecting means for detecting the speed of movement of the image processing apparatus according to claim 1 and a composition for adjusting a movement speed parameter of the combined object of the trajectory according to the movement speed of the image processing apparatus detected by the operation speed detecting means. And an object moving speed adjusting means.

請求項1の画像処理装置の動きの速度を検出する動作速度検出手段と、前記動作速度検出手段により検出した前記画像処理装置の移動速度により、前記軌跡に合成オブジェクトの量を調節する合成量調整手段と、を備えることを特徴とする。   An operation speed detecting means for detecting the speed of movement of the image processing apparatus according to claim 1, and a composite amount adjustment for adjusting the amount of the composite object in the locus based on the moving speed of the image processing apparatus detected by the operation speed detecting means. And means.

所定領域が前記第2の合成オブジェクト軌跡上にあった場合に迂回、もしくは所定領域を通過するまでは合成しないように判断する所定領域回避手段、を備えることを特徴とする。   And a predetermined area avoiding unit that determines that the predetermined area is not on the second synthetic object trajectory or is not combined until it passes through the predetermined area.

前記所定領域回避手段において、顔検出手段により検出した顔の範囲を所定領域とすることを特徴とする。   In the predetermined area avoiding means, the range of the face detected by the face detecting means is set as a predetermined area.

動画の前後2枚のフレームを相関演算し、フレーム間のズーミング量を算出するズーミング量算出手段と、前記ズーミング量に伴い合成オブジェクトをデフォルトサイズからリサイズする合成オブジェクトリサイズ手段と、を備えることを特徴とする。   A zooming amount calculation unit that calculates a zooming amount between frames by performing a correlation operation on two frames before and after a moving image, and a composite object resizing unit that resizes a composite object from a default size according to the zooming amount. And

前記合成オブジェクト軌跡算出手段により算出した軌跡を表示装置のVRAMサイズの座標系に変換し、合成オブジェクトを重畳もしくは合成して表示部にプレビューを再生するプレビュー手段と、を備えることを特徴とする。   Preview means for converting the locus calculated by the synthesized object locus calculating means into a VRAM size coordinate system of a display device and superimposing or synthesizing the synthesized object to reproduce a preview on the display unit.

前記合成オブジェクト軌跡算出手段により算出した軌跡を1種類以上記憶する軌跡記憶手段と、ユーザの合成実行操作により前記軌跡記憶手段により記憶した前記第2の合成オブジェクト軌跡を選択し、動画に合成する記憶軌跡合成手段を備えることを特徴とする。   A trajectory storage means for storing one or more kinds of trajectories calculated by the composite object trajectory calculation means, and a memory for selecting the second composite object trajectory stored in the trajectory storage means by a user's synthesis execution operation and combining it with a moving image. Trajectory synthesis means is provided.

請求項9の画像処理装置の構成は、動画の前後2枚のフレームを相関演算し、フレーム間の移動量を算出するフレーム間移動量算出手段と、動画の撮影情報に記載されている天地方向により得られる重力方向と、前記フレーム間移動量とに基づいて、動画に合成する合成オブジェクトの動きを算出する合成オブジェクト軌跡算出手段と、前記合成オブジェクト軌跡算出手段により算出した軌跡に従って合成オブジェクトを動画に合成する合成手段と、を備えることを特徴とする。   The configuration of the image processing device according to claim 9 is the inter-frame movement amount calculation means for calculating the movement amount between the frames by performing a correlation operation on the two frames before and after the moving image, and the top-and-bottom direction described in the shooting information of the moving image. Based on the gravitational direction obtained by the above and the amount of movement between frames, the synthesized object trajectory calculating means for calculating the motion of the synthesized object to be synthesized with the video, and the synthesized object according to the trajectory calculated by the synthesized object trajectory calculating means. And synthesizing means for synthesizing.

請求項10の画像処理装置の構成は、合成する合成オブジェクトを複数記憶している記憶手段と、表示部の画面の接触を認識し、合成オブジェクトを合成する軌跡を入力する軌跡入力手段と、動画の前後2枚のフレームを相関演算し、フレーム間の移動量を算出するフレーム間移動量算出手段と、前記軌跡入力手段で得られる軌跡と、前記フレーム間移動量とに基づいて、動画に合成する合成オブジェクトの動きを算出する合成オブジェクト軌跡算出手段と、前記合成オブジェクト軌跡算出手段により算出した軌跡に従って合成オブジェクトを動画に合成する合成手段と、を備えることを特徴とする。   The configuration of the image processing apparatus according to claim 10 includes a storage unit that stores a plurality of composite objects to be combined, a trajectory input unit that recognizes a touch on the screen of the display unit, and inputs a trajectory for combining the composite objects, and a moving image. Based on the inter-frame movement amount calculation means for calculating the movement amount between the frames, the trajectory obtained by the locus input means, and the inter-frame movement amount. A synthetic object trajectory calculating means for calculating a motion of the composite object to be performed; and a synthesizing means for synthesizing the composite object with a moving image in accordance with the trajectory calculated by the synthetic object trajectory calculating means.

請求項11の画像処理装置の構成は、合成する合成オブジェクトを複数記憶している記憶手段と、画像処理装置の傾きを検出する傾斜検出手段と、動画の前後2枚のフレームを相関演算し、フレーム間の移動量を算出するフレーム間移動量算出手段と、予め決めた所定の期間、前記傾斜検出手段での検出結果より得られる重力方向から表示部の画面上の座標として算出する座標算出手段と、前記座標を表示部に表示する座標表示手段と、前記座標と、前記フレーム間移動量とに基づいて、動画に合成する合成オブジェクトの動きを算出する合成オブジェクト軌跡算出手段と、
前記合成オブジェクト軌跡算出手段により算出した軌跡に従って合成オブジェクトを動画に合成する合成手段と、を備えることを特徴とする。
The configuration of the image processing apparatus according to claim 11 correlates the storage means storing a plurality of composite objects to be combined, the inclination detection means for detecting the inclination of the image processing apparatus, and the two frames before and after the moving image, Inter-frame movement amount calculation means for calculating the movement amount between frames, and coordinate calculation means for calculating the coordinates on the screen of the display unit from the direction of gravity obtained from the detection result of the inclination detection means for a predetermined period. Coordinate display means for displaying the coordinates on a display unit, combined object trajectory calculation means for calculating a motion of a composite object to be combined with a moving image based on the coordinates and the inter-frame movement amount,
Synthesizing means for synthesizing the synthesized object with the moving image according to the trajectory calculated by the synthesized object trajectory calculating means.

本発明によれば、ユーザが指定した動きの現フレームでの画像オブジェクト合成位置に、前フレームと現フレームのパンニングやズーミングによる動き量を加算した合成位置を算出し、合成する。それにより合成位置がパンニングやズーミングに追従することで自然な合成となる。   According to the present invention, a composite position is calculated by adding the motion amount by panning or zooming between the previous frame and the current frame to the image object composite position in the current frame of the motion designated by the user, and composites. As a result, the synthesis position follows natural panning and zooming, resulting in natural synthesis.

ハードウェア構成図Hardware configuration diagram 実施例1のフローチャートFlow chart of the first embodiment 移動画素パラメータの説明図Explanation of moving pixel parameters 画像オブジェクトパラメータの説明図Illustration of image object parameters 実施例1の画面の説明図Explanatory drawing of the screen of Example 1 実施例2のフローチャートFlow chart of embodiment 2 実施例3のフローチャートFlow chart of embodiment 3 実施例4のフローチャートFlow chart of embodiment 4 実施例4の画面の説明図Explanatory drawing of the screen of Example 4

図1〜図10を参照して、本発明の各実施例の動作を説明する。図1は、本実施形態によるデジタルカメラ100の構成例を示すブロック図である。図1において、103はフォーカスレンズを含む撮影レンズ、101は絞り機能を備えるシャッター、22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像部である。23はA/D変換器であり、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。   The operation of each embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram illustrating a configuration example of the digital camera 100 according to the present embodiment. In FIG. 1, reference numeral 103 denotes a photographing lens including a focus lens, 101 denotes a shutter having a diaphragm function, and 22 denotes an image pickup unit including a CCD, a CMOS element, or the like that converts an optical image into an electric signal. Reference numeral 23 denotes an A / D converter that converts an analog signal into a digital signal. The A / D converter 23 is used to convert an analog signal output from the imaging unit 22 into a digital signal.

102はバリアであり、デジタルカメラ100の、撮影レンズ103を含む撮像部を覆うことにより、撮影レンズ103、シャッター101、撮像部22を含む撮像系の汚れや破損を防止する。   A barrier 102 covers the imaging unit including the imaging lens 103 of the digital camera 100 to prevent the imaging system including the imaging lens 103, the shutter 101, and the imaging unit 22 from becoming dirty or damaged.

24は画像処理部であり、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。   An image processing unit 24 performs resize processing such as predetermined pixel interpolation and reduction and color conversion processing on the data from the A / D converter 23 or the data from the memory control unit 15. The image processing unit 24 performs predetermined calculation processing using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation result. Thereby, AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing of the TTL (through-the-lens) method are performed. The image processing unit 24 further performs predetermined calculation processing using the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained calculation result.

A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。   Output data from the A / D converter 23 is directly written into the memory 32 via the image processing unit 24 and the memory control unit 15 or via the memory control unit 15. The memory 32 stores image data obtained by the imaging unit 22 and converted into digital data by the A / D converter 23 and image data to be displayed on the display unit 28. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, a moving image and sound for a predetermined time.

また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。13はD/A変換器であり、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器13を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器13からのアナログ信号に応じた表示を行う。   The memory 32 also serves as an image display memory (video memory). A D / A converter 13 converts image display data stored in the memory 32 into an analog signal and supplies the analog signal to the display unit 28. Thus, the display image data written in the memory 32 is displayed on the display unit 28 via the D / A converter 13. The display unit 28 performs display according to the analog signal from the D / A converter 13 on a display such as an LCD.

不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。   The nonvolatile memory 56 is an electrically erasable / recordable memory, and for example, an EEPROM or the like is used. The nonvolatile memory 56 stores constants, programs, and the like for operating the system control unit 50. Here, the program is a program for executing various flowcharts described later in the present embodiment.

50はシステム制御部であり、デジタルカメラ100全体を制御する。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。52はシステムメモリであり、RAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。また、システム制御部はメモリ32、D/A変換器13、表示部28等を制御することにより表示制御も行う。   Reference numeral 50 denotes a system control unit that controls the entire digital camera 100. By executing the program recorded in the non-volatile memory 56 described above, each process of the present embodiment to be described later is realized. A system memory 52 is a RAM. In the system memory 52, constants and variables for operation of the system control unit 50, programs read from the nonvolatile memory 56, and the like are expanded. The system control unit also performs display control by controlling the memory 32, the D / A converter 13, the display unit 28, and the like.

モード切替スイッチ60、第1シャッタースイッチ62、第2シャッタースイッチ64、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画記録モード、再生モード等のいずれかに切り替える。第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。   The mode switch 60, the first shutter switch 62, the second shutter switch 64, and the operation unit 70 are operation means for inputting various operation instructions to the system control unit 50. The mode switch 60 switches the operation mode of the system control unit 50 to any one of a still image recording mode, a moving image recording mode, a reproduction mode, and the like. The first shutter switch 62 is turned on when the shutter button 61 provided in the digital camera 100 is being operated, so-called half-press (shooting preparation instruction), and generates a first shutter switch signal SW1.

第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。   In response to the first shutter switch signal SW1, operations such as AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (flash pre-emission) processing are started.

第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。   The second shutter switch 64 is turned ON when the operation of the shutter button 61 is completed, that is, when it is fully pressed (shooting instruction), and generates a second shutter switch signal SW2. In response to the second shutter switch signal SW2, the system control unit 50 starts a series of shooting processing operations from reading a signal from the imaging unit 22 to writing image data on the recording medium 200.

操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。   Each operation member of the operation unit 70 is appropriately assigned a function for each scene by selecting and operating various function icons displayed on the display unit 28, and functions as various function buttons. Examples of the function buttons include an end button, a return button, an image advance button, a jump button, a narrowing button, and an attribute change button. For example, when a menu button is pressed, various setting menu screens are displayed on the display unit 28. The user can make various settings intuitively using the menu screen displayed on the display unit 28, the four-way button, and the SET button.

コントローラホイール73は、操作部70に含まれる回転操作可能な操作部材であり、方向ボタンと共に選択項目を指示する際などに使用される。コントローラホイール73を回転操作すると、操作量に応じて電気的なパルス信号が発生し、このパルス信号に基づいてシステム制御部50はデジタルカメラ100の各部を制御する。このパルス信号によって、コントローラホイール73が回転操作された角度や、何回転したかなどを判定することができる。なお、コントローラホイール73は回転操作が検出できる操作部材であればどのようなものでもよい。   The controller wheel 73 is a rotatable operation member included in the operation unit 70, and is used when a selection item is instructed together with a direction button. When the controller wheel 73 is rotated, an electrical pulse signal is generated according to the operation amount, and the system control unit 50 controls each unit of the digital camera 100 based on the pulse signal. From this pulse signal, it is possible to determine the angle at which the controller wheel 73 is rotated, how many rotations, and the like. The controller wheel 73 may be any operation member that can detect a rotation operation.

例えば、ユーザの回転操作に応じてコントローラホイール73自体が回転してパルス信号を発生するダイヤル操作部材であってもよい。また、タッチセンサよりなる操作部材で、コントローラホイール73自体は回転せず、コントローラホイール73上でのユーザの指の回転動作などを検出するものであってもよい(いわゆる、タッチホイール)。   For example, it may be a dial operation member that generates a pulse signal by rotating the controller wheel 73 itself according to the rotation operation of the user. Further, an operation member made of a touch sensor may detect the rotation operation of the user's finger on the controller wheel 73 without rotating the controller wheel 73 itself (so-called touch wheel).

80は電源制御部であり、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。   A power control unit 80 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches a block to be energized, and the like, and detects whether or not a battery is attached, the type of battery, and the remaining battery level. Further, the power control unit 80 controls the DC-DC converter based on the detection result and an instruction from the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period.

30は電源部であり、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。18はメモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、メモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。   A power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like. Reference numeral 18 denotes an interface with a recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a recording medium such as a memory card, and includes a semiconductor memory or a magnetic disk.

108は傾斜検出部であり、ジャイロセンサー等からなりデジタルカメラ100の傾きを検出する。109は動作速度検出部であり、ジャイロセンサー等からなりデジタルカメラ100の動いた速度を検出する。   Reference numeral 108 denotes an inclination detection unit, which includes a gyro sensor or the like and detects the inclination of the digital camera 100. Reference numeral 109 denotes an operation speed detection unit, which includes a gyro sensor or the like and detects the speed at which the digital camera 100 moves.

上述したデジタルカメラ100では中央1点AFや顔AFを用いた撮影が可能である。中央1点AFとは撮影画面内の中央位置1点に対してAFを行うことである。顔AFとは顔検出機能によって検出された撮影画面内の顔に対してAFを行うことである。   In the digital camera 100 described above, it is possible to perform photographing using central one-point AF or face AF. Central one-point AF is to perform AF on one central position in the shooting screen. Face AF is to perform AF on the face in the shooting screen detected by the face detection function.

顔検出機能について説明する。システム制御部50は顔検出対象の画像データを画像処理部24に送る。画像処理部24内部の顔検出部201は、当該画像データに水平方向バンドパスフィルタを作用させる。また、顔検出部201は処理された画像データに垂直方向バンドパスフィルタを作用させる。これら水平及び垂直方向のバンドパスフィルタにより、画像データよりエッジ成分が検出される。   The face detection function will be described. The system control unit 50 sends the face detection target image data to the image processing unit 24. The face detection unit 201 inside the image processing unit 24 applies a horizontal bandpass filter to the image data. Further, the face detection unit 201 applies a vertical band pass filter to the processed image data. By these horizontal and vertical band pass filters, edge components are detected from the image data.

その後、顔検出部201は、検出されたエッジ成分に関してパターンマッチングを行い、目及び鼻、口、耳の候補群を抽出する。そして、顔検出部201は、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを、目の対と判断し、目の対があるもののみ目の候補群として絞り込む。そして、顔検出部201は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応付け、また、予め設定した非顔条件フィルタを通すことで、顔を検出する。顔検出部201は、顔の検出結果に応じて上記顔情報を出力し、処理を終了する。このとき、システム制御部50は画像処理部24から渡された顔の数などの特徴量をシステムメモリ52に記憶する。   After that, the face detection unit 201 performs pattern matching on the detected edge component, and extracts a candidate group of eyes, nose, mouth, and ears. Then, the face detection unit 201 determines that an eye pair that satisfies a preset condition (for example, distance between two eyes, inclination, etc.) from the extracted eye candidate group is an eye pair. Narrow down the candidate group of only those with. Then, the face detection unit 201 associates the narrowed eye candidate group with other parts (nose, mouth, ears) that form the corresponding face, and passes a preset non-face condition filter. , Detect the face. The face detection unit 201 outputs the face information according to the face detection result, and ends the process. At this time, the system control unit 50 stores the feature amount such as the number of faces passed from the image processing unit 24 in the system memory 52.

以上のようにライブビュー表示あるいは再生表示される画像データを画像解析して、画像データの特徴量を抽出して被写体情報を検出することが可能である。本実施例では被写体情報として顔情報を例に挙げたが、被写体情報には他にも赤目判定や目の検出、目つむり検出、笑顔検出等の様々な情報がある。   As described above, it is possible to analyze the image data displayed or reproduced and display the live view, extract the feature amount of the image data, and detect the subject information. In this embodiment, face information is taken as an example of subject information. However, subject information includes various information such as red-eye determination, eye detection, eye-brow detection, and smile detection.

なお、顔AFと同時に顔AE,顔FE、顔WBを行うことができる。顔AEとは検出された顔の明るさに合わせて、画面全体の露出を最適化することである。顔FEとは検出された顔を中心にフラッシュの調光をすることである。顔WBとは、検出された顔の色に合わせて画面全体のWBを最適化することである。   Note that the face AE, the face FE, and the face WB can be performed simultaneously with the face AF. The face AE is to optimize the exposure of the entire screen according to the brightness of the detected face. The face FE is to perform flash dimming around the detected face. The face WB is to optimize the WB of the entire screen according to the detected face color.

なお操作部70の一つとして、表示部28に対する接触を検知可能なタッチパネルを有する。システム制御部50はタッチパネルへの以下の操作を検出できる。タッチパネルを指やペンで触れたこと(以下、タッチダウンと称する)。タッチパネルを指やペンで触れている状態であること(以下、タッチオンと証する)。タッチパネルを指やペンで触れたまま移動していること(以下、ムーブと称する)。タッチパネルへ触れていた指やペンを離したこと(以下、タッチアップと称する)。タッチパネルに何も触れていない状態(以下、タッチオフと称する)。   As one of the operation units 70, a touch panel capable of detecting contact with the display unit 28 is provided. The system control unit 50 can detect the following operations on the touch panel. Touching the touch panel with a finger or a pen (hereinafter referred to as touchdown). The touch panel is touched with a finger or pen (hereinafter proof of touch-on). The touch panel is moved while being touched with a finger or a pen (hereinafter referred to as a move). The finger or pen that was touching the touch panel is released (hereinafter referred to as touch-up). A state where nothing is touched on the touch panel (hereinafter referred to as touch-off).

これらの操作や、タッチパネル上に指やペンが触れている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネル上にどのような操作が行なわれたかを判定する。ムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。またタッチパネル上をタッチダウンから一定のムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。   These operations and the position coordinates of the finger or pen touching the touch panel are notified to the system control unit 50 through the internal bus, and the system control unit 50 performs any operation on the touch panel based on the notified information. Judge whether it was done. Regarding the move, the moving direction of the finger or pen moving on the touch panel can also be determined for each vertical component / horizontal component on the touch panel based on the change of the position coordinates. It is also assumed that a stroke is drawn when touch-up is performed on the touch panel through a certain move from touch-down. The operation of drawing a stroke quickly is called a flick.

フリックは、タッチパネル上に指を触れたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。   A flick is an operation of quickly moving a certain distance while touching a finger on the touch panel and then releasing it, in other words, an operation of quickly tracing a finger on the touch panel. If it is detected that the moving is performed at a predetermined speed or more over a predetermined distance, and a touch-up is detected as it is, it can be determined that a flick has been performed. In addition, when it is detected that the movement is performed at a predetermined distance or more and less than a predetermined speed, it is determined that the drag has been performed.

以下、図2〜図10を参照して、本発明の各実施例の動作を説明する。   The operation of each embodiment of the present invention will be described below with reference to FIGS.

<実施例1>
実施例1では、ジャイロセンサーでカメラの傾きを検出した結果を元に重力方向の画像オブジェクトパラメータを算出し、動画に画像オブジェクトを合成する例を述べる。
<Example 1>
In the first embodiment, an example will be described in which image object parameters in the direction of gravity are calculated based on the result of detecting the tilt of the camera with a gyro sensor, and an image object is synthesized with a moving image.

図2は実施例1のフローチャートである。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ56に格納されたプログラムをメモリ32に展開して実行することにより実現される。   FIG. 2 is a flowchart of the first embodiment. Each process in the flowchart is realized by the system control unit 50 expanding and executing a program stored in the nonvolatile memory 56 in the memory 32.

図2〜図5を用いて実施例1を説明する。S100では、ユーザは表示された動画のうち、所望の編集する動画を選択する(図3(a))。S101では、システム制御部は編集動画の決定ボタンが押下されたか否かを判定する。押下された場合はS102へ進み、押下されない場合はS100へ進む。   Example 1 will be described with reference to FIGS. In S100, the user selects a desired movie to be edited from the displayed movies (FIG. 3 (a)). In S101, the system control unit determines whether or not the edit moving image determination button has been pressed. If it is pressed, the process proceeds to S102, and if it is not pressed, the process proceeds to S100.

S102では、ユーザは表示された画像オブジェクトのうち、所望の合成する画像オブジェクトを選択する(図3(b))。S103では、システム制御部は合成オブジェクトの決定ボタンが押下されたか否かを判定する。押下された場合はS104、S108の並列処理へ進み、押下されない場合はS102へ進む。   In S102, the user selects a desired image object to be combined from the displayed image objects (FIG. 3B). In S103, the system control unit determines whether or not the composite object determination button has been pressed. If pressed, the process proceeds to parallel processing of S104 and S108, and if not pressed, the process proceeds to S102.

S105〜S117は合成オブジェクトパラメータの確定処理中に更新されるパラメータを参照してプレビュー表示するための処理である。そのため、プレビュー表示処理は合成オブジェクトパラメータの確定処理(S118〜S140)と並列処理される。確定する合成オブジェクトとは、合成オブジェクトの個数、X軸方向の移動画素、Y軸方向の移動画素、各合成オブジェクトの幅、高さである(図4)。   S105 to S117 are processes for displaying a preview with reference to a parameter updated during the process of determining the composite object parameter. Therefore, the preview display process is performed in parallel with the composite object parameter determination process (S118 to S140). The composite objects to be determined are the number of composite objects, moving pixels in the X-axis direction, moving pixels in the Y-axis direction, and the width and height of each composite object (FIG. 4).

S105では、画像処理部24は動画のストリームをデコードする。S106で画像処理部24はフレームをVRAMサイズにリサイズする。VRAMとはビデオメモリのことである。S107では、画像処理部24はデコードした前フレームと現フレーム全体を相関演算し2フレーム間の移動量を算出する。S108で画像処理部24はデコードした前フレームと現フレーム全体を相関演算し2フレーム間のズーミング量を算出する。S109では、画像処理部24はVRAMサイズ用の画像オブジェクトサイズと算出したズーミング量から比例計算したサイズに合成オブジェクトをリサイズする。   In S105, the image processing unit 24 decodes the moving image stream. In S106, the image processing unit 24 resizes the frame to the VRAM size. VRAM is video memory. In S107, the image processing unit 24 calculates the amount of movement between two frames by performing a correlation operation on the decoded previous frame and the entire current frame. In S108, the image processing unit 24 calculates a zooming amount between two frames by performing a correlation operation on the decoded previous frame and the entire current frame. In S109, the image processing unit 24 resizes the composite object to a size proportionally calculated from the image object size for the VRAM size and the calculated zooming amount.

S110では、画像処理部24はVRAMサイズの現フレームから顔検出して、顔の個数、位置及びサイズをシステム制御部50へ通知する。S112では、システム制御部50はVRAMサイズ用の現フレームの合成位置にフレーム間の移動量を加算した合成位置を算出する。S113では、システム制御部50は合成オブジェクトの合成位置が顔の範囲内か否かを判定する。顔の範囲内の場合(S113 YES)はS115へ進み、顔の範囲外の場合(S113 NO)はS114へ進む。   In S110, the image processing unit 24 detects a face from the current frame of the VRAM size and notifies the system control unit 50 of the number, position, and size of the face. In S112, the system control unit 50 calculates a composite position obtained by adding the movement amount between frames to the composite position of the current frame for the VRAM size. In S113, the system control unit 50 determines whether or not the synthesis position of the synthesis object is within the face range. If it is within the face range (S113 YES), the process proceeds to S115, and if it is outside the face range (S113 NO), the process proceeds to S114.

S114では、画像処理部24はVRAMに合成オブジェクトを合成位置に合成する。S115では、システム制御部50は合成オブジェクトの個数分処理が完了したか否かを判定する。合成オブジェクトの個数分処理が完了した場合はS134へ進み、完了していない場合は繰り返し処理のためにS112へ進む。   In S114, the image processing unit 24 synthesizes the synthesis object in the VRAM at the synthesis position. In S115, the system control unit 50 determines whether processing for the number of composite objects is completed. If processing for the number of composite objects is completed, the process proceeds to S134, and if not completed, the process proceeds to S112 for repetitive processing.

S116では、システム制御部50は作成したVRAMを表示部に表示するよう制御する。S117では、システム制御部50は全ての合成オブジェクトパラメータが確定した否かを判定する。全ての合成オブジェクトパラメータが確定した場合はS142へ進み、確定していない場合はS105へ進む。   In S116, the system control unit 50 controls to display the created VRAM on the display unit. In S117, the system control unit 50 determines whether all the composite object parameters have been confirmed. If all composite object parameters are confirmed, the process proceeds to S142, and if not confirmed, the process proceeds to S105.

S118〜S140はプレビュー表示と並列処理する合成オブジェクトパラメータの確定処理である。S118では、ユーザはデジタルカメラ100を傾けて重力方向を選択し、傾斜検出部108は現在のデジタルカメラ100の傾きを検出する。S119では、システム制御部50は検出した傾きから重力方向の式を算出して、1フレームあたりのY軸方向の移動画素とX軸方向の移動画素の値を決定する。この時点では重力方向の軸の移動画素に初期値を使用し、もう一方の移動画素パラメータを決定する。   S118 to S140 are composite object parameter determination processing to be processed in parallel with the preview display. In S <b> 118, the user tilts the digital camera 100 to select the direction of gravity, and the tilt detection unit 108 detects the current tilt of the digital camera 100. In S119, the system control unit 50 calculates the equation of the gravity direction from the detected inclination, and determines the value of the moving pixel in the Y-axis direction and the moving pixel in the X-axis direction per frame. At this time, the initial value is used for the moving pixel of the axis in the gravity direction, and the other moving pixel parameter is determined.

例えば、図3(a)のようにデジタルカメラ100が傾けられた場合、y = xの式が算出され、重力方向がY軸方向になる。そのためY軸方向の移動画素は初期値Mを使用し、傾きによりX軸方向の移動画素はMと算出する。   For example, when the digital camera 100 is tilted as shown in FIG. 3A, the equation y = x is calculated, and the gravity direction becomes the Y-axis direction. Therefore, a moving pixel in the Y-axis direction uses the initial value M, and a moving pixel in the X-axis direction is calculated as M due to the inclination.

同様に図3(b)のようにデジタルカメラ100が傾けられた場合、y = 240の式が算出され、重力方向がX軸方向になる。そのため、軸方向の移動画素は初期値Nを使用し、傾きなしのためY軸方向の移動画素は0と算出する。同様に図3(c)のようにデジタルカメラ100が傾けられた場合、y = -1/2x+400の式が算出され、重力方向がY軸方向になる。そのためY軸方向の移動画素は初期値Mを使用し、傾きによりX軸方向の移動画素は-1/2Mと算出する。   Similarly, when the digital camera 100 is tilted as shown in FIG. 3B, the equation y = 240 is calculated and the gravity direction becomes the X-axis direction. Therefore, the moving pixel in the axial direction uses the initial value N, and the moving pixel in the Y-axis direction is calculated as 0 because there is no inclination. Similarly, when the digital camera 100 is tilted as shown in FIG. 3C, the equation y = −1 / 2x + 400 is calculated, and the gravity direction becomes the Y-axis direction. For this reason, the initial value M is used for the moving pixel in the Y-axis direction, and the moving pixel in the X-axis direction is calculated as -1 / 2M due to the inclination.

S120では、システム制御部50はS119で算出したVRAMサイズ用の合成オブジェクトパラメータのY軸方向の移動画素とX軸方向の移動画素の値を更新する(その時のプレビュー画面例 図5(c))。S122では、システム制御部は合成オブジェクトの移動画素パラメータの決定ボタンもしくはキャンセルボタンが押下されたかを判定する。決定ボタンが押下された場合はS124へ進み、キャンセルボタンが押下された場合はS123へ進む。   In S120, the system control unit 50 updates the value of the moving pixel in the Y-axis direction and the moving pixel in the X-axis direction of the composite object parameter for the VRAM size calculated in S119 (example of a preview screen at that time, FIG. 5C). . In S122, the system control unit determines whether the moving pixel parameter determination button or the cancel button of the composite object has been pressed. If the determination button is pressed, the process proceeds to S124, and if the cancel button is pressed, the process proceeds to S123.

S123では、システム制御部50はVRAMサイズ用の移動画素パラメータを初期値に戻す。S124では、動作速度検出部109はユーザがカメラを振った時の動きの移動方向、速度を検出する。S125では、システム制御部50は移動方向により個数パラメータの増減方向を決定し、所定の速度に比例して所定の増減個数を算出する。S126では、システム制御部50はVRAMサイズ用の個数パラメータを算出した増減個数に基づき更新する(その時のプレビュー画面例 図5(d))。   In S123, the system control unit 50 returns the moving pixel parameter for the VRAM size to the initial value. In S124, the operation speed detection unit 109 detects the moving direction and speed of the movement when the user shakes the camera. In S125, the system control unit 50 determines the increase / decrease direction of the number parameter according to the moving direction, and calculates the predetermined increase / decrease number in proportion to the predetermined speed. In S126, the system control unit 50 updates the number parameter for the VRAM size based on the calculated increase / decrease number (example of preview screen at that time, FIG. 5 (d)).

S127では、システム制御部は合成オブジェクトの合成個数パラメータの決定ボタンもしくはキャンセルボタンが押下されたかを判定する。決定ボタンが押下された場合はS129へ進み、キャンセルボタンが押下された場合はS128へ進む。S128では、システム制御部50はVRAMサイズ用の合成個数パラメータを初期値に戻す。S129では、システム制御部50はズームボタンが押下された回数を検出し、押下された回数に応じた所定のリサイズ率を算出する。テレ側が押下された場合は拡大率となり、ワイド側が押下された場合は縮小率となる。   In S127, the system control unit determines whether the composite object parameter determination button or cancel button of the composite object has been pressed. If the determination button is pressed, the process proceeds to S129, and if the cancel button is pressed, the process proceeds to S128. In S128, the system control unit 50 returns the composite number parameter for the VRAM size to the initial value. In S129, the system control unit 50 detects the number of times the zoom button has been pressed, and calculates a predetermined resizing rate according to the number of times the button has been pressed. When the tele side is pressed, the enlargement ratio is obtained, and when the wide side is pressed, the reduction ratio is obtained.

S130では、システム制御部50は算出したリサイズ率に比例して各VRAMサイズ用の画像オブジェクトのサイズパラメータを算出する。S131では、システム制御部50はS131で算出したVRAMサイズ用の画像オブジェクトのサイズパラメータを更新する(その時のプレビュー画面例 図5(e))。S132では、システム制御部50は合成オブジェクトのサイズパラメータの決定ボタンもしくはキャンセルボタンが押下されたかを判定する。   In S130, the system control unit 50 calculates the size parameter of the image object for each VRAM size in proportion to the calculated resizing rate. In S131, the system control unit 50 updates the size parameter of the image object for the VRAM size calculated in S131 (preview screen example at that time (e) in FIG. 5). In S132, the system control unit 50 determines whether the size parameter determination button or the cancel button of the composite object has been pressed.

決定ボタンが押下された場合はS134へ進み、キャンセルボタンが押下された場合はS133へ進む。S133では、システム制御部50はVRAMサイズ用のサイズパラメータを初期値に戻す。S134では、動作速度検出部109はユーザがカメラを振った時の速度を検出する。S135では、システム制御部50は検出した速度に基づき所定の移動画素数を算出する。算出した画素数は重力方向のパラメータに加算する。   If the determination button is pressed, the process proceeds to S134, and if the cancel button is pressed, the process proceeds to S133. In S133, the system control unit 50 returns the size parameter for the VRAM size to the initial value. In S134, the operation speed detection unit 109 detects the speed when the user shakes the camera. In S135, the system control unit 50 calculates a predetermined number of moving pixels based on the detected speed. The calculated number of pixels is added to the gravity direction parameter.

例えば、図3(a)のようにデジタルカメラ100が傾けられた場合、重力方向の移動画素パラメータはM2になるので、M2に算出した移動画素数を加算する。同様に図3(b)のようにデジタルカメラ100が傾けられた場合、重力方向の移動画素パラメータはN2になるので、N2に算出した移動画素数を加算する。同様に図3(c)のようにデジタルカメラ100が傾けられた場合、重力方向の移動画素パラメータはM2になるので、M2に算出した移動画素数を加算する。   For example, when the digital camera 100 is tilted as shown in FIG. 3A, the moving pixel parameter in the gravitational direction is M2, and the calculated moving pixel number is added to M2. Similarly, when the digital camera 100 is tilted as shown in FIG. 3B, the moving pixel parameter in the gravitational direction is N2, so the calculated number of moving pixels is added to N2. Similarly, when the digital camera 100 is tilted as shown in FIG. 3C, the moving pixel parameter in the gravitational direction is M2, and the calculated moving pixel number is added to M2.

s136では、現在の値をメモリに一時退避し保存する、システム制御部50はS135で算出したVRAMサイズ用の画像オブジェクトの移動画素パラメータを更新する(その時のプレビュー画面例 図5(f))。S137では、システム制御部50は合成オブジェクトの移動画素パラメータの決定ボタンもしくはキャンセルボタンが押下されたかを判定する。決定ボタンが押下された場合はS139へ進み、キャンセルボタンが押下された場合はS138へ進む。   In s136, the current value is temporarily saved and saved in the memory, and the system control unit 50 updates the moving pixel parameter of the image object for the VRAM size calculated in S135 (preview screen example at that time (f)). In step S137, the system control unit 50 determines whether the moving pixel parameter determination button or the cancel button of the composite object has been pressed. If the determination button is pressed, the process proceeds to S139, and if the cancel button is pressed, the process proceeds to S138.

S138では、システム制御部50はVRAMサイズ用の移動画素パラメータをS136で一時退避しておいた値に戻す。S139では、システム制御部50は合成実行ボタンが押下されたか否かを判定する。合成実行ボタンが押下された場合はS140へ進み、押下されない場合はS139へ進む。S140では、システム制御部50はVRAMサイズ用の合成オブジェクトパラメータを基に比例計算して記録サイズ用の合成オブジェクトパラメータを算出し、更新する。   In S138, the system control unit 50 restores the moving pixel parameter for the VRAM size to the value temporarily saved in S136. In S139, the system control unit 50 determines whether or not the composition execution button has been pressed. If the composition execution button is pressed, the process proceeds to S140, and if not, the process proceeds to S139. In S140, the system control unit 50 calculates and updates the composite object parameter for the recording size by performing proportional calculation based on the composite object parameter for the VRAM size.

S141〜S153は記録動画に確定した画像オブジェクトパラメータで合成する処理であり、記録動画の最終フレームになるまで繰り返す。S142では、画像処理部24はストリームをデコードする。S143では、画像処理部24はデコードした前フレームと現フレーム全体を相関演算し2フレーム間の移動量を算出する。S144で画像処理部24はデコードした前フレームと現フレーム全体を相関演算し2フレーム間のズーミング量を算出する。S145では、画像処理部24は記録サイズ用の画像オブジェクトサイズと算出したズーミング量から比例計算したサイズに合成オブジェクトをリサイズする。   S141 to S153 are processes for combining the recorded moving image with the determined image object parameters, and are repeated until the final frame of the recorded moving image is reached. In S142, the image processing unit 24 decodes the stream. In S143, the image processing unit 24 calculates the amount of movement between the two frames by performing a correlation operation on the decoded previous frame and the entire current frame. In S144, the image processing unit 24 calculates a zooming amount between two frames by performing a correlation operation on the decoded previous frame and the entire current frame. In S145, the image processing unit 24 resizes the composite object to a size proportionally calculated from the image object size for the recording size and the calculated zooming amount.

S146では、画像処理部24は現フレームから顔検出して、顔の個数、位置及びサイズをシステム制御部50へ通知する。S148では、システム制御部50はVRAMサイズ用の現フレームの合成位置にフレーム間の移動量を加算した合成位置を算出する。S149では、システム制御部50は合成オブジェクトの合成位置が顔の範囲内か否かを判定する。顔の範囲内の場合はS151へ進み、顔の範囲外の場合はS150へ進む。S150では、画像処理部24は現フレームに合成オブジェクトを合成位置に合成する。   In S146, the image processing unit 24 detects a face from the current frame, and notifies the system control unit 50 of the number, position, and size of the face. In S148, the system control unit 50 calculates a composite position obtained by adding the amount of movement between frames to the composite position of the current frame for VRAM size. In S149, the system control unit 50 determines whether or not the synthesis position of the synthesis object is within the face range. If it is within the face range, the process proceeds to S151. If it is outside the face range, the process proceeds to S150. In S150, the image processing unit 24 combines the composite object with the current frame at the composite position.

S151では、システム制御部50は合成オブジェクトの個数分処理が完了したか否かを判定する。合成オブジェクトの個数分処理が完了した場合はS152へ進み、完了していない場合は繰り返し処理のためにS148へ進む。S152では、画像処理部24はフレームをエンコードする。S153では、システム制御部50は動画の最終フレームか否かを判定する。最終フレームの場合はS154へ進み、最終フレーム出ない場合は繰り返し処理のためS142へ進む。   In S151, the system control unit 50 determines whether processing for the number of composite objects is completed. If processing for the number of composite objects is completed, the process proceeds to S152, and if not completed, the process proceeds to S148 for repetitive processing. In S152, the image processing unit 24 encodes the frame. In S153, the system control unit 50 determines whether it is the last frame of the moving image. If it is the last frame, the process proceeds to S154, and if the final frame is not output, the process proceeds to S142 for repetition.

<実施例2>
実施例2では、撮影時の画像の天地方向情報を元に重力方向の合成オブジェクトパラメータを算出し、動画に画像オブジェクトを合成する例を述べる。図6は実施例2のフローチャートである。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ56に格納されたプログラムをメモリ32に展開して実行することにより実現される。なお、図6のステップS200〜S217、S220〜S223、S226〜S233、S236〜S254は、実施例1で説明した図2のステップS100〜S117、S120〜S123、S126〜S133、S136〜S154と同様の処理なので説明を省略する。
<Example 2>
In the second embodiment, an example will be described in which a composite object parameter in the direction of gravity is calculated based on top-and-bottom direction information of an image at the time of shooting and an image object is combined with a moving image. FIG. 6 is a flowchart of the second embodiment. Each process in the flowchart is realized by the system control unit 50 expanding and executing a program stored in the nonvolatile memory 56 in the memory 32. 6 are the same as steps S100 to S117, S120 to S123, S126 to S133, and S136 to S154 of FIG. 2 described in the first embodiment. Because of this process, the description is omitted.

S219では、システム制御部50は動画ファイルに記載されている天地方向の情報を読み出し、重力方向により、1フレームあたりのY軸方向の移動画素とX軸方向の移動画素の値を決定する。S224では、システム制御部50はズームボタンが押下された回数を検出し、押下された回数に応じた所定の増減個数を算出する。テレ側が押下された場合は合成オブジェクトの個数を増加させ、ワイド側が押下された場合は合成オブジェクトの個数を減少させる。S225では、システム制御部50はS224で算出した増減個数を基に合成オブジェクト個数パラメータを算出する。   In S219, the system control unit 50 reads the information on the vertical direction described in the moving image file, and determines the value of the moving pixel in the Y-axis direction and the moving pixel in the X-axis direction per frame based on the gravity direction. In S224, the system control unit 50 detects the number of times the zoom button has been pressed, and calculates a predetermined increase / decrease number corresponding to the number of times the zoom button has been pressed. When the tele side is pressed, the number of composite objects is increased, and when the wide side is pressed, the number of composite objects is decreased. In S225, the system control unit 50 calculates a composite object number parameter based on the increase / decrease number calculated in S224.

S234では、システム制御部50はズームボタンが押下された回数を検出し、押下された回数に応じた所定の移動画素を算出する。テレ側が押下された場合は移動画素が増加し、ワイド側が押下された場合は移動画素が減少する。S235では、システム制御部50は算出した移動画素数を基に各VRAMサイズ用の画像オブジェクトの移動画素パラメータを算出する。   In S234, the system control unit 50 detects the number of times the zoom button has been pressed, and calculates a predetermined moving pixel according to the number of times the button has been pressed. When the tele side is pressed, the moving pixels increase, and when the wide side is pressed, the moving pixels decrease. In S235, the system control unit 50 calculates the moving pixel parameter of the image object for each VRAM size based on the calculated number of moving pixels.

以上のように、実施例2によれば撮影時の天地情報から落下の重力方向が決定するため、ユーザが重力方向を指定する手間を省くことができる。   As described above, according to the second embodiment, since the gravity direction of the fall is determined from the top and bottom information at the time of shooting, it is possible to save the user from specifying the gravity direction.

<実施例3>
実施例3では、タッチパネルでムーブした軌跡により合成オブジェクトパラメータを算出し、動画に画像オブジェクトを合成する例を述べる。
<Example 3>
In the third embodiment, an example will be described in which a composite object parameter is calculated from a trajectory moved by a touch panel and an image object is combined with a moving image.

図7は実施例3のフローチャートである。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ56に格納されたプログラムをメモリ32に展開して実行することにより実現される。   FIG. 7 is a flowchart of the third embodiment. Each process in the flowchart is realized by the system control unit 50 expanding and executing a program stored in the nonvolatile memory 56 in the memory 32.

なお、図7のステップS300〜S317、S322〜S354は、実施例2で説明した図6のステップS200〜S217、S222〜S254と同様の処理なので説明を省略する。   Steps S300 to S317 and S322 to S354 in FIG. 7 are the same as steps S200 to S217 and S222 to S254 in FIG.

S318では、システム制御部50はムーブを検出する。S319では、システム制御部50は操作部70が所定の間隔で送る座標をシステムメモリ52に記録する。S320では、システム制御部50は軌跡追加ボタンが押下されたか否かを判定する。軌跡追加ボタンが押下された場合(S320 YES)はS318へ進み、押されない場合(S320 NO)はS322へ進む。   In S318, the system control unit 50 detects a move. In S319, the system control unit 50 records the coordinates sent by the operation unit 70 at predetermined intervals in the system memory 52. In S320, the system control unit 50 determines whether or not the locus addition button has been pressed. If the locus addition button is pressed (S320 YES), the process proceeds to S318, and if not (S320 NO), the process proceeds to S322.

以上のように、実施例3によればタッチパネルでムーブした軌跡により指定するため、ユーザが簡単に曲線の軌跡を指定できる。   As described above, according to the third embodiment, the user can easily specify the locus of the curve since the designation is made by the locus moved by the touch panel.

<実施例4>
実施例4では、ジャイロセンサーでカメラの傾きを所定の期間検出した結果を元に画像オブジェクトパラメータを算出し、動画に画像オブジェクトを合成する例を述べる。図9は実施例4のフローチャートである。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ56に格納されたプログラムをメモリ32に展開して実行することにより実現される。
<Example 4>
In the fourth embodiment, an example in which an image object parameter is calculated based on a result of detecting a camera tilt by a gyro sensor for a predetermined period and an image object is combined with a moving image will be described. FIG. 9 is a flowchart of the fourth embodiment. Each process in the flowchart is realized by the system control unit 50 expanding and executing a program stored in the nonvolatile memory 56 in the memory 32.

なお、図8のステップS400〜S417、S420〜S454は、実施例2で説明した図6のステップS200〜S217、S220〜S254と同様の処理なので説明を省略する。   Note that steps S400 to S417 and S420 to S454 in FIG. 8 are the same as steps S200 to S217 and S220 to S254 in FIG.

S419では、傾斜検出部108は所定の期間、所定の間隔でカメラの傾きを検出しシステム制御部50へ送る。システム制御部50は傾きから座標を算出しシステムメモリ52に保存する。システム制御部50は算出した座標の軌跡を表示部28に表示する。
例えば、初めが図9(a)の傾きで所定の時間経過後に(b)の傾きで、さらに所定の時間経過後に(c)の傾きだった場合に図9の用に軌跡が表示される。
In S419, the tilt detection unit 108 detects the tilt of the camera at a predetermined interval for a predetermined period, and sends it to the system control unit 50. The system control unit 50 calculates coordinates from the inclination and stores them in the system memory 52. The system control unit 50 displays the calculated coordinate locus on the display unit 28.
For example, when the initial inclination is the inclination of (b) after the elapse of a predetermined time and the inclination of (c) after the elapse of a predetermined time, the locus is displayed as shown in FIG.

以上のように、実施例4によればタッチパネルを搭載しない機種でも、ユーザが曲線の軌跡を指定できる。   As described above, according to the fourth embodiment, the user can specify the locus of a curve even in a model that does not include a touch panel.

以上説明したように、本発明によれば、ユーザの指定した合成オブジェクトのパラメータに動画のパンニングやズーミングに追従し、記録動画に自然な合成をすることができる。   As described above, according to the present invention, it is possible to follow the panning or zooming of the moving image according to the parameters of the synthesized object specified by the user, and to naturally combine the recorded moving image.

なお、上述した各実施形態においては、本発明がデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されない。すなわち、本発明は、画像ビューワーなどの再生装置に適用してもよい。さらに、携帯電話端末等の画像を表示可能な装置であれば、本発明は適用可能である。   In each of the above-described embodiments, the case where the present invention is applied to a digital camera has been described as an example. However, this is not limited to this example. That is, the present invention may be applied to a playback device such as an image viewer. Furthermore, the present invention is applicable to any device that can display an image, such as a mobile phone terminal.

100 デジタルカメラ、103 撮影レンズ、101 シャッター、22 撮像部、
23 A/D変換器、102 バリア
100 digital camera, 103 taking lens, 101 shutter, 22 image pickup unit,
23 A / D converter, 102 barrier

Claims (11)

合成する合成オブジェクトを複数記憶している記憶手段と、画像処理装置の傾きを検出する傾斜検出手段と、動画の前後2枚のフレームを相関演算し、フレーム間の移動量を算出するフレーム間移動量算出手段と、前記傾斜検出手段での検出結果より得られる重力方向と、前記フレーム間移動量とに基づいて、動画に合成する合成オブジェクトの動きを算出する合成オブジェクト軌跡算出手段と、前記合成オブジェクト軌跡算出手段により算出した軌跡に従って合成オブジェクトを動画に合成する合成手段と、を備えることを特徴とする画像処理装置。 Storage means for storing a plurality of composite objects to be combined, inclination detection means for detecting the inclination of the image processing apparatus, and interframe movement for calculating the amount of movement between frames by correlating the two frames before and after the moving image A composite object trajectory calculating unit that calculates a motion of a composite object to be combined with a moving image based on a gravitational direction obtained from a detection result of the tilt detection unit, and an inter-frame movement amount; An image processing apparatus comprising: combining means for combining a synthesized object with a moving image according to the locus calculated by the object locus calculating means. 請求項1の画像処理装置の動きの速度を検出する動作速度検出手段と、前記動作速度検出手段により検出した前記画像処理装置の移動速度により、前記軌跡の合成オブジェクトの移動速度パラメータを調節する合成オブジェクト移動速度調整手段と、を備えることを特徴とする請求項1に記載の画像処理装置。 An operation speed detecting means for detecting the speed of movement of the image processing apparatus according to claim 1 and a composition for adjusting a movement speed parameter of the combined object of the trajectory according to the movement speed of the image processing apparatus detected by the operation speed detecting means. The image processing apparatus according to claim 1, further comprising an object moving speed adjusting unit. 請求項1の画像処理装置の動きの速度を検出する動作速度検出手段と、前記動作速度検出手段により検出した前記画像処理装置の移動速度により、前記軌跡に合成オブジェクトの量を調節する合成量調整手段と、を備えることを特徴とする請求項1に記載の画像処理装置。 An operation speed detecting means for detecting the speed of movement of the image processing apparatus according to claim 1, and a composite amount adjustment for adjusting the amount of the composite object in the locus based on the moving speed of the image processing apparatus detected by the operation speed detecting means. The image processing apparatus according to claim 1, further comprising: means. 所定領域が前記第2の合成オブジェクト軌跡上にあった場合に迂回、もしくは所定領域を通過するまでは合成しないように判断する所定領域回避手段、を備えることを特徴とする請求項1に記載の画像処理装置。 The predetermined area avoiding means for judging to bypass the predetermined area when the predetermined area is on the second synthetic object trajectory or to pass until the predetermined area is passed is provided. Image processing device. 前記所定領域回避手段において、顔検出手段により検出した顔の範囲を所定領域とすることを特徴とする請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the predetermined area avoiding unit sets a range of the face detected by the face detecting unit as a predetermined area. 動画の前後2枚のフレームを相関演算し、フレーム間のズーミング量を算出するズーミング量算出手段と、前記ズーミング量に伴い合成オブジェクトをデフォルトサイズからリサイズする合成オブジェクトリサイズ手段と、を備えることを特徴とする請求項1に記載の画像処理装置。 A zooming amount calculation unit that calculates a zooming amount between frames by performing a correlation operation on two frames before and after a moving image, and a composite object resizing unit that resizes a composite object from a default size according to the zooming amount. The image processing apparatus according to claim 1. 前記合成オブジェクト軌跡算出手段により算出した軌跡を表示装置のVRAMサイズの座標系に変換し、合成オブジェクトを重畳もしくは合成して表示部にプレビューを再生するプレビュー手段と、を備えることを特徴とする請求項1に記載の画像処理装置。 And a preview unit that converts the trajectory calculated by the composite object trajectory calculation unit into a coordinate system of a VRAM size of a display device, and superimposes or combines the composite objects to reproduce a preview on the display unit. Item 8. The image processing apparatus according to Item 1. 前記前記合成オブジェクト軌跡算出手段により算出した軌跡を1種類以上記憶する軌跡記憶手段と、ユーザの合成実行操作により前記軌跡記憶手段により記憶した前記第2の合成オブジェクト軌跡を選択し、動画に合成する記憶軌跡合成手段を備えることを特徴とする請求項1に記載の画像処理装置。 A trajectory storage means for storing one or more kinds of trajectories calculated by the composite object trajectory calculation means and the second composite object trajectory stored in the trajectory storage means by a user's synthesis execution operation are selected and synthesized into a moving image. The image processing apparatus according to claim 1, further comprising storage trajectory synthesis means. 動画の前後2枚のフレームを相関演算し、フレーム間の移動量を算出するフレーム間移動量算出手段と、動画の撮影情報に記載されている天地方向により得られる重力方向と、前記フレーム間移動量とに基づいて、動画に合成する合成オブジェクトの動きを算出する合成オブジェクト軌跡算出手段と、前記合成オブジェクト軌跡算出手段により算出した軌跡に従って合成オブジェクトを動画に合成する合成手段と、を備えることを特徴とする画像処理装置。 Inter-frame movement amount calculating means for calculating the amount of movement between frames by calculating the correlation between the two frames before and after the moving image, the gravitational direction obtained from the vertical direction described in the shooting information of the moving image, and the movement between the frames A synthetic object trajectory calculating means for calculating a motion of the composite object to be synthesized with the moving image based on the amount, and a synthesizing means for synthesizing the synthetic object with the video according to the trajectory calculated by the synthetic object trajectory calculating means. A featured image processing apparatus. 合成する合成オブジェクトを複数記憶している記憶手段と、表示部の画面の接触を認識し、合成オブジェクトを合成する軌跡を入力する軌跡入力手段と、動画の前後2枚のフレームを相関演算し、フレーム間の移動量を算出するフレーム間移動量算出手段と、前記軌跡入力手段で得られる軌跡と、前記フレーム間移動量とに基づいて、動画に合成する合成オブジェクトの動きを算出する合成オブジェクト軌跡算出手段と、前記合成オブジェクト軌跡算出手段により算出した軌跡に従って合成オブジェクトを動画に合成する合成手段と、を備えることを特徴とする画像処理装置。 A storage means for storing a plurality of composite objects to be combined, a trajectory input means for recognizing the touch of the screen of the display unit and inputting a trajectory for combining the composite objects, and a correlation operation between the two frames before and after the video, Based on the inter-frame movement amount calculating means for calculating the movement amount between frames, the locus obtained by the locus input means, and the inter-frame movement amount, the composite object locus for calculating the motion of the composite object to be combined with the moving image. An image processing apparatus comprising: a calculating unit; and a combining unit that combines a synthesized object with a moving image in accordance with the locus calculated by the combined object locus calculating unit. 合成する合成オブジェクトを複数記憶している記憶手段と、画像処理装置の傾きを検出する傾斜検出手段と、動画の前後2枚のフレームを相関演算し、フレーム間の移動量を算出するフレーム間移動量算出手段と、予め決めた所定の期間、前記傾斜検出手段での検出結果より得られる重力方向から表示部の画面上の座標として算出する座標算出手段と、前記座標を表示部に表示する座標表示手段と、前記座標と、前記フレーム間移動量とに基づいて、動画に合成する合成オブジェクトの動きを算出する合成オブジェクト軌跡算出手段と、
前記合成オブジェクト軌跡算出手段により算出した軌跡に従って合成オブジェクトを動画に合成する合成手段と、を備えることを特徴とする画像処理装置。
Storage means for storing a plurality of composite objects to be combined, inclination detection means for detecting the inclination of the image processing apparatus, and interframe movement for calculating the amount of movement between frames by correlating the two frames before and after the moving image A quantity calculating means, a coordinate calculating means for calculating as coordinates on the screen of the display section from a gravitational direction obtained from a detection result by the tilt detecting means for a predetermined period, and coordinates for displaying the coordinates on the display section Based on the display means, the coordinates, and the inter-frame movement amount, a synthesized object trajectory calculating means for calculating a motion of the synthesized object to be synthesized with the moving image;
An image processing apparatus comprising: combining means for combining a synthesized object with a moving image according to the locus calculated by the synthesized object locus calculating means.
JP2014130838A 2014-06-26 2014-06-26 Image processing system Pending JP2016010078A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014130838A JP2016010078A (en) 2014-06-26 2014-06-26 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014130838A JP2016010078A (en) 2014-06-26 2014-06-26 Image processing system

Publications (1)

Publication Number Publication Date
JP2016010078A true JP2016010078A (en) 2016-01-18

Family

ID=55227347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014130838A Pending JP2016010078A (en) 2014-06-26 2014-06-26 Image processing system

Country Status (1)

Country Link
JP (1) JP2016010078A (en)

Similar Documents

Publication Publication Date Title
JP6214236B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
WO2016002228A1 (en) Image-capturing device
US9838609B2 (en) Image capturing apparatus, control apparatus and control method for controlling zooming function
JP2014197824A5 (en)
JP5806623B2 (en) Imaging apparatus, imaging method, and program
JP2013254432A (en) Image processing apparatus and image processing method
US11496670B2 (en) Electronic device with display screen capable of reliable detection of a user selected displayed eye region in a scene to be captured, and region selection method
JP2014077994A (en) Image display device, control method and control program for the same, and imaging device
JP2014228629A (en) Imaging apparatus, control method and program thereof, and storage medium
JP6261205B2 (en) Image processing device
JP2022027841A (en) Electronic apparatus, program, and storage medium
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP5826026B2 (en) Imaging apparatus and control method thereof
JP2014110596A (en) Image pickup device, control method, and program therefor, and recording medium
JP6768449B2 (en) Imaging control device, control method and program of imaging device
JP2016122939A (en) Imaging device
JP7353821B2 (en) Image processing device, its control method, program
JP6630337B2 (en) Electronic device and control method thereof
JP2016010078A (en) Image processing system
JP7286451B2 (en) Imaging device, imaging method and program
JP6929133B2 (en) Imaging device, control method and program of imaging device
US10116877B2 (en) Image processing apparatus and image processing method
JP6611478B2 (en) Imaging apparatus, recording control method, and program
JP2023086270A (en) Image processing device, image processing method, imaging apparatus, program, and recording medium
JP2024082891A (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND STORAGE MEDIUM