JP5402148B2 - Image composition apparatus, image composition method, and program - Google Patents
Image composition apparatus, image composition method, and program Download PDFInfo
- Publication number
- JP5402148B2 JP5402148B2 JP2009079038A JP2009079038A JP5402148B2 JP 5402148 B2 JP5402148 B2 JP 5402148B2 JP 2009079038 A JP2009079038 A JP 2009079038A JP 2009079038 A JP2009079038 A JP 2009079038A JP 5402148 B2 JP5402148 B2 JP 5402148B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving
- subject
- moving object
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
Description
本発明は、複数の画像を合成する画像合成装置、画像合成方法及びプログラムに関する。 The present invention relates to an image composition apparatus, an image composition method, and a program for compositing a plurality of images.
従来、被写体画像と背景用画像やフレーム画像を合成することにより合成画像を生成する技術が知られている(例えば、特許文献1参照)。 Conventionally, a technique for generating a composite image by combining a subject image with a background image or a frame image is known (see, for example, Patent Document 1).
しかしながら、被写体画像としての動画像を背景用の静止画像に単に合成しただけでは、ありきたりな動画像しか生成することができず、興趣に欠ける画像になってしまう。 However, by simply synthesizing a moving image as a subject image with a background still image, only ordinary moving images can be generated, resulting in an uninteresting image.
そこで、本発明の課題は、興趣性の高い合成画像を生成することができる画像合成装置、画像合成方法及びプログラムを提供することである。 Therefore, an object of the present invention is to provide an image composition device, an image composition method, and a program that can generate a highly interesting composite image.
上記課題を解決するため、請求項1に記載の発明は、
複数の画像フレームからなる動体の動きを検出する検出手段と、前記検出手段により検出された動体の動きの方向が隣り合う画像フレーム間で略等しいか否かを判定する方向判定手段と、前記方向判定手段により該動体の動きの方向が略等しいと判定された場合に、前記動体の画像を再生時間の経過に伴って加算合成させる合成制御手段と、を備え、前記合成制御手段は、前記方向判定手段により何れか一の画像フレームにおける前記動体の動きの方向が当該一の画像フレームよりも前の画像フレームにおける前記動体の動きの方向に対して変化したと判断された場合に、既に加算合成された動体の画像を消去することを特徴とする画像合成装置を提供するものである。
In order to solve the above-mentioned problem, the invention described in
Detecting means for detecting the motion of a moving object comprising a plurality of image frames; direction determining means for determining whether or not the direction of motion of the moving object detected by the detecting means is substantially equal between adjacent image frames; and the direction If the direction of movement of the animal body is determined to substantially equal the determination unit, and a synthesis control means for additively combining with the passage of reproduction time an image of the moving object, the synthesis control means, said direction If the determination means determines that the direction of motion of the moving object in any one image frame has changed with respect to the direction of motion of the moving object in the image frame prior to the one image frame, the additive synthesis has already been performed. It is an object of the present invention to provide an image composition apparatus for erasing an image of a moving object .
請求項2に記載の発明は、
前記合成制御手段は、前記方向判定手段により前記動体の動きの方向が略等しいと判定された場合に、前記動体の画像を再生時間の経過に伴って、前記動画像を構成する複数の画像フレームを順次追加して加算合成させることを特徴とする請求項1に記載の画像合成装置を提供するものである。
Invention according to
A plurality of image frames constituting the moving image as the reproduction time elapses when the direction determining unit determines that the moving direction of the moving object is substantially equal; The image composition apparatus according to
請求項3に記載の発明は、
前記合成制御手段は、前記方向判定手段により前記動体の動きの方向が略等しいと判定された場合に、背景用の静止画像と前記動体の画像を再生時間の経過に伴って加算合成させることを特徴とする請求項1又は2に記載の画像合成装置を提供するものである。
The invention according to
The synthesis control means adds and synthesizes a background still image and the moving body image as the playback time elapses when the direction determining means determines that the moving direction of the moving body is substantially equal. The image synthesizing apparatus according to
請求項4に記載の発明は、
前記検出手段により検出された動体の動きの量が所定値以上であるか否かを判定する動き量判定手段をさらに備え、前記合成制御手段は、前記動き量判定手段により前記動体の動きの量が所定値以上であると判定された場合に、前記動体の画像を再生時間の経過に伴って加算合成させることを特徴とする請求項1〜3の何れか一項に記載の画像合成装置を提供するものである。
The invention according to
It further comprises a motion amount determination means for determining whether or not the amount of motion of the moving object detected by the detection means is greater than or equal to a predetermined value. The image composition apparatus according to any one of
請求項5に記載の発明は、
前記合成制御手段は、前記方向判定手段により前記動体の動きの方向が略等しくないと判定された場合に、前記動画像を構成する複数の画像フレームの各々を前記背景用の静止画像に対して合成させることを特徴とする請求項3又は4に記載の画像合成装置を提供するものである。
The invention described in
When the direction determining unit determines that the moving direction of the moving object is not substantially equal, the synthesis control unit applies each of the plurality of image frames constituting the moving image to the background still image. The image synthesizing apparatus according to
請求項6に記載の発明は、
背景用の静止画像と動画像とを合成して合成動画を生成する合成手段と、前記動画像における動体の動きを検出する検出手段と、この検出手段により検出された動体の動きを基準として、当該動体を再生時間の経過に伴って前記静止画像の異なる位置に加算表示させるように前記静止画像と前記動画像とを前記合成手段に合成させる合成制御手段と、前記検出手段により検出された動体の動きの方向が略等しいか否かを判定する動き判定手段と、を備え、前記合成制御手段は、前記動画像を構成する複数の画像フレーム中の動体を前記静止画像に対して前記合成手段により加算して複数の画像フレームからなる合成動画を生成させるとともに、前記動き判定手段により前記動体の動きの方向が略等しいと判定された場合に、前記動体を再生時間の経過に伴って異なる位置に加算表示させるように前記合成手段に合成させ、前記動き判定手段は、前記動画像を構成する複数の画像フレームのうち、隣り合う画像フレーム間での動体の動きの方向が略等しいか否かを判定し、前記合成制御手段は、さらに、前記動き判定手段により何れか一の画像フレームにおける前記動体の動きの方向が当該一の画像フレームよりも前の画像フレームにおける前記動体の動きの方向に対して変化したと判断された場合に、既に前記静止画像に対して加算表示された動体を消去することを特徴とする画像合成装置を提供するものである。
The invention described in
With reference to the motion of the moving object detected by the detecting means, the detecting means for detecting the movement of the moving object in the moving image, the combining means for combining the still image for the background and the moving image to generate a combined moving image Combining control means for combining the still image and the moving image with the combining means so that the moving object is added and displayed at different positions of the still image as the playback time elapses, and the moving object detected by the detecting means Motion determining means for determining whether or not the directions of the movements of the moving images are substantially equal, wherein the combining control means is configured to combine the moving object in the plurality of image frames constituting the moving image with the still image. When the moving object is reproduced when the moving determination unit determines that the moving directions of the moving object are substantially equal to each other. As the time elapses, the synthesizing unit synthesizes the images so that they are added and displayed at different positions. It is determined whether or not the directions are substantially equal, and the synthesis control unit further causes the motion determination unit to move the moving object in any one image frame in an image frame before the one image frame. When it is determined that the moving object has changed in the direction of movement, the moving object already added to the still image is erased.
請求項7に記載の発明は、
画像合成装置における画像合成方法であって、複数の画像フレームからなる動体の動きを検出する検出ステップと、前記検出ステップにより検出された動体の動きの方向が隣り合う画像フレーム間で略等しいか否かを判定する方向判定ステップと、前記方向判定ステップにより該動体の動きの方向が略等しいと判定された場合に、前記動体の画像を再生時間の経過に伴って加算合成させる合成制御ステップと、を含み、前記合成制御ステップは、前記方向判定ステップにより何れか一の画像フレームにおける前記動体の動きの方向が当該一の画像フレームよりも前の画像フレームにおける前記動体の動きの方向に対して変化したと判断された場合に、既に加算合成された動体の画像を消去することを特徴とする画像合成方法を提供するものである。
Invention according to claim 7,
An image composition method in an image composition device, wherein a detection step for detecting a motion of a moving object composed of a plurality of image frames and a motion direction detected by the detection step are substantially equal between adjacent image frames. A direction determining step for determining whether or not the direction of movement of the moving object is determined to be substantially equal by the direction determining step, and a synthesis control step for adding and combining the images of the moving object with the lapse of the reproduction time; In the composition control step, the direction of the motion of the moving object in any one image frame is changed with respect to the direction of the motion of the moving object in the image frame before the one image frame by the direction determination step. when it is determined that, to provide an image synthesizing method characterized by erasing the images already added synthesized moving object That.
請求項8に記載の発明は、
画像合成装置のコンピュータを、複数の画像フレームからなる動体の動きを検出する検出手段、前記検出手段により検出された動体の動きの方向が隣り合う画像フレーム間で略等しいか否かを判定する方向判定手段、前記方向判定手段により該動体の動きの方向が略等しいと判定された場合に、前記動体の画像を再生時間の経過に伴って加算合成させる合成制御手段、として機能させ、前記合成制御手段は、前記方向判定手段により何れか一の画像フレームにおける前記動体の動きの方向が当該一の画像フレームよりも前の画像フレームにおける前記動体の動きの方向に対して変化したと判断された場合に、既に加算合成された動体の画像を消去することを特徴とするプログラムを提供するものである。
The invention according to
A direction for determining whether the computer of the image composition apparatus detects a motion of a moving object composed of a plurality of image frames, and whether the direction of motion of the moving object detected by the detection means is substantially equal between adjacent image frames. A combination control unit configured to add and synthesize an image of the moving object as a reproduction time elapses when the moving direction of the moving object is determined to be substantially equal by the determining unit and the direction determining unit; And means for determining that the direction of movement of the moving object in any one image frame has changed with respect to the direction of movement of the moving object in an image frame prior to the one image frame by the direction determination means. Further, the present invention provides a program characterized in that an image of a moving object that has already been added and synthesized is deleted .
本発明によれば、動体を斬新な態様で合成することができ、興趣性の高い合成画像を生成することができる。 ADVANTAGE OF THE INVENTION According to this invention, a moving body can be synthesize | combined in a novel aspect and a highly interesting synthetic | combination image can be produced | generated.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
本実施形態の撮像装置100は、合成画像生成処理に係る被写体切り抜き動画像M2における被写体の動きを検出して、検出された被写体の動きを基準として、当該被写体を再生時間の経過に伴って背景用画像P1の異なる位置に加算表示させるように背景用画像P1と被写体切り抜き動画像M2とを合成させる。
具体的には、図1に示すように、撮像装置100は、レンズ部1と、電子撮像部2と、撮像制御部3と、画像データ生成部4と、画像メモリ5と、動き検出部6と、画像処理部7と、記録媒体8と、表示制御部9と、表示部10と、操作入力部11と、CPU12とを備えている。
また、撮像制御部3と、動き検出部6と、画像処理部7と、CPU12は、例えば、カスタムLSI1Aとして設計されている。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram illustrating a schematic configuration of an
The
Specifically, as illustrated in FIG. 1, the
In addition, the
レンズ部1は、複数のレンズから構成され、ズームレンズやフォーカスレンズ等を備えている。
また、レンズ部1は、図示は省略するが、被写体の撮像の際に、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えていても良い。
The
Although not shown, the
電子撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部1の各種レンズを通過した光学像を二次元の画像信号に変換する。
The
撮像制御部3は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3は、タイミング発生器、ドライバにより電子撮像部2を走査駆動して、所定周期毎に光学像を電子撮像部2により二次元の画像信号に変換させ、当該電子撮像部2の撮像領域から1画面分ずつ画像フレームを読み出して画像データ生成部4に出力させる。
また、撮像制御部3は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮像する際の条件の調整制御を行う。
Although not shown, the
In addition, the
このように構成された撮像レンズ部1、電子撮像部2及び撮像制御部3は、撮像手段として、合成画像生成処理に係る被写体存在動画像M1(図3(a)〜図3(e)参照)や背景用画像P1(図9(a)等参照)を撮像する。
また、撮像レンズ部1、電子撮像部2及び撮像制御部3は、被写体存在動画像M1の撮像後、当該被写体存在動画像M1の撮像の際の撮像条件を固定した状態で、被写体切り抜き動画像M2(図4(a)〜図4(e)参照)の生成のための被写体非存在画像(図示略)を撮像する。
The
In addition, the
画像データ生成部4は、電子撮像部2から転送された画像フレームのアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用される画像メモリ5にDMA転送される。
The image
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to an
画像メモリ5は、例えば、DRAM等により構成され、動き検出部6と、画像処理部7と、CPU12等によって処理されるデータ等を一時記憶する。
The
動き検出部6は、特徴量演算部6aと、ブロックマッチング部6bとを具備している。
特徴量演算部6aは、被写体非存在画像を基準として、当該被写体非存在画像から特徴点を抽出する特徴抽出処理を行う。具体的には、特徴量演算部6aは、被写体非存在画像のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレート(例えば、16×16画素の正方形)として抽出する。
ここで、特徴抽出処理とは、多数の候補ブロックから追跡に都合の良い特徴性の高いものを選択する処理である。
The
The feature
Here, the feature extraction process is a process of selecting a feature having a high characteristic convenient for tracking from a large number of candidate blocks.
また、特徴量演算部6aは、合成判定処理(後述)にて、例えば、Motion−JPEG形式で記録された被写体切り抜き動画像M2の動画像データを構成する各画像フレームgから所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレート(例えば、16×16画素の正方形)として抽出する。
Further, the feature
ブロックマッチング部6bは、被写体非存在画像と被写体存在動画像M1の位置合わせのためのブロックマッチング処理を行う。具体的には、ブロックマッチング部6bは、特徴抽出処理にて抽出されたテンプレートが被写体存在動画像M1内のどこに対応するか、つまり、被写体存在動画像M1内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった被写体非存在画像と被写体存在動画像M1間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。
The
また、ブロックマッチング部6bは、被写体切り抜き動画像M2の動画像データを構成する複数の画像フレームg、…のうち、一の画像フレームgから特徴抽出処理にて抽出されたテンプレートが一つ前の画像フレームg内のどこに対応するか、つまり、一つ前の画像フレームg内にてテンプレートの画素値が最適にマッチする位置(対応領域)を探索する。そして、画素値の相違度の評価値(例えば、差分二乗和(SSD)や差分絶対値和(SAD)等)が最も良かった当該一の画像フレームgと一つ前の画像フレームg間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、算出された複数の動きベクトルの各々について、何れか一の動きベクトルを評価対象として他の動きベクトルと比較して当該評価対象の動きベクトルに対して投票するか否かを決定し、一の画像フレームgの全体の動きベクトル(図4(a)〜図4(e)参照)を多数決により算出する。
なお、図4(a)〜図4(e)にあっては、画像フレームgの被写体の動きベクトルを白抜きの矢印で表すものとする。
ここで、動き検出部6の特徴量演算部6a及びブロックマッチング部6bは、動画像における動体の動きを検出する検出手段を構成している。
Also, the
In FIGS. 4A to 4E, the motion vector of the subject in the image frame g is represented by a white arrow.
Here, the feature
画像処理部7は、被写体存在動画像M1と被写体非存在画像との位置合わせを行う位置合わせ部7aを具備している。
位置合わせ部7aは、被写体非存在画像から抽出した特徴点に基づいて、被写体非存在画像に対する被写体存在動画像M1の各画素の座標変換式(射影変換行列)を算出し、当該座標変換式に従って被写体存在動画像M1を座標変換して被写体非存在画像と位置合わせを行う。
また、位置合わせ部7aは、複数の画像フレームf、…からなる被写体存在動画像M1の各画像フレームfについて被写体非存在画像と位置合わせを行う。
The image processing unit 7 includes an
The
In addition, the
また、画像処理部7は、位置合わせ部7aにより位置合わせされた被写体存在動画像M1と被写体非存在画像との間で対応する各画素の差分情報を生成し、当該差分情報を基準として被写体存在動画像M1から被写体が含まれる被写体領域Sを抽出する被写体領域抽出部7bを具備している。
また、被写体領域抽出部7bは、複数の画像フレームf、…からなる被写体存在動画像M1の各画像フレームfから被写体が含まれる被写体領域Sを抽出する。
Further, the image processing unit 7 generates difference information of each corresponding pixel between the subject presence moving image M1 and the subject non-existence image aligned by the
In addition, the subject
また、画像処理部7は、被写体存在動画像M1内で抽出された被写体領域Sの位置を特定して、被写体存在動画像M1における被写体領域Sの位置を示す位置情報を生成する位置情報生成部7cを具備している。
ここで、位置情報としては、例えば、アルファマップが挙げられ、アルファマップとは、被写体存在動画像M1の各画素について、被写体領域Sの画像を所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したものである。
また、位置情報生成部7cは、被写体存在動画像M1が複数の画像フレームf、…からなる動画像の場合、各画像フレームfにおける被写体領域Sの位置を示す位置情報を生成する。
Further, the image processing unit 7 specifies the position of the subject region S extracted in the subject presence moving image M1, and generates position information indicating the position of the subject region S in the subject presence moving image M1. 7c.
Here, the position information includes, for example, an alpha map. The alpha map is a weight for alpha blending the image of the subject area S with respect to a predetermined background for each pixel of the subject existing moving image M1. This is expressed as an alpha value (0 ≦ α ≦ 1).
In addition, when the subject presence moving image M1 is a moving image including a plurality of image frames f,..., The position information generation unit 7c generates position information indicating the position of the subject region S in each image frame f.
また、画像処理部7は、生成されたアルファマップに基づいて、被写体存在動画像M1の各画素のうち、アルファ値が1の画素を所定の単一色画像(図示略)に対して透過させずに、且つ、アルファ値が0の画素を透過させるように、被写体の画像を所定の単一色画像と合成して被写体切り抜き動画像M2(図4(a)〜図4(e)参照)の画像データを生成する切抜画像生成部7dを具備している。
これにより、切抜画像生成部7dは、背景と被写体とが存在する被写体存在動画像M1から被写体が含まれる領域を切り抜いた被写体切り抜き動画像M2を取得する。
また、切抜画像生成部7dは、複数の画像フレームf、…からなる被写体存在動画像M1の各画像フレームfから被写体が含まれる領域を切り抜いた画像フレームfを取得して、これら画像フレームfからなる被写体切り抜き動画像M2の動画像データを生成する。
Further, the image processing unit 7 does not transmit a pixel having an alpha value of 1 among the pixels of the subject existing moving image M1 to a predetermined single color image (not shown) based on the generated alpha map. In addition, an image of the subject cutout moving image M2 (see FIGS. 4A to 4E) is synthesized by synthesizing the subject image with a predetermined single color image so as to transmit pixels having an alpha value of 0. A cut-out
Thereby, the cut-out
Further, the cut-out
また、画像処理部7は、動き検出部6により検出された被写体切り抜き動画像M2の動画像データを構成する各画像フレームにおける被写体の動きの方向が略等しいか否かを判定する動き判定部7eを具備している。
具体的には、動き判定部7eは、動き検出部6から複数の画像フレームg、…の動きベクトルを取得して、当該動きベクトルの大きさが所定の閾値以上であるか否かに応じて被写体の動きの量が所定の閾値値以上であるか否かを判定する。そして、被写体の動きの量が所定の閾値以上であると判定した場合に、動き判定部7eは、隣り合う画像フレームg間での動きベクトルが略一致するか否かに応じて被写体の動きの方向が略等しいか否かを判定する。例えば、ソリに乗った人が雪上(地表)を所定の一方向に滑る場合(図3(a)〜図3(e)参照)、各画像フレームgの動きベクトルは、所定の一方向(例えば、左斜め下方向)と略等しくなる(図4(a)〜図4(e)参照)。なお、動きベクトルの方向の判定は、厳密にする必要はなく、例えば、図4(b)及び図4(c)における動きベクトルと、図4(d)及び図4(e)における動きベクトルとはわずかに方向がずれているが、その差がわずかな角度であれば所定の一方向(例えば、左斜め下方向)と略等しいと判断するようにしても良い。
In addition, the image processing unit 7 determines whether or not the direction of movement of the subject in each image frame constituting the moving image data of the subject cutout moving image M2 detected by the
Specifically, the
また、画像処理部7は、被写体切り抜き動画像M2と背景用画像P1とを合成する画像合成部7fを具備している。具体的には、画像合成部7fは、記録媒体8からユーザ所望の背景用画像P1を取得して、当該背景用画像P1の各画素のうち、アルファ値が0の画素は透過させ、アルファ値が1の画素は被写体切り抜き動画像M2の対応する画素の画素値で上書きし、さらに、背景用画像P1の各画素のうち、アルファ値が0<α<1の画素は1の補数(1−α)を用いて被写体領域Sを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き動画像M2を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き動画像M2から減算し、それを被写体領域Sを切り抜いた画像(背景用画像×(1−α))と合成する。
また、画像合成部7fは、複数の画像フレームg、…からなる被写体切り抜き動画像M2の各画像フレームgを指定された所定の画像を背景用画像P1として合成する。
The image processing unit 7 includes an
In addition, the
また、画像合成部7fは、被写体切り抜き動画像M2を構成する各画像フレームgの背景用画像P1に対する合成を制御する合成制御部7gを具備している。即ち、画像合成部7fは、合成制御部7gの制御下にて、動き検出部6により検出された各画像フレームgの動きベクトルを基準として、被写体を再生時間の経過に伴って異なる位置に加算表示させるように被写体切り抜き動画像M2と背景用画像P1とを合成する。
具体的には、合成制御部7gは、動き判定部7eにより被写体切り抜き動画像M2の動画像データを構成する複数の画像フレームg、…における被写体の動きの量が所定の閾値以上で、且つ、動きの方向が略等しいと判定された場合に、複数の画像フレームg、…中の被写体を再生時間の経過に伴って異なる位置に加算表示させるように複数の被写体を静止画像に対して画像合成部7fにより加算して複数の画像フレームg、…からなる合成動画を生成させる加算合成処理を行う。
即ち、合成制御部7gは、被写体切り抜き動画像M2を構成する複数の画像フレームg、…のうち、最初の画像フレームg1と背景用の静止画像として指定された静止画像とをアルファマップを用いて画像合成部7fに生成させた後、当該静止画像に最初の画像フレームg1の被写体が合成された画像h1(図9(a)参照)を背景用の静止画像として指定して、この画像h1に対して被写体切り抜き動画像M2を構成する次(二番目)の画像フレームg2の被写体を加算表示させるように次の画像フレームg2のアルファマップを用いて画像合成部7fに生成させる。これにより、当該静止画像に最初の画像フレームg1の被写体が合成された画像h1(図9(a)参照)に次の画像フレームg2の被写体が加算合成された画像(図示略)が生成される。上記の処理を被写体切り抜き動画像M2を構成する全ての画像フレームgについて繰り返し行うことで、例えば、図9(a)〜図9(d)に示すように、奥側から手前側に滑る人が再生時間の経過に伴って次第に重畳(加算)されていくような複数の画像フレームh、…からなる合成動画が生成される。
なお、被写体の加算表示は、重畳されたものに限られるものではなく、再生時間の経過に伴って被写体の数が増加するような表示であれば良く、例えば、複数の被写体が所定間隔を空けて配置される表示であっても良い。
Further, the
Specifically, the
That is, the
Note that the subject addition display is not limited to the superimposed display, and may be any display in which the number of subjects increases as the playback time elapses. For example, a plurality of subjects are spaced at a predetermined interval. Display may be arranged.
また、合成制御部7gは、動き判定部7eにより被写体切り抜き動画像M2の動画像データを構成する複数の画像フレームgにおける被写体の動きの量が所定の閾値以上、又は、動きの方向が略等しくないと判定された場合に、当該複数の画像フレームgの各々を背景用の静止画像として指定された静止画像に対して画像合成部7fによりそれぞれ合成させる通常合成処理を行う。
即ち、例えば、図11(a)〜図11(d)に示すように、人が所定位置から動かずに腕を上下に動かした場合、動きベクトル(図示略)が右斜め上(図11(b)参照)から右斜め下(図11(c)参照)、さらに、左斜め下(図11(d)参照)とばらばらに変化する。このような場合に、加算合成処理を行うと、腕が千手観音のような状態となって見苦しい画像となることから、各画像フレームgと背景用画像P1とを合成して合成動画を構成する画像フレームiを個別に生成する。
In addition, the
That is, for example, as shown in FIGS. 11 (a) to 11 (d), when a person moves his / her arm up and down without moving from a predetermined position, the motion vector (not shown) is diagonally upward (FIG. 11 ( b)) to the lower right (see FIG. 11 (c)) and further to the lower left (see FIG. 11 (d)). In such a case, if the addition synthesis process is performed, the arm becomes a state of a thousand-handed kannon, resulting in an unsightly image. Therefore, each image frame g and the background image P1 are synthesized to form a synthesized moving image. The image frame i to be generated is generated individually.
記録媒体8は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部7の符号化部(図示略)により符号化された背景用画像P1や被写体切り抜き動画像M2の画像データを記憶する。
被写体切り抜き動画像M2の画像データは、画像処理部7の位置情報生成部7cにより生成されたアルファマップと対応付けられて一ファイルで保存されている。
また、被写体切り抜き動画像M2が動画像の場合、例えば、所定の撮像フレームレートで撮像された連続した複数の画像フレームg、…(例えば、n枚の画像フレーム)、…からなる動画像データがMotion−JPEG形式で記録されている。なお、図4(a)〜図4(e)は、被写体切り抜き動画像M2の動画像データを構成する連続するn枚の画像フレームg1〜gnを模式的に表しており、これらの画像フレームg1〜gnを時間軸に沿って図4(a)〜図4(e)として表すものとする。
The
The image data of the subject cutout moving image M2 is stored in one file in association with the alpha map generated by the position information generation unit 7c of the image processing unit 7.
Further, when the subject cutout moving image M2 is a moving image, moving image data including a plurality of continuous image frames g,... (For example, n image frames) captured at a predetermined imaging frame rate, for example. It is recorded in the Motion-JPEG format. 4 (a) to 4 (e) schematically represent n consecutive image frames g1 to gn constituting the moving image data of the subject cutout moving image M2, and these image frames g1. ˜gn is expressed as FIG. 4A to FIG. 4E along the time axis.
表示制御部9は、画像メモリ5に一時的に記憶されている表示用の画像データを読み出して表示部10に表示させる制御を行う。
具体的には、表示制御部9は、VRAM、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、CPU12の制御下にて画像メモリ5から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部10に出力する。
The
Specifically, the
表示部10は、例えば、液晶表示装置であり、表示制御部9からのビデオ信号に基づいて電子撮像部2により撮像された画像などを表示画面に表示する。具体的には、表示部10は、撮像モードにて、撮像レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示したり、本撮像画像として撮像されたレックビュー画像を表示する。
The
操作入力部11は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部11は、被写体の撮影指示に係るシャッタボタン11a、撮像モードや機能等の選択指示や被写体切り抜き動画像M2の初期合成位置の設定指示に係る選択決定ボタン11b、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号をCPU12に出力する。
The
CPU12は、撮像装置100の各部を制御するものである。具体的には、CPU12は、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行うものである。
The
次に、撮像装置100による被写体切り抜き処理について、図2及び図3を参照して説明する。
図2は、被写体切り抜き処理に係る動作の一例を示すフローチャートである。また、図3(a)〜図3(e)は、被写体切り抜き処理に係る被写体存在動画像M1の一例を模式的に示す図であり、図4(a)〜図4(e)は、被写体切り抜き処理に係る被写体切り抜き動画像M2の一例を模式的に示す図である。
Next, the subject clipping process performed by the
FIG. 2 is a flowchart illustrating an example of an operation related to the subject clipping process. FIGS. 3A to 3E are diagrams schematically showing an example of the subject presence moving image M1 related to the subject clipping process, and FIGS. 4A to 4E are views of the subject. It is a figure which shows typically an example of the to-be-photographed object moving image M2 which concerns on a clipping process.
被写体切り抜き処理は、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から被写体切り抜きモードが選択指示された場合に実行される処理である。
なお、以下に説明する被写体切り抜き処理にあっては、被写体存在動画像M1として被写体を所定の撮像フレームレートで撮像して複数の画像フレームからなる動画像(被写体存在動画像M1)を生成し、当該動画像の各画像フレームfから被写体領域Sが抽出された動画像(被写体切り抜き動画像M2)を生成するものとする。
The subject clipping process is executed when the subject clipping mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the selection determination button 11b of the
In the subject clipping process described below, the subject is captured as a subject existing moving image M1 at a predetermined imaging frame rate to generate a moving image (subject present moving image M1) including a plurality of image frames. Assume that a moving image (subject cutout moving image M2) in which the subject region S is extracted from each image frame f of the moving image is generated.
図2に示すように、先ず、CPU12は、表示制御部9に、撮像レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部10の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在動画像M1の撮像指示メッセージを表示部10の表示画面に表示させる(ステップS1)。
As shown in FIG. 2, first, the
次に、CPU12は、ユーザによる操作入力部11のシャッタボタン11aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS2)。ここで、撮像指示が入力されたと判定されると(ステップS2;YES)、CPU12は、撮像制御部3に、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整させて、被写体存在動画像M1(図3(a)〜図3(e)参照)の光学像を所定の条件で電子撮像部2により所定の撮像フレームレートで撮像させて、画像データ生成部4に、電子撮像部2から転送された被写体存在動画像M1の各画像フレームfのYUVデータを生成させる(ステップS4)。なお、当該被写体存在動画像M1の各画像フレームfのYUVデータは、画像メモリ5に一時記憶される。
また、CPU12は、撮像制御部3を制御して、当該被写体存在動画像M1の撮像の際の合焦位置や露出条件やホワイトバランス等の条件を固定した状態を維持する。
Next, the
Further, the
そして、CPU12は、表示制御部9に、撮像レンズ部1、電子撮像部2及び撮像制御部3による被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部10の表示画面に表示させるとともに、当該ライブビュー画像に重畳させて、被写体存在動画像M1の何れか一の画像フレームfの半透過の表示態様の画像と被写体非存在画像の撮像指示メッセージを表示部10の表示画面に表示させる(ステップS4)。
この後、CPU12は、ユーザによる操作入力部11のシャッタボタン11aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS5)。そして、ユーザは、被写体が移動するのを待つか、或いは、被写体を画角外に移動させた後、ユーザにより被写体非存在画像が被写体存在動画像M1の画像フレームfの半透過の画像と重なるようにカメラ位置が調整されて、操作入力部11のシャッタボタン11aが所定操作されて撮像指示が入力されたと判定されると(ステップS5;YES)、CPU12は、撮像制御部3に、被写体非存在画像(図示略)の光学像を被写体存在動画像M1の撮像後に固定された条件で電子撮像部2により撮像させて、画像データ生成部4に、電子撮像部2から転送された被写体非存在画像の画像フレームに基づいて、被写体非存在画像のYUVデータを生成させる(ステップS6)。なお、当該被写体存在動画像M1のYUVデータは、画像メモリ5に一時記憶される。
Then, the
Thereafter, the
次に、CPU12は、特徴量演算部6a、ブロックマッチング部6b及び画像処理部7に、画像メモリ5に一時記憶されている被写体非存在画像のYUVデータを基準として、被写体存在動画像M1の各画像フレームfのYUVデータを射影変換させるための射影変換行列を所定の画像変換モデル(例えば、相似変換モデル、或いは合同変換モデル)で算出させる(ステップS7)。
具体的には、特徴量演算部6aは、被写体非存在画像のYUVデータに基づいて、所定数(或いは、所定数以上)の特徴の高いブロック領域(特徴点)を選択して、当該ブロックの内容をテンプレートとして抽出する。そして、ブロックマッチング部6bは、特徴抽出処理にて抽出されたテンプレートの画素値が最適にマッチする位置を被写体存在動画像M1の各画像フレームf内にて探索して、画素値の相違度の評価値が最も良かった被写体非存在画像と当該画像フレームf間の最適なオフセットを当該テンプレートの動きベクトルとして算出する。そして、画像処理部7の位置合わせ部7aは、ブロックマッチング部6bにより算出された複数のテンプレートの動きベクトルに基づいて全体の動きベクトルを統計的に算出し、当該動きベクトルに係る特徴点対応を用いて被写体存在動画像M1の各画像フレームfの射影変換行列を算出する。
Next, the
Specifically, the feature
次に、CPU12は、位置合わせ部7aに、算出された射影変換行例に基づいて、対応する被写体存在動画像M1の各画像フレームfを射影変換させることで、被写体存在動画像M1の各画像フレームfのYUVデータと被写体非存在画像のYUVデータとを位置合わせする処理を行わせる(ステップS8)。
Next, the
そして、CPU12は、画像処理部7の被写体領域抽出部7bに、被写体存在動画像M1の各画像フレームfから被写体が含まれる被写体領域Sを抽出する処理を行わせる(ステップS9)。
具体的には、被写体領域抽出部7bは、被写体存在動画像M1の各画像フレームfのYUVデータと被写体非存在画像のYUVデータの各々に対してローパスフィルタをかけて各画像の高周波成分を除去する。その後、被写体領域抽出部7bは、ローパスフィルタをかけた被写体存在動画像M1の各画像フレームfと被写体非存在画像との間で対応する各画素について相違度を算出して相違度マップを生成する。続けて、被写体領域抽出部7bは、各画素に係る相違度マップを所定の閾値で2値化した後、相違度マップから細かいノイズや手ぶれにより相違が生じた領域を除去するために収縮処理を行う。その後、被写体領域抽出部7bは、ラベリング処理を行って、所定値以下の領域や最大領域以外の領域を除去した後、一番大きな島のパターンを被写体領域Sとして特定し、収縮分を修正するための膨張処理を行う。
Then, the
Specifically, the subject
次に、CPU12は、画像処理部7の位置情報生成部7cに、抽出された被写体領域Sの被写体存在動画像M1の各画像フレームf内での位置を示すアルファマップを生成させる(ステップS10)。
Next, the
その後、CPU12は、画像処理部7の切抜画像生成部7dに、被写体切り抜き動画像M2の各画像フレームg内の被写体の画像を所定の単一色画像と合成した被写体切り抜き動画像M2(図4(a)〜図4(e)参照)の各画像フレームgの画像データを生成する処理を行わせる(ステップS11)。
具体的には、切抜画像生成部7dは、被写体存在動画像M1の各画像フレームf、単一色画像及びアルファマップを読み出して画像メモリ5に展開した後、被写体存在動画像M1の各画像フレームfの全ての画素について、アルファ値が0の画素については(α=0)、透過させ、アルファ値が0<α<1の画素については(0<α<1)、所定の単一色とブレンディングを行い、アルファ値が1の画素については(α=1)、何もせずに所定の単一色に対して透過させないようにする。
Thereafter, the
Specifically, the cut-out
その後、CPU12は、記録媒体8の所定の記憶領域に、画像処理部7の位置情報生成部7cにより生成されたアルファマップと被写体切り抜き動画像M2の各画像フレームgの画像データを対応付けて一ファイルで記憶させる(ステップS12)。
これにより、被写体切り抜き処理を終了する。この結果、例えば、所定の背景内から雪上をソリで滑る人が被写体として抽出された被写体切り抜き動画像M2の画像データが生成される。
Thereafter, the
Thereby, the subject clipping process is completed. As a result, for example, image data of a subject cutout moving image M2 in which a person who slides on a snow with a sled from a predetermined background is extracted as a subject is generated.
次に、撮像装置100による背景用画像生成処理について、図5を参照して説明する。
図5は、背景用画像生成処理に係る動作の一例を示すフローチャートである。
背景用画像生成処理は、通常の静止画像の撮像処理であり、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から静止画撮像モードが選択指示された場合に実行される処理である。
Next, background image generation processing by the
FIG. 5 is a flowchart illustrating an example of an operation related to the background image generation processing.
The background image generation process is a normal still image imaging process, and a still image is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the selection determination button 11b of the
図5に示すように、先ず、CPU12は、表示制御部9に、撮像レンズ部1、電子撮像部2及び撮像制御部3による背景用画像P1の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部10の表示画面に表示させる(ステップS21)。
As shown in FIG. 5, first, the
次に、CPU12は、ユーザによる操作入力部11のシャッタボタン11aの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS22)。ここで、撮像指示が入力されたと判定されると(ステップS22;YES)、CPU12は、撮像制御部3に、フォーカスレンズの合焦位置や露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整させて、背景用画像P1(図9(a)等参照)の光学像を所定の条件で電子撮像部2により撮像させる(ステップS23)。
Next, the
続けて、CPU12は、画像データ生成部4に、電子撮像部2から転送された背景用画像P1の画像フレームのYUVデータを生成させた後、記録媒体8の所定の記憶領域に、背景用画像P1のYUVデータをExif形式の画像ファイルとして記憶させる(ステップS24)。
これにより、背景用画像P1生成処理を終了する。この結果、例えば、市街地が記録された背景用画像P1の静止画像データが生成される。
Subsequently, the
Thus, the background image P1 generation process is terminated. As a result, for example, still image data of the background image P1 in which the city area is recorded is generated.
次に、合成画像生成処理について図6〜図11を参照して詳細に説明する。
図6は、合成画像生成処理に係る動作の一例を示すフローチャートである。また、図7は、合成判定処理に係る動作の一例を示すフローチャートである。また、図8は、加算合成処理に係る動作の一例を示すフローチャートであり、図9(a)〜図9(d)は、加算合成処理にて画像合成される被写体合成動画像M3の一例を模式的に示す図である。また、図10は、通常合成処理に係る動作の一例を示すフローチャートであり、図11(a)〜図11(d)は、通常合成処理にて画像合成される被写体合成動画像M4の一例を模式的に示す図である。
Next, the composite image generation process will be described in detail with reference to FIGS.
FIG. 6 is a flowchart illustrating an example of an operation related to the composite image generation process. FIG. 7 is a flowchart illustrating an example of an operation related to the synthesis determination process. FIG. 8 is a flowchart showing an example of the operation related to the addition synthesis process, and FIGS. 9A to 9D show an example of the subject synthesis moving image M3 synthesized by the addition synthesis process. It is a figure shown typically. FIG. 10 is a flowchart showing an example of the operation related to the normal synthesis process, and FIGS. 11A to 11D show an example of the subject synthesized moving image M4 synthesized in the normal synthesis process. It is a figure shown typically.
合成画像生成処理は、ユーザによる操作入力部11の選択決定ボタン11bの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から画像合成モードが選択指示された場合に実行される処理である。
図6に示すように、CPU12は、先ず、合成処理の内容を判定する合成判定処理を動き検出部6及び画像処理部7に実行させる(ステップS31)。
The composite image generation process is executed when an image combination mode is selected from a plurality of imaging modes displayed on the menu screen based on a predetermined operation of the selection determination button 11b of the
As shown in FIG. 6, the
ここで、合成判定処理について図7を参照して詳細に説明する。
図7に示すように、ユーザによる操作入力部11の所定操作に基づいて、記録媒体8に記録されている複数の画像の中で所望の被写体切り抜き動画像M2(図4(a)〜図4(e)参照)が選択して指定されると、動き検出部6は、指定された被写体切り抜き動画像M2の画像データを読み出して画像メモリ5に展開する(ステップS41)。
Here, the synthesis determination process will be described in detail with reference to FIG.
As shown in FIG. 7, a desired subject cutout moving image M2 (FIGS. 4A to 4) among a plurality of images recorded on the
次に、動き検出部6は、被写体切り抜き動画像M2を構成する複数の画像フレームg、…のうち、処理対象に係る最初の画像フレームg1のフレーム番号として「1」を指定すると(ステップS42)、指定されたフレーム番号「1」の画像フレームg1及び当該画像フレームg1と対応付けて保存されているアルファマップを読み出して画像メモリ5に展開する(ステップS43)。
続けて、動き検出部6は、読み出した画像フレームg1からアルファマップを用いて被写体領域Sを特定して被写体を抽出する(ステップS44)。
Next, the
Subsequently, the
次に、動き検出部6は、読み出した画像フレームg1よりも前の画像フレームgから抽出された被写体があるか否かを判定する(ステップS45)。ここで、ステップS43にて読み出した画像フレームgが最初の画像フレームg1であるので、前の画像フレームgの被写体がないと判定されると(ステップS45;NO)、動き検出部6は、被写体切り抜き動画像M2を構成する複数の画像フレームg、…のうち、処理対象となる次の画像フレームg2に係るフレーム番号を+1インクリメントして指定する(ステップS46)。これにより、二番目の画像フレームg2が合成判定処理の対象として指定される。
そして、動き検出部6は、処理をステップS43に移行させて、それ以降の処理を実行する。これにより、動き検出部6は、指定されたフレーム番号「2」の画像フレームg2及び当該画像フレームg2と対応付けて保存されているアルファマップを読み出して画像メモリ5に展開して(ステップS43)、読み出した画像フレームg2からアルファマップを用いて被写体領域Sを特定して被写体を抽出する(ステップS44)。
Next, the
Then, the
そして、ステップS45にて、前の画像フレームgの被写体があると判定されると(ステップS45;YES)、動き検出部6は、二番目の画像フレームg2から抽出された被写体について、当該被写体から特徴抽出処理にて抽出されたテンプレートが最初の画像フレームg1から抽出された被写体のどこに対応するかを探索して動きベクトルを算出する(ステップS47)。
When it is determined in step S45 that there is a subject of the previous image frame g (step S45; YES), the
次に、画像処理部7の動き判定部7eは、動き検出部6から動きベクトルを取得して、当該動きベクトルの大きさが所定の閾値以上であるか否かに応じて被写体の動きの量が所定の閾値値以上であるか否かを判定する(ステップS48)。
ここで、被写体の動きの量が所定の閾値以上であると判定されると(ステップS48;YES)、動き判定部7eは、前の画像フレームgの被写体の動きベクトルがあるか否かを判定する(ステップS49)。
Next, the
If it is determined that the amount of movement of the subject is equal to or greater than the predetermined threshold (step S48; YES), the
ステップS49にて、ステップS43にて読み出した画像フレームgが二番目の画像フレームg2であるので、前の画像フレームgの被写体の動きベクトルがないと判定されると(ステップS49;NO)、動き判定部7eは、処理をステップS46に移行させて、それ以降の処理を実行する。これにより、三番目の画像フレームg3が合成判定処理の対象として指定される。
そして、二番目の画像フレームg2と同様の処理を経て当該三番目の画像フレームg3の被写体の動きベクトルが算出された後(ステップS47)、ステップS49にて、前の画像フレームg(例えば、二番目の画像フレームg2)の被写体の動きベクトルがあると判定されると(ステップS49;YES)、動き判定部7eは、二番目の画像フレームg2と三番目の画像フレームg3との間で被写体の動きベクトルが略一致するか否かに応じて被写体の動きの方向が略等しいか否かを判定する(ステップS50)。
In step S49, since the image frame g read in step S43 is the second image frame g2, if it is determined that there is no motion vector of the subject in the previous image frame g (step S49; NO), the motion The
After the same processing as that for the second image frame g2, the motion vector of the subject of the third image frame g3 is calculated (step S47), and then in step S49, the previous image frame g (for example, the second image frame g2) When it is determined that there is a motion vector of the subject in the second image frame g2) (step S49; YES), the
ここで、被写体の動きの方向が略等しいと判定されると(ステップS50;YES)、動き判定部7eは、被写体切り抜き動画像M2を構成する複数の画像フレームg、…のうち、合成判定処理の対象となる次の画像フレームgがあるか否かを判定する(ステップS51)。ここで、次の画像フレームg、例えば、四番目の画像フレームg4があると判定されると(ステップS51;YES)、動き判定部7eは、処理をステップS45に移行させて、それ以降の処理を実行する。
これにより、四番目の画像フレームg4が合成判定処理の対象として指定される。
Here, if it is determined that the direction of movement of the subject is substantially equal (step S50; YES), the
As a result, the fourth image frame g4 is designated as the target of the synthesis determination process.
一方、ステップS48にて、被写体の動きの量が所定の閾値よりも小さいと判定されると(ステップS48;NO)、画像処理部7の合成制御部7gは、画像合成処理として、被写体切り抜き動画像M2を構成する複数の画像フレームg、…の各々を背景用画像P1に対してそれぞれ合成する通常合成処理を設定する(ステップS52)。
また、ステップS50にて、被写体の動きの方向が略等しくないと判定されると(ステップS50;NO)、画像処理部7の合成制御部7gは、処理をステップS52に移行させて、画像合成処理として、通常合成処理を設定する(ステップS52)。
On the other hand, if it is determined in step S48 that the amount of movement of the subject is smaller than the predetermined threshold (step S48; NO), the
If it is determined in step S50 that the direction of movement of the subject is not substantially equal (step S50; NO), the
そして、上記の処理がステップS51にて次の画像フレームgがないと判定されるまで(ステップS51;NO)、繰り返されると、即ち、二番目以降の全ての画像フレームgについて被写体の動きの量が所定の閾値以上で、且つ、動きの方向が略等しい場合、画像処理部7の合成制御部7gは、画像合成処理として、複数の被写体を静止画像に対して加算して複数の画像フレームh、…からなる合成動画を生成する加算合成処理を設定する(ステップS53)。
これにより、合成判定処理を終了する。
If the above process is repeated until it is determined in step S51 that there is no next image frame g (step S51; NO), that is, the amount of movement of the subject for all the second and subsequent image frames g. Is equal to or greater than a predetermined threshold value and the direction of motion is substantially equal, the
As a result, the combination determination process is terminated.
図5に示すように、次に、CPU12は、合成判定処理の判定結果に応じて処理を分岐させる(ステップS32)。
具体的には、CPU12は、合成判定処理の結果として加算合成処理が設定されている場合には(ステップS32;加算合成)、画像合成部7fに加算合成処理を実行させ(ステップS33)、一方、合成判定処理の結果として通常合成処理が設定されている場合には(ステップS32;通常合成)、画像合成部7fに通常合成処理を実行させる(ステップS34)。
As shown in FIG. 5, next, the
Specifically, when the addition combination process is set as a result of the combination determination process (step S32; addition combination), the
ここで、加算合成処理について図8及び図9を参照して詳細に説明する。
図8に示すように、ユーザによる操作入力部12の所定操作に基づいて、記録媒体8に記録されている複数の画像の中で合成画像の背景となる所望の背景用画像P1(図9(a)参照)が選択して指定されると、画像処理部7は、指定された背景用画像P1の画像データを読み出して画像メモリ5に展開する(ステップS61)。
Here, the addition synthesis process will be described in detail with reference to FIGS.
As shown in FIG. 8, based on a predetermined operation of the
次に、画像合成部7fの合成制御部7gは、被写体切り抜き動画像M2を構成する複数の画像フレームg、…のうち、処理対象に係る最初の画像フレームh1のフレーム番号として「1」を指定すると(ステップS62)、指定されたフレーム番号「1」の画像フレームg1及び当該画像フレームg1と対応付けて保存されているアルファマップを読み出して画像メモリ5に展開する(ステップS63)。
Next, the
次に、画像合成部7fは、背景用画像P1の何れか一の画素(例えば、左上隅部の画素)を指定して(ステップS64)、当該画素について、アルファマップのアルファ値に基づいて処理を分岐させる(ステップS65)。具体的には、画像合成部7fは、背景用画像P1の何れか一の画素のうち、アルファ値が1の画素については(ステップS65;α=1)、被写体切り抜き動画像M2の画像フレームg1の対応する画素の画素値で上書きし(ステップS66)、アルファ値が0<α<1の画素については(ステップS65;0<α<1)、1の補数(1−α)を用いて被写体領域Sを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き動画像M2を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き動画像M2の画像フレームg1から減算し、それを被写体領域Sを切り抜いた画像(背景用画像×(1−α))と合成し(ステップS67)、アルファ値が0の画素については(ステップS65;α=0)、何もせずに背景用画像P1を透過さるようにする。
Next, the
続けて、画像合成部7fは、背景用画像P1の全ての画素について処理したか否かを判定する(ステップS68)。
ここで、全ての画素について処理していないと判定されると(ステップS68;NO)、画像合成部7fは、処理対象として次の画素を指定して当該画素に処理対象を移動させて(ステップS69)、処理をステップS65に移行させる。
上記の処理を、ステップS68にて全ての画素について処理したと判定されるまで(ステップS68;YES)、繰り返すことで、画像合成部7fは、被写体切り抜き動画像M2の画像フレームg1と背景用画像P1とを合成した被写体合成動画像M3の合成動画を構成する最初の画像フレームh1(図9(a)参照)を生成する。
Subsequently, the
If it is determined that all the pixels have not been processed (step S68; NO), the
By repeating the above processing until it is determined in step S68 that all pixels have been processed (step S68; YES), the
そして、ステップS68にて全ての画素について処理したと判定されると(ステップS68;YES)、合成制御部7gは、被写体切り抜き動画像M2を構成する全ての画像フレームgについて処理したか否かを判定する(ステップS70)。
ここで、全ての画像フレームgについて処理していないと判定されると(ステップS70;NO)、合成制御部7gは、生成された合成動画を構成する最初の画像フレームh1を背景用の静止画像として指定した後(ステップS71)、被写体切り抜き動画像M2を構成する複数の画像フレームg、…のうち、処理対象となる次の画像フレームgに係るフレーム番号を+1インクリメントして指定する(ステップS72)。これにより、二番目の画像フレームg2が画像合成処理の対象として指定される。
If it is determined in step S68 that all the pixels have been processed (step S68; YES), the
If it is determined that all the image frames g have not been processed (step S70; NO), the
次に、画像合成部7fは、処理をステップS63に移行させて、背景用の静止画像として指定された画像フレームh1の何れか一の画素(例えば、左上隅部の画素)を指定して、それ以降の処理(ステップS64〜S69)を行うことで、背景用の静止画像として指定された最初の画像フレームh1と被写体切り抜き動画像M2の二番目の画像フレームg2とを合成した被写体合成動画像M3の合成動画を構成する二番目の画像フレームを生成する。これにより、最初の画像フレームh1に対して被写体切り抜き動画像M2の二番目の画像フレームg2の被写体領域Sが加算合成された二番目の画像フレームが生成される。
そして、二番目の画像フレームの生成が完了することによって、ステップS68にて全ての画素について処理したと判定されると(ステップS68;YES)、処理をステップS70に移行させて、合成制御部7gは、被写体切り抜き動画像M2を構成する全ての画像フレームgについて処理したか否かを判定する(ステップS70)。
上記の処理を、全ての画像フレームgについて処理したと判定されるまで(ステップS70;YES)、繰り返すことで、画像合成部7fは、被写体合成動画像M3の合成動画を構成する全ての画像フレームh1〜hn(図9(a)〜図9(d)参照)を生成する。
これにより、加算合成処理を終了する。
Next, the
If it is determined in step S68 that all the pixels have been processed by completing the generation of the second image frame (step S68; YES), the process proceeds to step S70, and the
By repeating the above processing until it is determined that all image frames g have been processed (step S70; YES), the
Thereby, the addition synthesis process is terminated.
図5に示すように、その後、CPU12は、表示制御部9に、画像合成部7fにより生成された複数の画像フレームh、…からなる被写体合成動画像M3の合成動画の画像データに基づいて、各画像フレームhを所定の表示フレームレートで切り換えて表示部10の表示画面に再生表示させることで、再生時間の経過に伴って静止画像(背景用画像P1)の異なる位置に被写体としてのソリに乗った人が加算表示される被写体合成動画像M3の合成動画を再生する(ステップS35)。
As shown in FIG. 5, after that, the
次に、通常合成処理について図10及び図11を参照して詳細に説明する。
通常合成処理は、最初に指定された背景用画像P1と被写体切り抜き動画像M2を構成する全ての画像フレームとを合成する以外の点で加算合成処理と略同様の処理を行う。
即ち、図10に示すように、ユーザによる操作入力部12の所定操作に基づいて、記録媒体8に記録されている複数の画像の中で合成画像の背景となる所望の背景用画像P1(図11(a)参照)が選択して指定されると、画像処理部7は、指定された背景用画像P1の画像データを読み出して画像メモリ5に展開する(ステップS81)。
Next, the normal synthesis process will be described in detail with reference to FIGS.
The normal synthesis process is substantially the same as the addition synthesis process except that the background image P1 specified first and all the image frames constituting the subject cutout moving image M2 are synthesized.
That is, as shown in FIG. 10, based on a predetermined operation of the
次に、画像合成部7fの合成制御部7gは、被写体切り抜き動画像M2を構成する複数の画像フレームg、…のうち、処理対象に係る最初の画像フレームg1のフレーム番号として「1」を指定すると(ステップS82)、指定されたフレーム番号「1」の画像フレームg1及び当該画像フレームg1と対応付けて保存されているアルファマップを読み出して画像メモリ5に展開する(ステップS83)。
Next, the
次に、画像合成部7fは、背景用画像P1の何れか一の画素(例えば、左上隅部の画素)を指定して(ステップS84)、当該画素について、アルファマップのアルファ値に基づいて処理を分岐させる(ステップS85)。具体的には、画像合成部7fは、背景用画像P1の何れか一の画素のうち、アルファ値が1の画素については(ステップS85;α=1)、被写体切り抜き動画像M2の画像フレームg1の対応する画素の画素値で上書きし(ステップS86)、アルファ値が0<α<1の画素については(ステップS85;0<α<1)、1の補数(1−α)を用いて被写体領域Sを切り抜いた画像(背景用画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き動画像M2を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き動画像M2の画像フレームg1から減算し、それを被写体領域Sを切り抜いた画像(背景用画像×(1−α))と合成し(ステップS87)、アルファ値が0の画素については(ステップS85;α=0)、何もせずに背景用画像P1を透過さるようにする。
Next, the
続けて、画像合成部7fは、背景用画像P1の全ての画素について処理したか否かを判定する(ステップS88)。
ここで、全ての画素について処理していないと判定されると(ステップS88;NO)、画像合成部7fは、処理対象として次の画素を指定して当該画素に処理対象を移動させて(ステップS89)、処理をステップS85に移行させる。
上記の処理を、ステップS88にて全ての画素について処理したと判定されるまで(ステップS88;YES)、繰り返すことで、画像合成部7fは、被写体切り抜き動画像M2の画像フレームg1と背景用画像P1とを合成した被写体合成動画像M4の合成動画を構成する最初の画像フレームi1(図11(a)参照)を生成する。
Subsequently, the
If it is determined that all the pixels have not been processed (step S88; NO), the
By repeating the above processing until it is determined in step S88 that all pixels have been processed (step S88; YES), the
そして、ステップS88にて全ての画素について処理したと判定されると(ステップS88;YES)、合成制御部7gは、被写体切り抜き動画像M2を構成する全ての画像フレームgについて処理したか否かを判定する(ステップS90)。
ここで、全ての画像フレームgについて処理していないと判定されると(ステップS90;NO)、合成制御部7gは、被写体切り抜き動画像M2を構成する複数の画像フレームg、…のうち、処理対象となる次の画像フレームgに係るフレーム番号を+1インクリメントして指定する(ステップS91)。これにより、二番目の画像フレームg2が画像合成処理の対象として指定される。
If it is determined in step S88 that all the pixels have been processed (step S88; YES), the
If it is determined that all image frames g have not been processed (step S90; NO), the
次に、画像合成部7fは、処理をステップS83に移行させて、背景用画像P1の何れか一の画素(例えば、左上隅部の画素)を指定して、それ以降の処理(ステップS84〜S89)を行うことで、背景用画像P1と被写体切り抜き動画像M2の二番目の画像フレームg2とを合成した被写体合成動画像M4の合成動画を構成する二番目の画像フレームi2(図11(b)参照)を生成する。
そして、二番目の画像フレームi2の生成が完了することによって、ステップS88にて全ての画素について処理したと判定されると(ステップS88;YES)、処理をステップS90に移行させて、合成制御部7gは、被写体切り抜き動画像M2を構成する全ての画像フレームgについて処理したか否かを判定する(ステップS90)。
上記の処理を、全ての画像フレームgについて処理したと判定されるまで(ステップS90;YES)、繰り返すことで、画像合成部7fは、被写体合成動画像M4の合成動画を構成する全ての画像フレームg1〜gn(図11(a)〜図11(d)参照)を生成する。
これにより、通常合成処理を終了する。
Next, the
If the generation of the second image frame i2 is completed and it is determined in step S88 that all the pixels have been processed (step S88; YES), the process proceeds to step S90, and the composition control unit In 7g, it is determined whether or not the processing has been performed for all the image frames g constituting the subject cutout moving image M2 (step S90).
By repeating the above processing until it is determined that all image frames g have been processed (step S90; YES), the
As a result, the normal synthesis process is terminated.
図5に示すように、その後、CPU12は、表示制御部9に、画像合成部7fにより生成された複数の画像フレームi、…からなる被写体合成動画像M4の合成動画の画像データに基づいて、各画像フレームiを所定の表示フレームレートで切り換えて表示部10の表示画面に再生表示させることで、背景用画像P1を背景として人が腕を上下動させる被写体合成動画像M4の合成動画を再生する(ステップS35)。
As shown in FIG. 5, after that, the
以上のように、本実施形態の撮像装置100によれば、合成画像生成処理に係る被写体切り抜き動画像M2における被写体の動きを動き検出部6により検出して、検出された被写体の動きを基準として、当該被写体を再生時間の経過に伴って背景用画像P1の異なる位置に加算表示させるように背景用画像P1と被写体切り抜き動画像M2とを画像合成部7fに合成させる。具体的には、被写体切り抜き動画像M2を構成する複数の画像フレームg、…中の被写体を背景用画像P1に対して画像合成部7fにより加算して複数の画像フレームh、…からなる被写体合成動画像M3の合成動画を生成する。
これにより、再生時間の経過に伴って背景用画像P1の異なる位置に被写体が加算表示されるように、背景用画像P1に対して被写体を斬新な態様で合成することができ、動画像を背景用画像P1に単に合成しただけではない興趣性の高い合成画像を生成することができる。
As described above, according to the
As a result, the subject can be combined with the background image P1 in a novel manner so that the subject is added and displayed at different positions of the background image P1 as the playback time elapses. It is possible to generate a highly interesting composite image that is not simply combined with the work image P1.
また、動き判定部7eにより被写体切り抜き動画像M2の各画像フレームgの被写体の動きの量が所定の閾値以上であり、且つ、被写体の動きの方向が略等しいと判定された場合に、被写体を再生時間の経過に伴って背景用画像P1の異なる位置に加算表示させるように画像合成部7fに合成させるので、被写体切り抜き動画像M2の被写体の動きを解析することで、自動的に被写体を加算合成することができる。これにより、当該撮像装置100の操作を熟知していなくとも背景用画像P1に対して被写体を斬新な態様で合成することができる。
なお、上記実施形態では、動き判定部7eによって少なくとも被写体切り抜き動画像M2の各画像フレームgの被写体の動きの方向が略等しいと判定された場合に、被写体を再生時間の経過に伴って背景用画像P1の異なる位置に加算表示させるように画像合成部7fに合成させれば良い。しかしながら、被写体の動きの量が所定の閾値よりも小さい場合には、被写体を加算合成すると被写体の合成数が多くなり過ぎて見苦しい合成動画になってしまう虞がある。
従って、動き判定部7eにより被写体切り抜き動画像M2の各画像フレームgの被写体の動きの量が所定の閾値以上であり、且つ、被写体の動きの方向が略等しいと判定された場合に、被写体を加算合成することにより視認性の良好な合成動画を生成することができる。
Further, when it is determined by the
In the above-described embodiment, when the
Accordingly, when the
さらに、動き判定部7eにより被写体切り抜き動画像M2の各画像フレームgの被写体の動きの方向が略等しくないと判定された場合には、当該被写体切り抜き動画像M2を構成する複数の画像フレームg、…の各々を背景用画像P1に対して画像合成部7fにより合成させるので、被写体の動きの方向がばらばらで加算合成に適していない場合には、通常の画像合成処理を行って複数の画像フレームg、…からなる被写体合成動画像M4の合成動画を生成することができる。
また、被写体の加算合成と通常合成とを被写体切り抜き動画像M2の被写体の動きを解析することで自動的に切り換えるので、より操作の簡便な撮像装置100を提供することができる。
Furthermore, when the
In addition, since the addition synthesis of the subject and the normal synthesis are automatically switched by analyzing the motion of the subject in the subject cutout moving image M2, it is possible to provide the
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、加算合成処理にて、動き判定部7eが被写体切り抜き動画像M2を構成する複数の画像フレームg、…のうち、何れか一の画像フレームgにおける被写体の動きベクトルの方向が当該一の画像フレームgよりも前の画像フレームgにおける被写体の動きベクトルの方向に対して変化したか否かを判断し、変化したと判断された場合に、合成制御部7gは、既に静止画像に対して加算表示された被写体を消去するようにしても良い。
即ち、被写体の動きが所定の画像フレームgまでは略等しかったが、次の画像フレームgから被写体の動きが急に変化した場合等に、所定の画像フレームgまでの被写体の加算表示が残っていると、新たに合成される被写体と重なってしまい、見苦しくなってしまうことを防止するためである。
なお、被写体の動きが変化しても所定の画像フレームgまでの被写体の加算表示と新たに合成される被写体と重なってしまう虞がない場合、例えば、被写体の動きが所定の画像フレームgまでの被写体の動きの方向に対して所定角度範囲の変化である場合には、合成制御部7gは、必ずしも既に静止画像に対して加算表示された被写体を消去する必要はない。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the addition / combination process, the direction of the motion vector of the subject in any one of the plurality of image frames g,... Constituting the subject cutout moving image M2 by the
That is, the movement of the subject is substantially equal to the predetermined image frame g, but when the movement of the subject suddenly changes from the next image frame g, the addition display of the subject to the predetermined image frame g remains. This is to prevent the subject from being overlapped with a newly synthesized subject and becoming unsightly.
If there is no possibility that the subject addition display up to the predetermined image frame g overlaps with the newly synthesized subject even if the movement of the subject changes, for example, the movement of the subject up to the predetermined image frame g When the change is within a predetermined angle range with respect to the direction of movement of the subject, the
また、上記実施形態にあっては、被写体切り抜き動画像M2の動画像データの記録方式として、Motion−JPEG形式を例示したが、例えば、MPEG形式であっても良い。かかる場合には、合成画像生成処理にて、予め当該MPEG形式の動画像データを復号化して複数の画像フレームg、…を生成することで、各画像フレームgについて被写体の動きベクトルの検出や背景用画像P1との合成を行うことができる。 In the above embodiment, the Motion-JPEG format is exemplified as the recording method of the moving image data of the subject cutout moving image M2, but the MPEG-format may be used, for example. In such a case, in the synthesized image generation process, the moving image data in the MPEG format is decoded in advance to generate a plurality of image frames g,. The image P1 can be combined with the work image P1.
また、動きベクトルの検出に当たっては従来のテンプレートマッチングを行ったが、アルファマップから簡易的に検出するようにしても良い。すなわち、被写体領域であるアルファ値が1の画素座標(全ての画素ではなく適宜間引いても良い)の重心座標を求め、フレーム間の重心座標の移動を動きベクトルとしても良い。 In addition, the conventional template matching is performed for the detection of the motion vector, but it may be detected simply from the alpha map. In other words, the center of gravity coordinates of the pixel coordinates of the subject area having an alpha value of 1 (may be thinned out instead of all pixels) may be obtained, and the movement of the center of gravity coordinates between frames may be used as a motion vector.
また、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。即ち、画像合成装置として、撮像装置100を例示したが、これに限られるものではい。例えば、被写体切り抜き動画像M2、背景用画像P1及び被写体切り抜き動画像の画像データの生成は、当該撮像装置100とは異なる撮像装置にて行い、この撮像装置から転送された画像データのみを記録して、合成画像生成処理のみを実行する画像合成装置であっても良い。
さらに、被写体切り抜き動画像M2における被写体の動きを基準として設定された被写体の合成位置に係るデータを予め記録媒体8に記録しておき、表示制御部9が、当該記録媒体8に記録された合成位置に係るデータに基づいて、当該被写体を再生時間の経過に伴って静止画像の異なる位置に加算表示させるように当該静止画像と動画像とを合成して表示部に合成動画を再生させるようにしても良い。
即ち、例えば、被写体の合成位置に係るデータの生成は、当該撮像装置100とは異なる撮像装置にて行い、この撮像装置から転送された被写体切り抜き動画像M2、背景用画像P1及び合成位置に係るデータのみを記録媒体8に記録しておき、被写体存在動画像M1の再生の際に、表示制御部9が、記録媒体8に記録された合成位置に係るデータに基づいて画像合成しつつ再生表示する装置であっても良い。
In addition, the configuration of the
Further, data relating to the composition position of the subject set based on the movement of the subject in the subject cutout moving image M2 is recorded in advance on the
That is, for example, the data related to the composition position of the subject is generated by an imaging device different from the
加えて、上記実施形態にあっては、合成手段、検出手段、合成制御手段としての機能を、CPU12の制御下にて、動き検出部6、画像処理部7の画像合成部7f、合成制御部7gが駆動することにより実現され、画像記録手段、位置記録手段、再生制御手段としての機能を、CPU12の制御下にて、表示制御部9が駆動することにより実現される構成としたが、これに限られるものではなく、CPU12によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、合成処理ルーチン、検出処理ルーチン、合成制御処理ルーチンを含むプログラムを記憶しておく。そして、合成処理ルーチンによりCPU12に、背景用の静止画像と動画像とを合成して合成動画を生成させるようにしても良い。また、検出処理ルーチンによりCPU12に、動画像における動体の動きを検出させるようにしても良い。また、合成制御処理ルーチンによりCPU12に、検出された動体の動きを基準として、当該動体を再生時間の経過に伴って静止画像の異なる位置に加算表示させるように静止画像と動画像とを合成させるようにしても良い。
また、プログラムを記憶するプログラムメモリ(図示略)に、画像記録制御処理ルーチン、位置記録制御処理ルーチン、再生制御処理ルーチンを含むプログラムを記憶しておく。そして、画像記録制御処理ルーチンによりCPU12に、背景用の静止画像と動画像とを記録媒体8に記録させるようにしても良い。また、位置記録制御処理ルーチンによりCPU12に、動画像における動体の動きを基準として設定された動体の合成位置を記録媒体8に記録させるようにしても良い。また、再生制御処理ルーチンによりCPU12に、記録媒体8に記録された合成位置に基づいて、当該動体を再生時間の経過に伴って静止画像の異なる位置に加算表示させるように当該静止画像と動画像とを合成して合成動画を再生させるようにしても良い。
In addition, in the above embodiment, the functions as the synthesis unit, the detection unit, and the synthesis control unit are controlled under the control of the
That is, a program memory (not shown) that stores a program stores a program including a synthesis processing routine, a detection processing routine, and a synthesis control processing routine. Then, the synthesized moving image may be generated by synthesizing the background still image and the moving image by the synthesis processing routine. Moreover, you may make it make CPU12 detect the motion of the moving body in a moving image by a detection process routine. Further, the synthesis control processing routine causes the
A program memory (not shown) that stores the program stores a program including an image recording control processing routine, a position recording control processing routine, and a reproduction control processing routine. Then, a background still image and a moving image may be recorded on the
100 撮像装置
1 レンズ部
2 電子撮像部
3 撮像制御部
7 画像処理部
7d 切抜画像生成部
7e 動き判定部
7f 画像合成部
7g 合成制御部
8 記録媒体
10 表示部
12 CPU
DESCRIPTION OF
Claims (8)
前記検出手段により検出された動体の動きの方向が隣り合う画像フレーム間で略等しいか否かを判定する方向判定手段と、
前記方向判定手段により該動体の動きの方向が略等しいと判定された場合に、前記動体の画像を再生時間の経過に伴って加算合成させる合成制御手段と、
を備え、
前記合成制御手段は、
前記方向判定手段により何れか一の画像フレームにおける前記動体の動きの方向が当該一の画像フレームよりも前の画像フレームにおける前記動体の動きの方向に対して変化したと判断された場合に、既に加算合成された動体の画像を消去することを特徴とする画像合成装置。 Detecting means for detecting the movement of a moving object composed of a plurality of image frames;
Direction determination means for determining whether or not the direction of movement of the moving object detected by the detection means is substantially equal between adjacent image frames;
Synthesis control means for adding and synthesizing images of the moving object over time when the direction of movement of the moving object is determined to be substantially equal by the direction determining means;
Equipped with a,
The synthesis control means includes
When it is determined by the direction determination means that the direction of motion of the moving object in any one image frame has changed with respect to the direction of motion of the moving object in an image frame prior to the one image frame, An image synthesizing apparatus that erases an image of a moving object that has been added and synthesized .
前記方向判定手段により前記動体の動きの方向が略等しいと判定された場合に、前記動体の画像を再生時間の経過に伴って、前記動画像を構成する複数の画像フレームを順次追加して加算合成させることを特徴とする請求項1に記載の画像合成装置。 The synthesis control means includes
When the direction determining unit determines that the moving direction of the moving object is substantially equal, the plurality of image frames constituting the moving image are sequentially added and added as the playback time elapses. The image synthesizing apparatus according to claim 1, wherein the images are synthesized.
前記方向判定手段により前記動体の動きの方向が略等しいと判定された場合に、背景用の静止画像と前記動体の画像を再生時間の経過に伴って加算合成させることを特徴とする請求項1又は2に記載の画像合成装置。 The synthesis control means includes
2. A background still image and an image of the moving object are added and synthesized as the playback time elapses when the direction determining means determines that the moving direction of the moving object is substantially equal. Or the image synthesizing apparatus according to 2;
前記合成制御手段は、
前記動き量判定手段により前記動体の動きの量が所定値以上であると判定された場合に、前記動体の画像を再生時間の経過に伴って加算合成させることを特徴とする請求項1〜3の何れか一項に記載の画像合成装置。 A movement amount determination means for determining whether or not the amount of movement of the moving object detected by the detection means is greater than or equal to a predetermined value;
The synthesis control means includes
When the amount of movement of the moving object is determined to be equal to or greater than the predetermined value by the motion-amount determining means, according to claim 1 to 3, characterized in that to additive synthesis with the image of the moving object over playback time The image composition device according to any one of the above.
前記方向判定手段により前記動体の動きの方向が略等しくないと判定された場合に、前記動画像を構成する複数の画像フレームの各々を前記背景用の静止画像に対して合成させることを特徴とする請求項3又は4に記載の画像合成装置。 The synthesis control means includes
When the direction determining means determines that the moving direction of the moving object is not substantially equal, each of the plurality of image frames constituting the moving image is combined with the background still image. The image composition device according to claim 3 or 4 .
前記動画像における動体の動きを検出する検出手段と、
この検出手段により検出された動体の動きを基準として、当該動体を再生時間の経過に伴って前記静止画像の異なる位置に加算表示させるように前記静止画像と前記動画像とを前記合成手段に合成させる合成制御手段と、
前記検出手段により検出された動体の動きの方向が略等しいか否かを判定する動き判定手段と、
を備え、
前記合成制御手段は、前記動画像を構成する複数の画像フレーム中の動体を前記静止画像に対して前記合成手段により加算して複数の画像フレームからなる合成動画を生成させるとともに、前記動き判定手段により前記動体の動きの方向が略等しいと判定された場合に、前記動体を再生時間の経過に伴って異なる位置に加算表示させるように前記合成手段に合成させ、
前記動き判定手段は、
前記動画像を構成する複数の画像フレームのうち、隣り合う画像フレーム間での動体の動きの方向が略等しいか否かを判定し、
前記合成制御手段は、さらに、
前記動き判定手段により何れか一の画像フレームにおける前記動体の動きの方向が当該一の画像フレームよりも前の画像フレームにおける前記動体の動きの方向に対して変化したと判断された場合に、既に前記静止画像に対して加算表示された動体を消去することを特徴とする画像合成装置。 Combining means for combining a still image for background and a moving image to generate a combined moving image;
Detecting means for detecting movement of a moving object in the moving image;
Based on the motion of the moving object detected by the detecting means, the still image and the moving image are combined with the combining means so that the moving object is added and displayed at different positions of the still image as the playback time elapses. Synthesis control means
A motion determination means for determining whether or not the directions of motion of the moving object detected by the detection means are substantially equal;
With
The synthesis control unit adds moving objects in a plurality of image frames constituting the moving image to the still image by the synthesis unit to generate a synthesized moving image including a plurality of image frames, and the motion determination unit When the moving direction of the moving body is determined to be substantially equal to the above, the combining means is configured to combine and display the moving body at different positions as the playback time elapses,
The movement determination means includes
Determining whether or not the directions of movement of moving objects between adjacent image frames among the plurality of image frames constituting the moving image are substantially equal;
The synthesis control means further includes
When it is determined by the motion determination means that the direction of motion of the moving object in any one image frame has changed with respect to the direction of motion of the moving object in an image frame prior to the one image frame, An image composition apparatus for erasing a moving object added to and displayed on the still image.
複数の画像フレームからなる動体の動きを検出する検出ステップと、 A detection step of detecting a motion of a moving object composed of a plurality of image frames;
前記検出ステップにより検出された動体の動きの方向が隣り合う画像フレーム間で略等しいか否かを判定する方向判定ステップと、 A direction determination step for determining whether or not the direction of movement of the moving object detected by the detection step is substantially equal between adjacent image frames;
前記方向判定ステップにより該動体の動きの方向が略等しいと判定された場合に、前記動体の画像を再生時間の経過に伴って加算合成させる合成制御ステップと、 A synthesis control step of adding and synthesizing the images of the moving objects as the playback time elapses when it is determined by the direction determining step that the moving directions of the moving objects are substantially equal;
を含み、 Including
前記合成制御ステップは、 The synthesis control step includes
前記方向判定ステップにより何れか一の画像フレームにおける前記動体の動きの方向が当該一の画像フレームよりも前の画像フレームにおける前記動体の動きの方向に対して変化したと判断された場合に、既に加算合成された動体の画像を消去することを特徴とする画像合成方法。 When it is determined by the direction determination step that the direction of motion of the moving object in any one image frame has changed with respect to the direction of motion of the moving object in the image frame prior to the one image frame, An image synthesizing method comprising erasing an additively synthesized moving object image.
複数の画像フレームからなる動体の動きを検出する検出手段、
前記検出手段により検出された動体の動きの方向が隣り合う画像フレーム間で略等しいか否かを判定する方向判定手段、
前記方向判定手段により該動体の動きの方向が略等しいと判定された場合に、前記動体の画像を再生時間の経過に伴って加算合成させる合成制御手段、
として機能させ、
前記合成制御手段は、
前記方向判定手段により何れか一の画像フレームにおける前記動体の動きの方向が当該一の画像フレームよりも前の画像フレームにおける前記動体の動きの方向に対して変化したと判断された場合に、既に加算合成された動体の画像を消去することを特徴とするプログラム。 The computer of the image synthesizer
Detecting means for detecting the motion of a moving object comprising a plurality of image frames;
Direction determining means for determining whether or not the direction of motion of the moving object detected by the detecting means is substantially equal between adjacent image frames;
Synthesis control means for adding and synthesizing images of the moving object over time when the direction of movement of the moving object is determined to be substantially equal by the direction determining means;
Function as
The synthesis control means includes
When it is determined by the direction determination means that the direction of motion of the moving object in any one image frame has changed with respect to the direction of motion of the moving object in an image frame prior to the one image frame, A program characterized by erasing an additively synthesized moving object image .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009079038A JP5402148B2 (en) | 2009-03-27 | 2009-03-27 | Image composition apparatus, image composition method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009079038A JP5402148B2 (en) | 2009-03-27 | 2009-03-27 | Image composition apparatus, image composition method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010233001A JP2010233001A (en) | 2010-10-14 |
JP5402148B2 true JP5402148B2 (en) | 2014-01-29 |
Family
ID=43048396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009079038A Expired - Fee Related JP5402148B2 (en) | 2009-03-27 | 2009-03-27 | Image composition apparatus, image composition method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5402148B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10115431B2 (en) | 2013-03-26 | 2018-10-30 | Sony Corporation | Image processing device and image processing method |
JP2015114694A (en) | 2013-12-09 | 2015-06-22 | ソニー株式会社 | Image processing device, image processing method, and program |
CN111327840A (en) * | 2020-02-27 | 2020-06-23 | 努比亚技术有限公司 | Multi-frame special-effect video acquisition method, terminal and computer readable storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3793258B2 (en) * | 1995-10-03 | 2006-07-05 | 日本放送協会 | Moving image processing apparatus and method |
JP2003008993A (en) * | 2001-06-26 | 2003-01-10 | Nippon Hoso Kyokai <Nhk> | Image compositing device and method |
JP5151454B2 (en) * | 2006-12-26 | 2013-02-27 | カシオ計算機株式会社 | Imaging device, recording / reproducing method, and program |
JP2009044329A (en) * | 2007-08-07 | 2009-02-26 | Nikon Corp | Program, image processing method, and image processor |
-
2009
- 2009-03-27 JP JP2009079038A patent/JP5402148B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010233001A (en) | 2010-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5105550B2 (en) | Image composition apparatus and program | |
JP5051156B2 (en) | Image processing apparatus and program | |
JP4760973B2 (en) | Imaging apparatus and image processing method | |
JP4798236B2 (en) | Imaging apparatus, image processing method, and program | |
JP2012242821A (en) | Display image generation method | |
JP2010239447A (en) | Image capturing apparatus, image processing method, and program | |
JP4894708B2 (en) | Imaging device | |
JP5402166B2 (en) | Image composition apparatus and program | |
JP5402148B2 (en) | Image composition apparatus, image composition method, and program | |
US8711239B2 (en) | Program recording medium, image processing apparatus, imaging apparatus, and image processing method | |
JP5267279B2 (en) | Image composition apparatus and program | |
JP4807582B2 (en) | Image processing apparatus, imaging apparatus, and program thereof | |
JP5703771B2 (en) | Imaging assistance device, imaging assistance method, and program | |
JP5533241B2 (en) | Movie playback device, movie playback method and program | |
JP5476900B2 (en) | Image composition apparatus, image composition method, and program | |
JP5636660B2 (en) | Image processing apparatus, image processing method, and program | |
JP2011182014A (en) | Image pickup device, image processing method and program | |
JP2011041041A (en) | Imaging apparatus, imaging method and program | |
JP5493839B2 (en) | Imaging apparatus, image composition method, and program | |
JP2011003057A (en) | Image composition device, image specifying method, image composition method, and program | |
JP5589333B2 (en) | Image composition apparatus, image composition method, and program | |
JP5494537B2 (en) | Image processing apparatus and program | |
JP5565227B2 (en) | Image processing apparatus, image processing method, and program | |
JP2010278701A (en) | Image combining device, and image combining method and program | |
JP5381207B2 (en) | Image composition apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120316 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130423 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130709 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131014 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5402148 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |