JP5772684B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5772684B2
JP5772684B2 JP2012083644A JP2012083644A JP5772684B2 JP 5772684 B2 JP5772684 B2 JP 5772684B2 JP 2012083644 A JP2012083644 A JP 2012083644A JP 2012083644 A JP2012083644 A JP 2012083644A JP 5772684 B2 JP5772684 B2 JP 5772684B2
Authority
JP
Japan
Prior art keywords
image
frame
frames
value
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012083644A
Other languages
Japanese (ja)
Other versions
JP2013214181A (en
Inventor
賢司 松岡
賢司 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012083644A priority Critical patent/JP5772684B2/en
Publication of JP2013214181A publication Critical patent/JP2013214181A/en
Application granted granted Critical
Publication of JP5772684B2 publication Critical patent/JP5772684B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は画像処理装置、画像処理方法、及びプログラムに関し、特に複数の画像フレームから合成画像を生成する画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly to an image processing method and a program for generating a composite image from a plurality of image frames.

ビデオカメラをはじめとする撮像装置を用いて、人間や物体等の動体を撮像することがある。この際にユーザは、動体の軌跡を一枚の合成静止画像で確認したい場合がある。例えば、ゴルフをする人間を撮像している場合、そのスイングの軌道を1枚の合成静止画像で確認したい場合がある。   An imaging device such as a video camera may be used to image a moving object such as a person or an object. At this time, the user may want to confirm the trajectory of the moving object with a single composite still image. For example, when a person who is playing golf is imaged, it may be desired to confirm the swing trajectory with a single composite still image.

特許文献1には、背景を含む動画像を対象とした場合であっても、動体の移動軌跡を含む合成画像を得ることができる動画像切り出し装置が開示されている。当該動画像切り出し装置は、N枚のフレームをサンプリングし、サンプリングしたフレーム間の相対応画素の差分の絶対値を二値化して各フレームに対応するマスクフレームを生成する。そして、動画像切り出し装置は、マスクフレームの各画素の値を累積した累積マスクフレームを生成する。さらに、動画像切り出し装置は、累積マスクフレームに対して所定閾値を用いて二値化処理を行った基準マスクフレームを生成する。その後、動画像切り出し装置は、各フレームに対応するマスクフレームと、基準マスクフレームと、を用いて画像合成を行うことにより、動体の軌跡画像を生成している。   Patent Document 1 discloses a moving image clipping device that can obtain a synthesized image including a moving locus of a moving object even when a moving image including a background is targeted. The moving image cutout apparatus samples N frames, binarizes the absolute value of the phase-corresponding pixel difference between the sampled frames, and generates a mask frame corresponding to each frame. Then, the moving image clipping device generates an accumulated mask frame in which the values of the pixels of the mask frame are accumulated. Further, the moving image clipping device generates a reference mask frame obtained by binarizing the accumulated mask frame using a predetermined threshold. Thereafter, the moving image clipping device generates a moving object trajectory image by performing image composition using a mask frame corresponding to each frame and a reference mask frame.

特開2004−334818号公報JP 2004-334818 A

特許文献1に記載の技術では、所定閾値を用いて2値化を行ったマスクフレーム及び基準マスクフレームを生成する。すなわち、マスクフレーム及び基準マスクフレームは、各画素について切り出し処理を行うか否かを示す2値のみが設定される。そして、2値の値が"1"となっている領域を各フレームから切り出し、切り出した画像領域を初期フレームに対して、完全に上書きしていくことにより軌跡画像を生成している。   In the technique described in Patent Literature 1, a mask frame and a reference mask frame that have been binarized using a predetermined threshold are generated. That is, in the mask frame and the reference mask frame, only a binary value indicating whether or not to perform the clipping process for each pixel is set. Then, the region where the binary value is “1” is cut out from each frame, and the locus image is generated by completely overwriting the cut-out image region over the initial frame.

しかしながらこの方式では、閾値の設定が適切ではない場合、動体ではない箇所を切り出して完全に上書きしてしまう恐れがあり、その結果として動体の軌跡が把握できない、または誤認してしまう画像(破綻のある画像)を生成してしまう恐れがある。   However, in this method, if the threshold setting is not appropriate, there is a risk that a non-moving object will be cut out and overwritten completely, and as a result, the moving object's trajectory cannot be grasped or misunderstood. A certain image) may be generated.

本発明の一態様にかかる画像処理装置は、
N(Nは4以上の整数)枚の画像フレームの各画像フレーム間の相対応する画素の差分値を算出する差分算出部と、
前記差分算出部が算出した差分値を所定条件と比較することにより、各画素の前記差分値の大きさを2値のレベル値で示す2値化フレームを複数生成する二値化部と、
複数の前記2値化フレームにおけるレベル値を前記N枚の画像フレーム毎に積算した積算フレームを生成する累積画像生成部と、
前記積算フレームに設定されたレベル値から定まる前記N枚の画像フレーム各々の各画素の合成比率に基づき、前記N枚の画像フレームを合成した合成画像を生成する画像合成部と、を備え、
前記N枚の画像フレーム各々の各画素の合成比率の値域は、3値以上であることを特徴とするものである。
An image processing apparatus according to an aspect of the present invention includes:
A difference calculation unit that calculates a difference value of corresponding pixels between the image frames of N (N is an integer of 4 or more) image frames;
A binarization unit that generates a plurality of binarized frames indicating the magnitude of the difference value of each pixel by a binary level value by comparing the difference value calculated by the difference calculation unit with a predetermined condition;
A cumulative image generating unit that generates a summed frame obtained by summing the level values in the plurality of binarized frames for each of the N image frames;
An image synthesis unit that generates a synthesized image obtained by synthesizing the N image frames based on a synthesis ratio of each pixel of each of the N image frames determined from a level value set in the integrated frame;
The value range of the composition ratio of each pixel of each of the N image frames is three or more.

上述の本発明の一態様にかかる画像処理装置において、
前記積算フレーム内の各画素のレベル値から第1閾値を減算した値を、前記N枚の画像フレーム各々の各画素の合成比率として算出するキーフレーム生成部、を更に備えてもよい。
In the above-described image processing apparatus according to one aspect of the present invention,
The image processing apparatus may further include a key frame generation unit that calculates a value obtained by subtracting a first threshold value from a level value of each pixel in the integration frame as a synthesis ratio of each pixel of each of the N image frames.

上述の本発明の一態様にかかる画像処理装置において、
前記画像合成部は、前記積算フレームの各画素のレベル値を、そのまま前記N枚の画像フレーム各々の各画素の合成比率として用いてもよい。
In the above-described image processing apparatus according to one aspect of the present invention,
The image composition unit may use the level value of each pixel of the integrated frame as it is as a composition ratio of each pixel of the N image frames.

上述の本発明の一態様にかかる画像処理装置において、
前記画像合成部は、前記N枚の画像フレームの中で着目すべき画像フレームを示す着目フレーム情報を受信し、前記着目フレーム情報に基づいて前記N枚の画像フレームの合成順序を決定してもよい。
In the above-described image processing apparatus according to one aspect of the present invention,
The image composition unit may receive attention frame information indicating an image frame to be noted among the N image frames, and determine a composition order of the N image frames based on the attention frame information. Good.

上述の本発明の一態様にかかる画像処理装置において、
前記差分算出部は、各画像フレーム間の相対応する画素の輝度値及び色差値の差分を算出し、
前記二値化部は、輝度値及び色差値の双方を用いた条件判定を行うことにより前記2値化フレームを生成してもよい。
In the above-described image processing apparatus according to one aspect of the present invention,
The difference calculation unit calculates a difference between a luminance value and a color difference value of corresponding pixels between the image frames,
The binarization unit may generate the binarized frame by performing a condition determination using both a luminance value and a color difference value.

本発明の一態様にかかる画像処理方法は、
N(Nは4以上の整数)枚の画像フレームの各画像フレーム間の相対応する画素の差分値を算出する差分算出ステップと、
前記差分算出ステップにおいて算出した差分値を所定条件と比較することにより、各画素の前記差分値の大きさを2値のレベル値で示す2値化フレームを複数生成する二値化ステップと、
複数の前記2値化フレームにおけるレベル値を前記N枚の画像フレーム毎に積算した積算フレームを生成する累積画像生成ステップと、
前記積算フレームに設定されたレベル値から定まる前記N枚の画像フレーム各々の各画素の合成比率に基づき、前記N枚の画像フレームを合成した合成画像を生成する画像合成ステップと、を備え、
前記N枚の画像フレーム各々の各画素の合成比率の値域は、3値以上であることを特徴とするものである。
An image processing method according to an aspect of the present invention includes:
A difference calculating step of calculating a difference value of corresponding pixels between the image frames of N (N is an integer of 4 or more) image frames;
A binarization step for generating a plurality of binarized frames indicating the magnitude of the difference value of each pixel by a binary level value by comparing the difference value calculated in the difference calculation step with a predetermined condition;
A cumulative image generating step of generating a summed frame obtained by summing the level values in the plurality of binarized frames for each of the N image frames;
An image synthesis step for generating a synthesized image obtained by synthesizing the N image frames based on a synthesis ratio of each pixel of each of the N image frames determined from the level value set in the integrated frame,
The value range of the composition ratio of each pixel of each of the N image frames is three or more.

本発明の一態様にかかるプログラムは、
コンピュータに、
N(Nは4以上の整数)枚の画像フレームの各画像フレーム間の相対応する画素の差分値を算出する差分算出ステップと、
前記差分算出ステップにおいて算出した差分値を所定条件と比較することにより、各画素の前記差分値の大きさを2値のレベル値で示す2値化フレームを複数生成する二値化ステップと、
複数の前記2値化フレームにおけるレベル値を前記N枚の画像フレーム毎に積算した積算フレームを生成する累積画像生成ステップと、
前記積算フレームに設定されたレベル値から定まり、値域として3値以上を持つ前記N枚の画像フレーム各々の各画素の合成比率に基づき、前記N枚の画像フレームを合成した合成画像を生成する画像合成ステップと、
を実行させるためのものである。
The program according to one aspect of the present invention is:
On the computer,
A difference calculating step of calculating a difference value of corresponding pixels between the image frames of N (N is an integer of 4 or more) image frames;
A binarization step for generating a plurality of binarized frames indicating the magnitude of the difference value of each pixel by a binary level value by comparing the difference value calculated in the difference calculation step with a predetermined condition;
A cumulative image generating step of generating a summed frame obtained by summing the level values in the plurality of binarized frames for each of the N image frames;
An image that is determined from the level value set in the integrated frame and that generates a combined image by combining the N image frames based on a combining ratio of each pixel of the N image frames having a value range of 3 or more. A synthesis step;
Is to execute.

本発明によれば、動体の軌跡が把握できる、すなわち破綻の少ない合成画像を生成することができる画像処理装置、画像処理方法、及びプログラムを提供することができる。   According to the present invention, it is possible to provide an image processing apparatus, an image processing method, and a program capable of grasping the trajectory of a moving object, that is, capable of generating a composite image with little failure.

実施の形態1にかかる画像処理装置1の全体構成を示すブロック図である。1 is a block diagram showing an overall configuration of an image processing apparatus 1 according to a first embodiment. 実施の形態1にかかる動画像データの一例を示す図である。FIG. 3 is a diagram illustrating an example of moving image data according to the first embodiment. 実施の形態1にかかる二値化部40の2値化フレームの生成概念を示す図である。It is a figure which shows the production | generation concept of the binarization frame of the binarization part 40 concerning Embodiment 1. FIG. 実施の形態1にかかる積算部50の生成した積算フレームを示す図である。It is a figure which shows the integrating | accumulating frame which the integrating | accumulating part 50 concerning Embodiment 1 produced | generated. 実施の形態1にかかる画像合成部60による画像合成処理の生成過程を示す図である。FIG. 6 is a diagram illustrating a generation process of an image composition process performed by the image composition unit 60 according to the first embodiment. 実施の形態2にかかる画像処理装置の全体構成を示すブロック図である。FIG. 3 is a block diagram illustrating an overall configuration of an image processing apparatus according to a second embodiment. 実施の形態2にかかるキーフレーム生成部70によるキーフレーム生成処理を示す図である。It is a figure which shows the key frame production | generation process by the key frame production | generation part 70 concerning Embodiment 2. FIG. 実施の形態2にかかる画像合成部60による画像合成処理の生成過程を示す図である。It is a figure which shows the production | generation process of the image composition process by the image composition part 60 concerning Embodiment 2. FIG. 実施の形態2にかかるキーフレーム生成部70によるキーフレーム生成処理を示す図である。It is a figure which shows the key frame production | generation process by the key frame production | generation part 70 concerning Embodiment 2. FIG. 特許文献1にかかる動画像切り出し装置の動作を示す概念図である。It is a conceptual diagram which shows operation | movement of the moving image clipping device concerning patent document 1. FIG. 合成画像生成の対象となる動画像を示す図である。It is a figure which shows the moving image used as the object of synthetic | combination image generation. 実施の形態2にかかる積算フレームの生成例を示す図である。FIG. 10 is a diagram illustrating an example of generating an accumulated frame according to the second embodiment. 実施の形態2にかかるキーフレームの生成例を示す図である。FIG. 10 is a diagram showing an example of key frame generation according to the second exemplary embodiment. 画像合成の際の合成比率を示す図である。It is a figure which shows the composition ratio in the case of image composition. 画像合成の際の合成比率を示す図である。It is a figure which shows the composition ratio in the case of image composition. 実施の形態2にかかる手法、及び特許文献1にかかる手法により生成した合成画像を示すグラフである。10 is a graph showing a composite image generated by the method according to the second embodiment and the method according to Patent Document 1.

<実施の形態1>
以下、図面を参照して本発明の実施の形態について説明する。図1は、本実施の形態にかかる画像処理装置1の構成を示すブロック図である。画像処理装置1は、例えば動画撮像が可能なビデオカメラ等の撮像装置内に配置される。画像処理装置1は、画像記憶部10と、選択部20と、差分算出部30と、二値化部40と、積算部50と、画像合成部60と、を備える。画像処理装置1は、予め蓄積された動画像データの画像フレームを抽出し、各画像フレーム間の差分に応じた合成画像を生成する装置である。例えば、画像処理装置1は、投げたボールの軌跡やゴルフスイングの軌跡を示す合成画像を生成する。以下の説明では、画像処理装置1が4枚の画像フレームを基に合成画像を生成する例を説明するが、必ずしもこれに限られず、例えば10枚等の多数の画像フレームから合成画像を生成しても良い。すなわち、画像処理装置1は、N(Nは4以上の整数)枚の画像フレームから合成画像を生成する。画像処理装置1は、被写体の性質に合わせて合成する画像フレームの枚数を適宜変更すればよい。
<Embodiment 1>
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an image processing apparatus 1 according to the present embodiment. The image processing apparatus 1 is disposed in an imaging apparatus such as a video camera capable of capturing a moving image. The image processing apparatus 1 includes an image storage unit 10, a selection unit 20, a difference calculation unit 30, a binarization unit 40, an integration unit 50, and an image composition unit 60. The image processing apparatus 1 is an apparatus that extracts image frames of moving image data accumulated in advance and generates a composite image corresponding to a difference between the image frames. For example, the image processing apparatus 1 generates a composite image indicating a trajectory of a thrown ball or a golf swing. In the following description, an example in which the image processing apparatus 1 generates a composite image based on four image frames will be described. However, the present invention is not necessarily limited to this. For example, a composite image is generated from a large number of image frames such as 10 images. May be. That is, the image processing apparatus 1 generates a composite image from N (N is an integer of 4 or more) image frames. The image processing apparatus 1 may appropriately change the number of image frames to be combined in accordance with the nature of the subject.

画像記憶部10は、動画像データを画像フレーム毎に記憶する。画像記憶部10は、例えばDRAM(Dynamic Random Access Memory)等により構成すればよい。また、画像記憶部10は、画像処理装置1に着脱可能なUSB(Universal Serial Bus)メモリ等により構成しても良い。各画像フレームの画像サイズは同一とする。各画像フレームは、各画素についてのRGB値を保持しており、当該RGB値は公知の変換式を用いて輝度及び色差に変換可能である。   The image storage unit 10 stores moving image data for each image frame. The image storage unit 10 may be configured by, for example, a DRAM (Dynamic Random Access Memory) or the like. Further, the image storage unit 10 may be configured by a USB (Universal Serial Bus) memory that can be attached to and detached from the image processing apparatus 1. The image size of each image frame is the same. Each image frame holds an RGB value for each pixel, and the RGB value can be converted into luminance and color difference using a known conversion formula.

選択部20は、画像記憶部10から合成画像の生成に用いる画像フレームを4枚選択し、差分算出部30及び画像合成部60に供給する。以下の説明において、選択部20は、図2に示す4枚の画像フレームを選択する。   The selection unit 20 selects four image frames to be used for generating a composite image from the image storage unit 10 and supplies them to the difference calculation unit 30 and the image composition unit 60. In the following description, the selection unit 20 selects four image frames shown in FIG.

図2は、動画像データにかかる4枚の画像フレームを示す図である。各画像フレームは、円形の動体が動く動画像データに関するものである。各画像フレームでは、撮像された動体を斜線で示し、他の画像フレームにおける動体の位置を破線で示している。背景色は同一色であるものとする。各画像フレームの撮像順序は、画像フレーム1(Fr1)、画像フレーム2(Fr2)、画像フレーム3(Fr3)、画像フレーム4(Fr4)となる。そのため、動体は時間が進むにつれて右方向に移動し、その移動速度が徐々に減速している。   FIG. 2 is a diagram showing four image frames related to moving image data. Each image frame relates to moving image data in which a circular moving object moves. In each image frame, the captured moving object is indicated by diagonal lines, and the position of the moving object in other image frames is indicated by broken lines. The background color is the same color. The imaging order of each image frame is image frame 1 (Fr1), image frame 2 (Fr2), image frame 3 (Fr3), and image frame 4 (Fr4). Therefore, the moving body moves to the right as time advances, and the moving speed is gradually decelerated.

差分算出部30は、供給された4枚の画像フレーム間の相対応する画素間における差分値を抽出する処理部である。まず、差分算出部30は、画像フレームの組を全て抽出する。すなわち、差分算出部30は、12組(N×(N−1))の組合せ((Fr1,Fr2)〜(Fr4,Fr1))を抽出する。そして、差分抽出部30は、各組合せにおける相対応する画素の画像信号の差分を算出する。ここで、差分抽出部30は、相対応する画素の色差の差分値、及び輝度の差分値の双方を算出する。差分算出部30は、算出した差分値を二値化部40に供給する。   The difference calculation unit 30 is a processing unit that extracts a difference value between corresponding pixels between the four supplied image frames. First, the difference calculation unit 30 extracts all sets of image frames. That is, the difference calculation unit 30 extracts 12 combinations (N × (N−1)) ((Fr1, Fr2) to (Fr4, Fr1)). And the difference extraction part 30 calculates the difference of the image signal of the pixel corresponding to each combination. Here, the difference extraction unit 30 calculates both the color difference difference value and the luminance difference value of the corresponding pixels. The difference calculation unit 30 supplies the calculated difference value to the binarization unit 40.

二値化部40は、差分算出部30が算出した差分値を所定の条件と比較することにより、各画素を2値(所定条件を満たす画素を1、その他の画素を0)のレベル値で示す2値化フレーム(Δ(Fr1,Fr2)〜Δ(Fr4,Fr1))を算出する。各画素に設定される2値のレベル値は、比較対象の画像フレームの相対応する画素との画素差分が大きいか否かを示す。ここで二値化部40は、各画素の色差の差分値、及び輝度の差分値の双方を考慮して2値化を行う。例えば、色差の差分値と輝度の差分値を乗算した乗算値の絶対値が閾値以上であるか否かに応じて2値化を行っても良い。また、色差の差分値の絶対値をある閾値と比較し、輝度の差分値の絶対値を別の閾値と比較し、双方ともに閾値以上であるか否かに応じて2値化を行っても良い。すなわち、二値化部40は、異なる画像フレームを比較した場合に、少なくとも1つの領域が条件を満たすような所定条件を用いて2値化を行えばよい。   The binarization unit 40 compares each difference value calculated by the difference calculation unit 30 with a predetermined condition, thereby setting each pixel to a binary level value (1 for the pixel satisfying the predetermined condition and 0 for the other pixels). The binarized frames (Δ (Fr1, Fr2) to Δ (Fr4, Fr1)) shown are calculated. The binary level value set for each pixel indicates whether or not the pixel difference from the corresponding pixel of the image frame to be compared is large. Here, the binarization unit 40 performs binarization in consideration of both the color difference difference value and the luminance difference value of each pixel. For example, binarization may be performed in accordance with whether or not the absolute value of the multiplication value obtained by multiplying the color difference difference value and the luminance difference value is equal to or greater than a threshold value. Also, the absolute value of the color difference difference value may be compared with a certain threshold value, the absolute value of the luminance difference value may be compared with another threshold value, and binarization may be performed depending on whether or not both are equal to or greater than the threshold value. good. That is, the binarization unit 40 may perform binarization using a predetermined condition that at least one region satisfies a condition when different image frames are compared.

なお、二値化部40は、精度は落ちるものの、輝度の差分値または色差の差分値のいずれか一方のみを用いて二値化処理を行っても良い。   Note that the binarization unit 40 may perform binarization processing using only one of the luminance difference value and the color difference difference value, although the accuracy is lowered.

図3は、二値化部40が生成した2値化フレーム(Δ(Fr1,Fr2)〜Δ(Fr4,Fr1))を示す図である。例えば、Δ(Fr1,Fr2)では、2つの円形領域のレベル値が1となり、それ以外の領域のレベル値は0となっている。二値化部40は、各画像フレーム(Fr1〜Fr4)について3種類の2値化フレームを算出する。二値化部40は、算出した全ての2値化フレーム(Δ(Fr1,Fr2)〜Δ(Fr4,Fr1))を積算部50に供給する。   FIG. 3 is a diagram illustrating binarized frames (Δ (Fr1, Fr2) to Δ (Fr4, Fr1)) generated by the binarization unit 40. For example, in Δ (Fr1, Fr2), the level values of the two circular areas are 1, and the level values of the other areas are 0. The binarization unit 40 calculates three types of binarized frames for each image frame (Fr1 to Fr4). The binarization unit 40 supplies all the calculated binarized frames (Δ (Fr1, Fr2) to Δ (Fr4, Fr1)) to the integration unit 50.

積算部50は、2値化フレーム(Δ(Fr1,Fr2)〜Δ(Fr4,Fr1))を用いて各画像フレーム(Fr1〜Fr4)についての積算フレーム(SumΔ(Fr1)〜SumΔ(Fr4))を算出する。図4は、積算フレーム(SumΔ(Fr1)〜SumΔ(Fr4))を示す概念図である。積算部50は、各画像フレーム(Fr1〜Fr4)に関する2値化フレーム(Δ(Fr1,Fr2)〜Δ(Fr4,Fr1))内のレベル値(1または0)を画素毎に積算する。例えば、積算部50は、以下の算出式に示すように、フレーム1(Fr1)についてΔ(Fr1,Fr2)、Δ(Fr1,Fr3)、Δ(Fr1,Fr4)の相対応する画素のレベル値の積算値を求めることにより積算フレームSumΔ(Fr1)を算出する。
SumΔ(Fr1) = Δ(Fr1,Fr2) + Δ(Fr1,Fr3) + Δ(Fr1,Fr4)
The integrating unit 50 uses the binarized frames (Δ (Fr1, Fr2) to Δ (Fr4, Fr1)) to integrate frames (SumΔ (Fr1) to SumΔ (Fr4)) for each image frame (Fr1 to Fr4). Is calculated. FIG. 4 is a conceptual diagram showing integrated frames (SumΔ (Fr1) to SumΔ (Fr4)). The integrating unit 50 integrates the level values (1 or 0) in the binarized frames (Δ (Fr1, Fr2) to Δ (Fr4, Fr1)) relating to the image frames (Fr1 to Fr4) for each pixel. For example, as shown in the following calculation formula, the integrating unit 50 sets the level values of pixels corresponding to Δ (Fr1, Fr2), Δ (Fr1, Fr3), and Δ (Fr1, Fr4) for frame 1 (Fr1). The integrated frame SumΔ (Fr1) is calculated by obtaining the integrated value of.
SumΔ (Fr1) = Δ (Fr1, Fr2) + Δ (Fr1, Fr3) + Δ (Fr1, Fr4)

積算部50は、その他の画像フレーム(Fr2〜4)についても同様の手法により積算フレームSumΔ(Fr2)〜SumΔ(Fr4)を算出する。積算部50は、算出した積算フレームSumΔ(Fr1)〜SumΔ(Fr4)を画像合成部60に供給する。   The integration unit 50 calculates the integration frames SumΔ (Fr2) to SumΔ (Fr4) for the other image frames (Fr2 to 4) by the same method. The integration unit 50 supplies the calculated integration frames SumΔ (Fr1) to SumΔ (Fr4) to the image synthesis unit 60.

画像合成部60は、選択部20から供給された4枚の画像フレーム(Fr1〜Fr4)を、積算部50から供給された積算フレームSumΔ(Fr1)〜SumΔ(Fr4)を用いて合成する。画像合成部60による合成手順を図5を参照し、説明する。図5は、画像合成部60による画像合成過程を示す図である。なお、説明の便宜のため、図5の初期フレーム(Fr1)に領域名を記載する(領域A1〜A5)。図5内における"bg"とはバックグラウンドの略であり、背景色を示す。   The image synthesis unit 60 synthesizes the four image frames (Fr1 to Fr4) supplied from the selection unit 20 using the integration frames SumΔ (Fr1) to SumΔ (Fr4) supplied from the integration unit 50. A composition procedure by the image composition unit 60 will be described with reference to FIG. FIG. 5 is a diagram showing an image composition process by the image composition unit 60. For convenience of explanation, region names are described in the initial frame (Fr1) in FIG. 5 (regions A1 to A5). “Bg” in FIG. 5 is an abbreviation of background and indicates a background color.

積算フレームSumΔ(Fr1)〜SumΔ(Fr4)における各画素のレベル値の値域は、0〜3である。画像合成部60は、このレベル値を合成比率として用いる。詳細には、レベル0の画素の合成比率は0%、レベル1の画素の合成比率は33.3%、レベル2の画素の合成比率は66.7%、レベル3の画素の合成比率は100%となる。   The range of the level value of each pixel in the integration frames SumΔ (Fr1) to SumΔ (Fr4) is 0 to 3. The image composition unit 60 uses this level value as a composition ratio. Specifically, the composition ratio of the level 0 pixels is 0%, the composition ratio of the level 1 pixels is 33.3%, the composition ratio of the level 2 pixels is 66.7%, and the composition ratio of the level 3 pixels is 100. %.

はじめに画像合成部60は、初期画像フレームとして画像フレーム1(Fr1)を選択し、この初期画像フレーム(Fr1)に各画像フレームを合成していく。画像合成部60は、画像フレーム2(Fr2)にかかる積算フレームSumΔ(Fr2)を参照し、各画素のレベル値に応じて画像フレーム2(Fr2)の合成を行う。レベル0の画素については、処理を行わない。レベル1の画素については、画像フレーム2(Fr2)のRGB値を33.3(33.33333−,以下同様)%、画像フレーム1(Fr1)の箇所のRGB値を66.7(66.666−,以下同様)%の割合で合成する。レベル2の画素については、画像フレーム2(Fr2)のRGB値を66.7%、画像フレーム1(Fr1)の箇所のRGB値を33.3%の割合で合成する。レベル3の画素については、元の画素のRGB値(この場合、画像フレーム1(Fr1)のRGB値)を画像フレーム2(Fr2)のRGB値で置換する。例えば領域A1については、画像フレーム1(Fr1)のRGB値に66.7%を掛け合わせた値と、画像フレーム2(Fr2)のRGB値(すなわち背景色)に33.3%を掛け合わせた値と、を足し合わせる。領域A1の画像フレーム1(Fr1)のRGB値が(120,150,180)であり、領域A1の画像フレーム2(Fr2)のRGB値(背景色のRGB値)が(90,90,90)である場合、当該領域A1のRGB値は(110,130,150)となる。このようにして、画像処理部60は、初期画像フレーム(Fr1)と画像フレーム2(Fr2)の合成画像フレーム(Fr1+Fr2)を生成する。   First, the image composition unit 60 selects an image frame 1 (Fr1) as an initial image frame, and synthesizes each image frame with the initial image frame (Fr1). The image composition unit 60 refers to the integrated frame SumΔ (Fr2) related to the image frame 2 (Fr2), and synthesizes the image frame 2 (Fr2) according to the level value of each pixel. No processing is performed for level 0 pixels. For the level 1 pixel, the RGB value of the image frame 2 (Fr2) is 33.3 (33.33333-, the same applies hereinafter)%, and the RGB value of the location of the image frame 1 (Fr1) is 66.7 (66.666). -, The same shall apply hereinafter) For level 2 pixels, the RGB value of image frame 2 (Fr2) is combined at a rate of 66.7%, and the RGB value at the location of image frame 1 (Fr1) is combined at a rate of 33.3%. For the level 3 pixel, the RGB value of the original pixel (in this case, the RGB value of the image frame 1 (Fr1)) is replaced with the RGB value of the image frame 2 (Fr2). For example, for the area A1, the RGB value of the image frame 1 (Fr1) is multiplied by 66.7% and the RGB value of the image frame 2 (Fr2) (that is, the background color) is multiplied by 33.3%. Add the values together. The RGB value of the image frame 1 (Fr1) in the area A1 is (120, 150, 180), and the RGB value (RGB value of the background color) of the image frame 2 (Fr2) in the area A1 is (90, 90, 90). In this case, the RGB value of the area A1 is (110, 130, 150). In this way, the image processing unit 60 generates a composite image frame (Fr1 + Fr2) of the initial image frame (Fr1) and the image frame 2 (Fr2).

画像合成部60は、同様の手法で合成画像フレーム(Fr1+Fr2)と画像フレーム3(Fr3)との合成画像フレーム(Fr1+Fr2+Fr3)を生成する。例えば、領域A1については合成画像フレーム(Fr1+Fr2)のRGB値を66.7%、画像フレーム3(Fr3)のRGB値を33.3%の割合で合成する。この結果、領域A1の合成比率は画像フレーム1(Fr1)のRGB値が44.4%、背景色のRGB値が55.5%の割合となる。   The image composition unit 60 generates a composite image frame (Fr1 + Fr2 + Fr3) of the composite image frame (Fr1 + Fr2) and the image frame 3 (Fr3) by the same method. For example, for the region A1, the RGB value of the composite image frame (Fr1 + Fr2) is combined at a rate of 66.7%, and the RGB value of the image frame 3 (Fr3) is combined at a rate of 33.3%. As a result, the composition ratio of the area A1 is such that the RGB value of the image frame 1 (Fr1) is 44.4% and the RGB value of the background color is 55.5%.

画像合成部60は、同様の手法で合成画像フレーム(Fr1+Fr2+Fr3)と画像フレーム4(Fr4)を合成し、最終的な合成画像(Fr1+Fr2+Fr3+Fr4)を生成する。生成した合成画像の各領域の合成比率は、図5に示す通りとなる。画像合成部60は、生成した合成画像を任意の記憶装置や表示装置(液晶ディスプレイ等)に出力する。ユーザは、この合成画像を参照することにより、動体の軌跡を確認する。   The image synthesizing unit 60 synthesizes the synthesized image frame (Fr1 + Fr2 + Fr3) and the image frame 4 (Fr4) by the same method, and generates a final synthesized image (Fr1 + Fr2 + Fr3 + Fr4). The composition ratio of each region of the generated composite image is as shown in FIG. The image composition unit 60 outputs the generated composite image to an arbitrary storage device or display device (liquid crystal display or the like). The user confirms the trajectory of the moving object by referring to the composite image.

上述の説明では、画像合成部60は、時系列の順序で画像フレームの合成処理(Fr1から順に合成を行う)を行ったが必ずしもこれに限られず、合成順序は順不同である。例えば、画像合成部60は、画像フレーム4(Fr4)、画像フレーム3(Fr3)、画像フレーム2(Fr2)、画像フレーム1(Fr1)の順序で合成を行っても良い。同様に、画像合成部60は、画像フレーム2(Fr2)、画像フレーム4(Fr4)、画像フレーム3(Fr3)、画像フレーム1(Fr1)の順序で合成を行っても良い。   In the above description, the image compositing unit 60 performs the image frame compositing process (combining in order from Fr1) in time-series order, but the present invention is not limited to this, and the compositing order is not limited. For example, the image composition unit 60 may perform composition in the order of image frame 4 (Fr4), image frame 3 (Fr3), image frame 2 (Fr2), and image frame 1 (Fr1). Similarly, the image composition unit 60 may perform composition in the order of image frame 2 (Fr2), image frame 4 (Fr4), image frame 3 (Fr3), and image frame 1 (Fr1).

なお、画像合成部60は、ユーザから着目すべき画像フレームの情報(着目フレーム情報)を受信し、当該着目フレーム情報に応じて画像フレームの合成順序を定めても良い。以下、詳細を説明する。   Note that the image composition unit 60 may receive image frame information to be focused on (frame-of-interest information) from the user, and may determine the order of image frame synthesis according to the frame-of-interest information. Details will be described below.

ユーザは、画像処理装置1と一体化された入力装置(マウス、キーボード等)、または画像処理装置1と接続可能な入力装置を用いて着目フレーム情報を入力する。例えば、ゴルフスイングの合成画像を生成する場合、ユーザは、フォロースルーを重点的に確認したい場合にはフォロースルーに関する画像フレームの識別子を入力する。または、ユーザは合成対象の全画像フレームのうち、「前半」、「中盤」、「後半」といった抽象的な画像フレームの順序を入力しても良い。この場合、画像合成部60は、ユーザの入力(「前半」、「中盤」、「後半」)を基に着目すべき画像フレームを一つに特定する。   The user inputs the frame information of interest using an input device (such as a mouse or a keyboard) integrated with the image processing device 1 or an input device connectable to the image processing device 1. For example, when generating a composite image of a golf swing, the user inputs an identifier of an image frame related to the follow-through when the user wants to confirm the follow-through in a focused manner. Alternatively, the user may input the order of abstract image frames such as “first half”, “middle board”, and “second half” among all the image frames to be synthesized. In this case, the image composition unit 60 identifies one image frame to be focused on based on user input (“first half”, “middle board”, “second half”).

画像合成部60は、入力された着目フレーム情報を基に画像フレームの合成順序を決定する。例えば9枚の画像フレーム(Fr1〜Fr9)を合成する場合であって、着目フレーム情報として時系列順序の8枚目の画像フレーム(Fr8)が設定された場合、画像合成部60は、8枚目の画像フレーム(Fr8)が最後に合成され、8枚目の画像フレームから時間間隔が離れた画像フレームほど早く合成が行われるように画像フレームの合成順序を定める。すなわち、画像合成部60は、Fr1,Fr2,Fr3,Fr4,Fr5,Fr6,Fr7(またはFr9),Fr9(またはFr7),Fr8という順序を画像フレームの合成順序と定める。画像合成部60は、決定した合成順序に基づいて合成処理を行う。   The image composition unit 60 determines the composition order of the image frames based on the input frame information of interest. For example, when nine image frames (Fr1 to Fr9) are combined and the eighth image frame (Fr8) in time series order is set as the frame-of-interest information, the image combining unit 60 The image frame (Fr8) is synthesized last, and the synthesis order of the image frames is determined so that the synthesis is performed earlier as the image frame is spaced apart from the eighth image frame. That is, the image composition unit 60 determines the order of image frames as Fr1, Fr2, Fr3, Fr4, Fr5, Fr6, Fr7 (or Fr9), Fr9 (or Fr7), and Fr8. The image composition unit 60 performs composition processing based on the determined composition order.

上述のように画像合成部60が着目フレーム情報に応じて画像フレームの合成順序を定めることにより、ユーザが最も確認したい画像フレームの合成順序が最後となる。すなわち、確認したい画像フレームの合成が終了した後に、他の画像フレームが合成される恐れが無くなる。これにより、着目したい画像フレームが鮮明に表示された合成画像を得ることができる。   As described above, the image composition unit 60 determines the composition order of the image frames according to the frame information of interest, so that the composition order of the image frames that the user wants to confirm most is the last. That is, after the synthesis of the image frame to be confirmed is completed, there is no possibility that another image frame is synthesized. Thereby, it is possible to obtain a composite image in which an image frame to be focused on is clearly displayed.

以上、本実施の形態にかかる画像処理装置1について説明した。続いて、従来の技術(特許文献1)の技術を比較例とし、本実施の形態にかかる画像処理装置1の効果について説明する。   The image processing apparatus 1 according to the present embodiment has been described above. Next, the effect of the image processing apparatus 1 according to the present embodiment will be described using the conventional technique (Patent Document 1) as a comparative example.

特許文献1の技術を用いた場合、差分値から2値化を行う際の閾値、及び累積マスクフレームから基準マスクフレームを生成する際の閾値、の設定が非常に重要となる。この閾値の設定を誤った場合、ある画像フレームから意図しない領域を切り出し、当該領域を用いた上書き処理をしてしまう。これにより、動体の軌道が把握できない、または誤認してしまう破綻のある合成画像を生成してしまう。   When the technique of Patent Document 1 is used, it is very important to set a threshold value when binarizing from a difference value and a threshold value when generating a reference mask frame from an accumulated mask frame. If this threshold value is set incorrectly, an unintended area is cut out from a certain image frame, and an overwrite process using the area is performed. As a result, it is possible to generate a broken composite image in which the trajectory of the moving object cannot be grasped or misidentified.

一方、本実施の形態にかかる画像処理装置1は、積算フレームを用いて画像合成を行う。画像処理装置1は、4枚以上の画像フレームを対象としている。そのため、生成する積算フレームに規定された各画素の合成比率の値域が3値以上となる。画像合成部60は、この各画素の合成比率を2値化することなく、そのまま画像合成に用いる。すなわち、画像合成部60は、各画像フレームを切り出すか切り出さないかを示す2値では無く、各画像フレームの画素値(上述の例ではRGB値)をどの程度用いて合成するかを示す合成比率を用いて合成を行う。これにより、画像処理装置1は、意図しない領域を画像フレームから切り出して、当該領域を用いた上書き処理を行うことを回避することができる。そのため、動体の軌跡が把握できなくなる、または誤認するような破綻のある合成画像を生成することを回避することができる。   On the other hand, the image processing apparatus 1 according to the present embodiment performs image composition using the integrated frames. The image processing apparatus 1 targets four or more image frames. For this reason, the range of the composition ratio of each pixel defined in the generated integrated frame is three or more. The image composition unit 60 uses the composition ratio of each pixel as it is for image composition without binarization. That is, the image composition unit 60 does not represent a binary value indicating whether or not each image frame is to be extracted, but a composition ratio indicating how much the pixel value (RGB value in the above example) is used for the composition of each image frame. Is used for synthesis. Thereby, the image processing apparatus 1 can avoid performing an overwriting process using the region by cutting out an unintended region from the image frame. Therefore, it is possible to avoid generating a composite image having a failure that makes it impossible to grasp the trajectory of the moving object or misidentifies it.

上述の説明では幾何的な動体が単純に移動する例(図2〜図5)を用いて説明したが、画像処理装置1が合成対象とする自然画は、動体の移動方向や移動速度の変化が非常に複雑である。例えば、ゴルフスイングの合成画像を生成する場合、ドライバヘッドの移動量は大きいが、ゴルファーの体の軸の移動量は小さい。そのため、特許文献1に記載の技術を用いる場合、上述の閾値の設定に高度なノウハウを要することになり、実際には破綻のある合成画像を生成してしまうケースが非常に多いと考えられる。一方、本実施の形態にかかる画像処理装置1は、このような複雑な自然画にかかる画像フレームを合成対象とした場合であっても、合成比率に一定の幅があるため、破綻の少ない合成画像を生成することができる。   In the above description, the example in which the geometric moving object simply moves (FIGS. 2 to 5) has been described. However, the natural image to be synthesized by the image processing apparatus 1 is a change in moving direction or moving speed of the moving object. Is very complex. For example, when generating a composite image of a golf swing, the movement amount of the driver head is large, but the movement amount of the golfer's body axis is small. For this reason, when the technique described in Patent Document 1 is used, advanced know-how is required to set the above-described threshold value, and it is considered that there are actually many cases where a composite image having a failure is actually generated. On the other hand, the image processing apparatus 1 according to the present embodiment, even when image frames related to such complex natural images are to be combined, has a certain range in the combination ratio, so that the combination with less failure is performed. An image can be generated.

さらに、本実施の形態にかかる合成画像の生成処理は、複雑なアルゴリズムを用いた計算等を行う必要がない。そのため、画像処理装置1の処理負荷が少なく、かつ短い時間で合成画像を生成することができる。   Furthermore, the composite image generation processing according to the present embodiment does not require calculation using a complicated algorithm. For this reason, the processing load on the image processing apparatus 1 is small, and a composite image can be generated in a short time.

<実施の形態2>
本実施の形態にかかる画像処理装置1は、積算フレームに対してレベルシフト処理を行うことを特徴とする。本実施の形態にかかる画像処理装置1について実施の形態1と異なる点を説明する。なお、以下の説明において、同一の符号を付して特に言及しない処理部は、実施の形態1と同一の処理を行うものとする。また、本実施の形態でも、図2に示す4枚の画像フレームを合成対象とする。
<Embodiment 2>
The image processing apparatus 1 according to the present embodiment is characterized by performing a level shift process on the integrated frame. The image processing apparatus 1 according to the present embodiment will be described while referring to differences from the first embodiment. In the following description, processing units that are assigned the same reference numerals and are not specifically mentioned perform the same processing as in the first embodiment. Also in the present embodiment, the four image frames shown in FIG.

図6は、本実施の形態にかかる画像処理装置1の構成を示すブロック図である。画像処理装置1は、図1に示す構成に加えて、キーフレーム生成部70を更に備える。積算部50は、生成した各画像フレーム(Fr1〜Fr4)に対応する積算フレーム(SumΔ(Fr1)〜SumΔ(Fr4))を画像合成部60ではなく、キーフレーム生成部70に供給する。   FIG. 6 is a block diagram showing a configuration of the image processing apparatus 1 according to the present embodiment. The image processing apparatus 1 further includes a key frame generation unit 70 in addition to the configuration shown in FIG. The integrating unit 50 supplies the integrated frames (SumΔ (Fr1) to SumΔ (Fr4)) corresponding to the generated image frames (Fr1 to Fr4) to the key frame generating unit 70 instead of the image synthesizing unit 60.

キーフレーム生成部70は、供給された積算フレーム(SumΔ(Fr1)〜SumΔ(Fr4))を、所定の閾値(以下、第1閾値と記載する。)を用いて減算(レベルシフト)したキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))を生成する。以下、図7を参照してキーフレームの生成概念について説明する。   The key frame generation unit 70 subtracts (level shifts) the supplied integrated frames (SumΔ (Fr1) to SumΔ (Fr4)) using a predetermined threshold (hereinafter referred to as a first threshold). (KeyΔ (Fr1) to KeyΔ (Fr4)) are generated. Hereinafter, the concept of key frame generation will be described with reference to FIG.

図7(a)は、図4に示す積算フレーム(SumΔ(Fr1)〜SumΔ(Fr4))である。キーフレーム生成部70は、積算フレーム(SumΔ(Fr1)〜SumΔ(Fr4))のレベル値から第1閾値を減算したキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))を生成する。詳細には、キーフレーム生成部70は、レベル値として第1閾値以上の値を持つレベル値から第1閾値を減算することによりキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))を生成する。図7(b)は、図7(a)に示す積算フレーム(SumΔ(Fr1)〜SumΔ(Fr4)から第1閾値として1を減算して生成したキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))である。キーフレーム生成部70は、生成したキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))を画像合成部60に供給する。   FIG. 7A is an integration frame (SumΔ (Fr1) to SumΔ (Fr4)) shown in FIG. The key frame generation unit 70 generates a key frame (KeyΔ (Fr1) to KeyΔ (Fr4)) obtained by subtracting the first threshold value from the level value of the integrated frame (SumΔ (Fr1) to SumΔ (Fr4)). Specifically, the key frame generation unit 70 generates key frames (KeyΔ (Fr1) to KeyΔ (Fr4)) by subtracting the first threshold value from the level value having a value equal to or higher than the first threshold value as the level value. FIG. 7B shows key frames (KeyΔ (Fr1) to KeyΔ (Fr4) generated by subtracting 1 as a first threshold value from the integrated frames (SumΔ (Fr1) to SumΔ (Fr4)) shown in FIG. The key frame generation unit 70 supplies the generated key frames (KeyΔ (Fr1) to KeyΔ (Fr4)) to the image composition unit 60.

ここで、キーフレーム生成部70が使用する第1閾値は、キーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))内のレベル値の値域が3値以上になるような正の整数に設定する。例えば、図7の例では、第1閾値を1に設定し、2以上を設定しないようにする。   Here, the first threshold value used by the key frame generation unit 70 is set to a positive integer such that the range of level values in the key frame (KeyΔ (Fr1) to KeyΔ (Fr4)) is three or more. For example, in the example of FIG. 7, the first threshold is set to 1 and 2 or more is not set.

画像合成部60は、供給されたキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))を用いて画像フレームの合成処理を行う。合成方法は、実施の形態1と同様である。図8は、図7(b)に示すキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))を用いた画像合成過程を示す図である。   The image composition unit 60 performs image frame composition processing using the supplied key frames (KeyΔ (Fr1) to KeyΔ (Fr4)). The synthesis method is the same as in the first embodiment. FIG. 8 is a diagram showing an image composition process using the key frames (KeyΔ (Fr1) to KeyΔ (Fr4)) shown in FIG. 7B.

キーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))における各画素のレベル値の値域は、0〜2である。このレベル値を合成比率として用いる。すなわち、レベル0の画素の合成比率は0%、レベル1の画素の合成比率は50%、レベル2の画素の合成比率は100%となる。合成処理は、図5と同様であるためその詳細は省略する。   The range of the level value of each pixel in the key frame (KeyΔ (Fr1) to KeyΔ (Fr4)) is 0-2. This level value is used as the composition ratio. That is, the synthesis ratio of level 0 pixels is 0%, the synthesis ratio of level 1 pixels is 50%, and the synthesis ratio of level 2 pixels is 100%. Since the synthesizing process is the same as that in FIG. 5, its details are omitted.

生成した合成画像(Fr1+Fr2+Fr3+Fr4)の各領域の合成比率は、図8に示す通りとなる。画像合成部60は、生成した合成画像を任意の記憶装置や表示装置(液晶ディスプレイ等)に出力する。   The composition ratio of each region of the generated composite image (Fr1 + Fr2 + Fr3 + Fr4) is as shown in FIG. The image composition unit 60 outputs the generated composite image to an arbitrary storage device or display device (liquid crystal display or the like).

続いて、図9を参照してキーフレーム生成の意義について説明する。図9は、積算フレーム作成とキーフレーム作成の概念を示す図である。図9では説明の容易化のため、3枚の画像フレーム(FrA,FrB,FrC)を用いた説明を行う。   Next, the significance of key frame generation will be described with reference to FIG. FIG. 9 is a diagram illustrating the concept of integrated frame creation and key frame creation. In FIG. 9, for ease of explanation, explanation is made using three image frames (FrA, FrB, FrC).

二値化部30は、上述の手法により二値化フレームΔ(FrA,FrB)を生成する。この際、図9に示すように、画像フレーム(FrA)を基準とした二値化フレームを生成しているにもかかわらず、二値化フレームΔ(FrA,FrB)において画像フレーム(FrB)に特有の領域に1(差分が大きい)が設定される。同様に、二値化フレームΔ(FrA,FrC)において、画像フレーム(FrC)に特有の領域に1(差分が大きい)が設定される。これらの二値化フレームを積算した積算フレームSumΔ(FrA)には、比較対象の画像フレーム(FrB,FrC)特有の領域(図中の四角で囲んだ領域)に1が設定される。   The binarization unit 30 generates a binarized frame Δ (FrA, FrB) by the above-described method. At this time, as shown in FIG. 9, although the binarized frame is generated based on the image frame (FrA), the binarized frame Δ (FrA, FrB) is changed to the image frame (FrB). 1 (large difference) is set in the specific area. Similarly, in the binarized frame Δ (FrA, FrC), 1 (the difference is large) is set in a region unique to the image frame (FrC). In the integrated frame SumΔ (FrA) obtained by integrating these binarized frames, 1 is set in a region (region surrounded by a square in the drawing) peculiar to the image frame (FrB, FrC) to be compared.

キーフレーム生成部70は、積算フレームSumΔ(FrA)に対して第1閾値として1を減算(レベルシフト)し、キーフレームKeyΔ(FrA)を生成する。この減算により、比較対象の画像フレーム(FrB,FrC)の特有の領域の影響を小さくすることができる。すなわち、キーフレームΔ(FrA)は、積算フレームSumΔ(FrA)と比べて画像フレーム(FrA)の特有の領域のみを的確に表現できるようになる。このように生成したキーフレームΔ(FrA)を用いて画像合成を行うことにより、より精度の高い合成画像を得ることができる。例えば、実施の形態1の手法で生成した合成画像(図5におけるFr1+Fr2+Fr3+Fr4)と、実施の形態2の手法で生成した合成画像(図8におけるFr1+Fr2+Fr3+Fr4)と、を比較した場合、後者の合成画像の方が円形の移動体をより鮮明に表示した軌跡画像となる。   The key frame generation unit 70 subtracts 1 (level shift) as a first threshold value from the integrated frame SumΔ (FrA) to generate a key frame KeyΔ (FrA). By this subtraction, it is possible to reduce the influence of the specific region of the comparison target image frame (FrB, FrC). That is, the key frame Δ (FrA) can accurately represent only a specific region of the image frame (FrA) as compared with the integrated frame SumΔ (FrA). By performing image composition using the key frame Δ (FrA) generated in this way, a more accurate composite image can be obtained. For example, when the composite image generated by the method of Embodiment 1 (Fr1 + Fr2 + Fr3 + Fr4 in FIG. 5) and the composite image generated by the method of Embodiment 2 (Fr1 + Fr2 + Fr3 + Fr4 in FIG. 8) are compared, the latter composite image This is a trajectory image in which a circular moving body is displayed more clearly.

続いて、本実施の形態にかかる画像処理装置1が生成した合成画像と、特許文献1に記載の動画像切り出し装置が生成した合成画像と、の比較を行う。はじめに、特許文献1に記載の動画像切り出し装置の処理概要を、図10を参照して改めて説明する。   Subsequently, the composite image generated by the image processing apparatus 1 according to the present embodiment is compared with the composite image generated by the moving image clipping apparatus described in Patent Document 1. First, the processing outline of the moving image clipping device described in Patent Document 1 will be described again with reference to FIG.

動画像切り出し装置は、閾値を用いて2値化したマスクフレーム(図10(a))を用いて合成画像の生成を行う。この動画像切り出し装置による画像合成過程を図10(b)に示す。この動画像切り出し装置は、合成元の画像フレームの画素値を100%用いるか、合成する画像フレームの画素値を100%用いる(上書きを行う)。そのため、上述の閾値の設定が適切である場合には良好な合成画像を得られるが、不適切である場合には意図しない合成画像が生成される。   The moving image clipping device generates a composite image using a mask frame binarized using a threshold value (FIG. 10A). FIG. 10B shows an image composition process by the moving image clipping device. This moving image clipping device uses 100% of the pixel value of the image frame as the composition source, or uses 100% of the pixel value of the image frame to be synthesized (overwriting). Therefore, a good composite image can be obtained when the above-described threshold setting is appropriate, but an unintended composite image is generated when it is inappropriate.

以下、簡単な例を用いて本実施の形態にかかる画像処理装置1が生成した合成画像と、特許文献1に記載の動画像切り出し装置が生成した合成画像と、を比較する。図11に示すような幅が4の矩形物体が画像フレーム単位で1マスずつ移動する動画像データについて検討する。合成画像は、10枚の画像フレームから生成するものとする。なお、説明の明確化のため、RGB値では無く、矩形物体に1、それ以外の領域に0の画素値が設定されているものとして検討する。   Hereinafter, the composite image generated by the image processing apparatus 1 according to the present embodiment and the composite image generated by the moving image clipping apparatus described in Patent Document 1 are compared using a simple example. Consider moving image data in which a rectangular object having a width of 4 as shown in FIG. The composite image is generated from ten image frames. For the sake of clarity, it is considered that pixel values of 1 are set for rectangular objects and 0 are set for other areas, not RGB values.

図12(a)は、矩形物体の移動状態を示す。図示するように、矩形物体が画像フレーム毎に1マスだけ右に移動している。図12(b)は、生成した積算フレームSumΔ(Fr1)〜SumΔ(Fr10)を示す。図13(a)は図12(b)に示す積算フレームから第1閾値として3を減算して生成したキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr10))を示す図であり、図13(b)は図12(b)に示す積算フレームから第1閾値として4を減算して生成したキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr10))を示す図である。   FIG. 12A shows the moving state of the rectangular object. As shown in the figure, the rectangular object moves to the right by one square for each image frame. FIG. 12B shows the generated integrated frames SumΔ (Fr1) to SumΔ (Fr10). FIG. 13A is a diagram showing key frames (KeyΔ (Fr1) to KeyΔ (Fr10)) generated by subtracting 3 as the first threshold value from the integrated frame shown in FIG. 12B. ) Is a diagram showing key frames (KeyΔ (Fr1) to KeyΔ (Fr10)) generated by subtracting 4 as the first threshold value from the integrated frame shown in FIG. 12B.

図14(a)は、図13(a)に示すキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr10))から算出した、本実施の形態にかかる画像合成部60が用いる各画像フレームの合成比率(k1〜k10,%表示)を示す。図13(a)に示すキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr10))は値域が6であるため、各欄を6で除算することにより各画像フレームの合成比率(k1〜k10,%表示)が算出される。図14(b)は、図13(a)に示すキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr10))を用いて算出した特許文献1にかかる合成比率である。当該合成比率は、0より大きい値を持つ欄に100%が設定され、0である欄に0%が設定される。   FIG. 14A shows a composition ratio of each image frame used by the image composition unit 60 according to the present embodiment calculated from the key frames (KeyΔ (Fr1) to KeyΔ (Fr10)) shown in FIG. k1 to k10,% display). Since the key frame (KeyΔ (Fr1) to KeyΔ (Fr10)) shown in FIG. 13 (a) has a range of 6, dividing each column by 6 displays the composition ratio (k1 to k10,% display) of each image frame. ) Is calculated. FIG. 14B shows the composition ratio according to Patent Document 1 calculated using the key frames (KeyΔ (Fr1) to KeyΔ (Fr10)) shown in FIG. As for the composition ratio, 100% is set in a column having a value larger than 0, and 0% is set in a column having 0.

図15(a)は、図13(b)に示すキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr10))から算出した、本実施の形態にかかる各画像フレームの合成比率(k1〜k10,%表示)を示す。図14(b)は、図13(b)に示すキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr10))を用いて算出した特許文献1にかかる合成比率である。   FIG. 15A shows a composite ratio (k1 to k10,% display) of each image frame according to the present embodiment calculated from the key frames (KeyΔ (Fr1) to KeyΔ (Fr10)) shown in FIG. 13B. ). FIG. 14B shows the composition ratio according to Patent Document 1 calculated using the key frames (KeyΔ (Fr1) to KeyΔ (Fr10)) shown in FIG. 13B.

なお、初期画像フレームは、画像フレーム1(Fr1)を想定している。そのため、図14及び図15において、k1の各欄には100%が設定される。図12〜図15において、太線枠内が矩形物体の位置を示す。また、合成順序は、時系列の順序(Fr1⇒Fr2⇒…⇒Fr10)とする。   Note that the initial image frame is assumed to be image frame 1 (Fr1). Therefore, in FIGS. 14 and 15, 100% is set in each column of k1. 12 to 15, the inside of the thick line frame indicates the position of the rectangular object. The synthesis order is a time-series order (Fr1 → Fr2 →... → Fr10).

まず、第1閾値を3にした場合(積算フレームの各画画素のレベル値から3だけ減算した場合)の合成処理について検討する。図14(b)から明らかなように、特許文献1の技術では、上書きすべきではない領域についても完全に上書き処理を行ってしまう(たとえば、合成比率k2の太線枠外の欄に100%が設定されている)。すなわち、矩形領域の画素値(1)が設定されるべき領域に、背景色の画素値(0)が設定されてしまう。一方、本実施の形態にかかる方式では、図14(a)に示すように、ある程度の比率で画像フレームの画素値が混合される。この際、矩形物体に対応する画素値の混合比率は高く、背景色の混合比率は低い。そのため、矩形物体が移動する軌跡を確認可能な合成画像を得ることができる。   First, a synthesis process when the first threshold value is 3 (when 3 is subtracted from the level value of each image pixel in the integrated frame) will be considered. As is apparent from FIG. 14B, the technique of Patent Document 1 completely performs the overwriting process even for an area that should not be overwritten (for example, 100% is set in the column outside the thick line frame of the composition ratio k2). Have been). That is, the pixel value (0) of the background color is set in the area where the pixel value (1) of the rectangular area is to be set. On the other hand, in the method according to the present embodiment, as shown in FIG. 14A, pixel values of an image frame are mixed at a certain ratio. At this time, the mixing ratio of the pixel values corresponding to the rectangular object is high, and the mixing ratio of the background color is low. Therefore, it is possible to obtain a composite image in which a trajectory along which the rectangular object moves can be confirmed.

次に、第1閾値を4にした場合(積算フレームの各画素のレベル値から4だけ減算した場合)の合成処理について検討する。図15(b)から明らかなように、特許文献1の技術では、矩形領域以外の合成比率が0%となっている。そのため、所望の合成画像を得ることができる。一方、本実施の形態にかかる方式では、図15(a)に示すように、100%の精度ではないものの、ある程度の比率で各画像フレームの矩形領域内の画素値が混合される。そのため、矩形物体が鮮明に表示された合成画像ではないものの、矩形物体が移動する軌跡を確認可能な合成画像を得ることができる。   Next, a synthesis process when the first threshold value is 4 (when 4 is subtracted from the level value of each pixel of the integrated frame) will be considered. As is apparent from FIG. 15B, in the technique of Patent Document 1, the composition ratio other than the rectangular area is 0%. Therefore, a desired composite image can be obtained. On the other hand, in the method according to the present embodiment, as shown in FIG. 15A, the pixel values in the rectangular area of each image frame are mixed at a certain ratio, although the accuracy is not 100%. Therefore, although it is not a composite image in which the rectangular object is clearly displayed, it is possible to obtain a composite image in which the locus of movement of the rectangular object can be confirmed.

次に、本実施の形態にかかる方式で生成した合成画像と特許文献1に記載の方式で生成した合成画像をグラフ形式で示す。図16は、図11に示す動画像データを対象として生成された合成画像の画素値を示すグラフである。当該グラフの横軸は合成画像の横方向の座標を示し、縦軸は画素値を示す。   Next, a composite image generated by the method according to the present embodiment and a composite image generated by the method described in Patent Document 1 are shown in a graph format. FIG. 16 is a graph showing pixel values of a composite image generated for the moving image data shown in FIG. The horizontal axis of the graph indicates the horizontal coordinate of the composite image, and the vertical axis indicates the pixel value.

図16(a)は、本実施の形態にかかる方式で生成した(図14(a)に示す合成比率または図15(a)に示す合成比率を用いて生成した)合成画像を示すグラフである。グラフ内には、期待値を示す折れ線(EXP)も併せて表示する。図16(b)は、特許文献1に記載の方式で生成した(図14(b)に示す合成比率または図15(b)に示す合成比率を用いて生成した)合成画像を示すグラフである。   FIG. 16A is a graph showing a composite image generated by the method according to the present embodiment (generated using the composite ratio shown in FIG. 14A or the composite ratio shown in FIG. 15A). . A broken line (EXP) indicating an expected value is also displayed in the graph. FIG. 16B is a graph showing a composite image generated by the method described in Patent Document 1 (generated using the composite ratio shown in FIG. 14B or the composite ratio shown in FIG. 15B). .

なお、確認として、本実施の形態にかかる方式における各座標の算出値の算出方法を以下に説明する。例えば、第1閾値を3であり、横軸が5の場合、図14(a)に記載の合成比率を用いた以下の算出を行い、最終的な算出値(0.33)を算出する。
1×1=1
1×(1−(1/2))+1×(1/2)=1
1×(1−(1/2))+1×(1/2)=1
1×(1−(1/2))+1×(1/2)=1
1×(1−(1/6))+0×(5/6)=(5/6)
(5/6)×(1−(1/6))+0×(5/6)=(25/36)
(25/36)×(1−(1/6))+0×(5/6)=(125/216)
(125/216)×(1−(1/6))+0×(5/6)=(625/1296)
(625/1296)×(1−(1/6))+0×(5/6)=(3125/7776)
(3125/7776)×(1−(1/6))+0×(5/6)=(15625/46656)=0.3349
As a confirmation, the calculation method of the calculated value of each coordinate in the method according to the present embodiment will be described below. For example, when the first threshold is 3 and the horizontal axis is 5, the following calculation using the composition ratio shown in FIG. 14A is performed to calculate the final calculated value (0.33).
1 × 1 = 1
1 * (1- (1/2)) + 1 * (1/2) = 1
1 * (1- (1/2)) + 1 * (1/2) = 1
1 * (1- (1/2)) + 1 * (1/2) = 1
1 × (1− (1/6)) + 0 × (5/6) = (5/6)
(5/6) × (1− (1/6)) + 0 × (5/6) = (25/36)
(25/36) × (1− (1/6)) + 0 × (5/6) = (125/216)
(125/216) × (1- (1/6)) + 0 × (5/6) = (625/1296)
(625/1296) × (1- (1/6)) + 0 × (5/6) = (3125/7777)
(3125/7777) × (1− (1/6)) + 0 × (5/6) = (15625/46656) = 0.3349

図16内の両グラフ((a),(b))を比較すると明らかなように、特許文献1に記載の方式では閾値が適切な場合には良好な合成画像を得ることができる。しかし、閾値が適切ではない場合には極端にグラフの形状が崩れる、すなわち生成される合成画像の各画素の画素値が意図しない値となる。一方、本実施の形態にかかる方式では閾値が適切でない場合であっても極端にグラフの形状が崩れることがない、すなわち生成される合成画像を参照することにより矩形物体の動きを把握することができる。   As is clear from comparison between the two graphs ((a) and (b)) in FIG. 16, the method described in Patent Document 1 can obtain a good composite image when the threshold is appropriate. However, when the threshold value is not appropriate, the shape of the graph is extremely collapsed, that is, the pixel value of each pixel of the generated composite image becomes an unintended value. On the other hand, in the method according to this embodiment, even if the threshold value is not appropriate, the shape of the graph does not collapse extremely. it can.

以上、本発明を上記実施形態に即して説明したが、上記実施形態の構成にのみ限定されるものではなく、本願特許請求の範囲の請求項の発明の範囲内で当業者であればなし得る各種変形、修正、組み合わせを含むことは勿論である。例えば、上述の説明では色空間としてRGBを想定したが、必ずしもこれに限られず他の色空間(YUV,CMY等)にも本発明を応用することができる。   Although the present invention has been described with reference to the above embodiment, the present invention is not limited to the configuration of the above embodiment, and can be made by those skilled in the art within the scope of the invention of the claims of the claims of the present application. It goes without saying that various modifications, corrections, and combinations are included. For example, in the above description, RGB is assumed as the color space. However, the present invention is not necessarily limited to this, and the present invention can be applied to other color spaces (YUV, CMY, etc.).

上述の選択部20、差分算出部30、二値化部40、積算部50、画像合成部60、及びキーフレーム生成部70の各処理は、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   Each processing of the selection unit 20, the difference calculation unit 30, the binarization unit 40, the integration unit 50, the image synthesis unit 60, and the key frame generation unit 70 causes a CPU (Central Processing Unit) to execute a computer program. Can also be realized. In this case, the computer program can be stored using various types of non-transitory computer readable media and supplied to the computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W and semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)) are included. The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

また、コンピュータが上述の実施の形態の機能を実現するプログラムを実行することにより、上述の実施の形態の機能が実現される場合だけでなく、このプログラムが、コンピュータ上で稼動しているOS(Operating System)もしくはアプリケーションソフトウェアと共同して、上述の実施の形態の機能を実現する場合も、本発明の実施の形態に含まれる。さらに、このプログラムの処理の全てもしくは一部がコンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットによって行われて、上述の実施の形態の機能が実現される場合も、本発明の実施の形態に含まれる。   In addition to the case where the function of the above-described embodiment is realized by the computer executing the program that realizes the function of the above-described embodiment, this program is not limited to the OS ( A case where the functions of the above-described embodiment are realized in cooperation with an operating system or application software is also included in the embodiment of the present invention. Furthermore, the present invention is also applicable to the case where the functions of the above-described embodiment are realized by performing all or part of the processing of the program by a function expansion board inserted into the computer or a function expansion unit connected to the computer. It is included in the embodiment.

1 画像処理装置
10 画像記憶部
20 選択部
30 差分算出部
40 二値化部
50 積算部
60 画像合成部
70 キーフレーム生成部
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 10 Image storage part 20 Selection part 30 Difference calculation part 40 Binarization part 50 Integration part 60 Image composition part 70 Key frame generation part

Claims (7)

N(Nは4以上の整数)枚の画像フレームの各画像フレーム間の相対応する画素の差分値を算出する差分算出部と、
前記差分算出部が算出した差分値を所定条件と比較することにより、各画素の前記差分値の大きさを2値のレベル値で示す2値化フレームを複数生成する二値化部と、
複数の前記2値化フレームにおけるレベル値を前記N枚の画像フレーム毎に積算した積算フレームを生成する累積画像生成部と、
前記積算フレームに設定されたレベル値から定まる前記N枚の画像フレーム各々の各画素の合成比率に基づき、前記N枚の画像フレームを合成した合成画像を生成する画像合成部と、を備え、
前記N枚の画像フレーム各々の各画素の合成比率の値域は、3値以上であることを特徴とする画像処理装置。
A difference calculation unit that calculates a difference value of corresponding pixels between the image frames of N (N is an integer of 4 or more) image frames;
A binarization unit that generates a plurality of binarized frames indicating the magnitude of the difference value of each pixel by a binary level value by comparing the difference value calculated by the difference calculation unit with a predetermined condition;
A cumulative image generating unit that generates a summed frame obtained by summing the level values in the plurality of binarized frames for each of the N image frames;
An image synthesis unit that generates a synthesized image obtained by synthesizing the N image frames based on a synthesis ratio of each pixel of each of the N image frames determined from a level value set in the integrated frame;
The image processing apparatus according to claim 1, wherein a value range of a composition ratio of each pixel of each of the N image frames is three or more.
前記積算フレーム内の各画素のレベル値から第1閾値を減算した値を、前記N枚の画像フレーム各々の各画素の合成比率として算出するキーフレーム生成部、を更に備えることを特徴とする請求項1に記載の画像処理装置。   The key frame generation part which calculates the value which subtracted the 1st threshold from the level value of each pixel in the integration frame as a composition ratio of each pixel of each of the N image frames, further comprising: Item 8. The image processing apparatus according to Item 1. 前記画像合成部は、前記積算フレームの各画素のレベル値を、そのまま前記N枚の画像フレーム各々の各画素の合成比率として用いることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image composition unit uses the level value of each pixel of the integrated frame as it is as a composition ratio of each pixel of the N image frames. 前記画像合成部は、前記N枚の画像フレームの中で着目すべき画像フレームを示す着目フレーム情報を受信し、前記着目フレーム情報に基づいて前記N枚の画像フレームの合成順序を決定することを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。   The image composition unit receives attention frame information indicating an image frame to be noted among the N image frames, and determines a composition order of the N image frames based on the attention frame information. The image processing apparatus according to claim 1, wherein the image processing apparatus is characterized in that: 前記差分算出部は、各画像フレーム間の相対応する画素の輝度値及び色差値の差分を算出し、
前記二値化部は、輝度値及び色差値の双方を用いた条件判定を行うことにより前記2値化フレームを生成することを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。
The difference calculation unit calculates a difference between a luminance value and a color difference value of corresponding pixels between the image frames,
The image according to any one of claims 1 to 4, wherein the binarization unit generates the binarized frame by performing a condition determination using both a luminance value and a color difference value. Processing equipment.
N(Nは4以上の整数)枚の画像フレームの各画像フレーム間の相対応する画素の差分値を算出する差分算出ステップと、
前記差分算出ステップにおいて算出した差分値を所定条件と比較することにより、各画素の前記差分値の大きさを2値のレベル値で示す2値化フレームを複数生成する二値化ステップと、
複数の前記2値化フレームにおけるレベル値を前記N枚の画像フレーム毎に積算した積算フレームを生成する累積画像生成ステップと、
前記積算フレームに設定されたレベル値から定まる前記N枚の画像フレーム各々の各画素の合成比率に基づき、前記N枚の画像フレームを合成した合成画像を生成する画像合成ステップと、を備え、
前記N枚の画像フレーム各々の各画素の合成比率の値域は、3値以上であることを特徴とする画像処理方法
A difference calculating step of calculating a difference value of corresponding pixels between the image frames of N (N is an integer of 4 or more) image frames;
A binarization step for generating a plurality of binarized frames indicating the magnitude of the difference value of each pixel by a binary level value by comparing the difference value calculated in the difference calculation step with a predetermined condition;
A cumulative image generating step of generating a summed frame obtained by summing the level values in the plurality of binarized frames for each of the N image frames;
An image synthesis step for generating a synthesized image obtained by synthesizing the N image frames based on a synthesis ratio of each pixel of each of the N image frames determined from the level value set in the integrated frame,
An image processing method characterized in that a value range of a composition ratio of each pixel of each of the N image frames is three or more.
コンピュータに、
N(Nは4以上の整数)枚の画像フレームの各画像フレーム間の相対応する画素の差分値を算出する差分算出ステップと、
前記差分算出ステップにおいて算出した差分値を所定条件と比較することにより、各画素の前記差分値の大きさを2値のレベル値で示す2値化フレームを複数生成する二値化ステップと、
複数の前記2値化フレームにおけるレベル値を前記N枚の画像フレーム毎に積算した積算フレームを生成する累積画像生成ステップと、
前記積算フレームに設定されたレベル値から定まり、値域として3値以上を持つ前記N枚の画像フレーム各々の各画素の合成比率に基づき、前記N枚の画像フレームを合成した合成画像を生成する画像合成ステップと、
を実行させるためのプログラム。
On the computer,
A difference calculating step of calculating a difference value of corresponding pixels between the image frames of N (N is an integer of 4 or more) image frames;
A binarization step for generating a plurality of binarized frames indicating the magnitude of the difference value of each pixel by a binary level value by comparing the difference value calculated in the difference calculation step with a predetermined condition;
A cumulative image generating step of generating a summed frame obtained by summing the level values in the plurality of binarized frames for each of the N image frames;
An image that is determined from the level value set in the integrated frame and that generates a combined image by combining the N image frames based on a combining ratio of each pixel of the N image frames having a value range of 3 or more. A synthesis step;
A program for running
JP2012083644A 2012-04-02 2012-04-02 Image processing apparatus, image processing method, and program Active JP5772684B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012083644A JP5772684B2 (en) 2012-04-02 2012-04-02 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012083644A JP5772684B2 (en) 2012-04-02 2012-04-02 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2013214181A JP2013214181A (en) 2013-10-17
JP5772684B2 true JP5772684B2 (en) 2015-09-02

Family

ID=49587463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012083644A Active JP5772684B2 (en) 2012-04-02 2012-04-02 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5772684B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3753232B2 (en) * 2001-03-30 2006-03-08 オムロン株式会社 Motor motion analysis support device
JP4307910B2 (en) * 2003-03-07 2009-08-05 富士フイルム株式会社 Moving image clipping device and method, and program

Also Published As

Publication number Publication date
JP2013214181A (en) 2013-10-17

Similar Documents

Publication Publication Date Title
JP5847924B2 (en) 2D image capture for augmented reality representation
US10474918B2 (en) Image processing apparatus, image processing method, and storage medium
WO2018139461A1 (en) Moving object detection device, moving object detection method and storage medium
US10095919B2 (en) Image processing apparatus, image processing method and storage medium to suitably clip a subject region from a moving image
US20150009216A1 (en) Storage medium, image processing apparatus, image processing system and image processing method
JP2006195525A (en) Apparatus and program for adding video object locus
US20190066734A1 (en) Image processing apparatus, image processing method, and storage medium
JP2020009447A (en) Method and device for augmenting reality
KR20160016812A (en) Image edits propagation to underlying video sequence via dense motion fields
CN107431742B (en) Image processing apparatus, image processing system, and image processing method
JP5772684B2 (en) Image processing apparatus, image processing method, and program
CN112887623B (en) Image generation method and device and electronic equipment
US20130136342A1 (en) Image processing device and image processing method
JP2020107170A (en) Annotation device, learning model, image sensor, annotation method, and computer program
JP2015180048A (en) Image processing device and image processing method
WO2018154827A1 (en) Image processing device, image processing system and program
WO2020194664A1 (en) Tracking device, trained model, endoscope system, and tracking method
JP4055908B2 (en) Wipe pattern generator
JP2015191413A (en) Synthetic image creation system, synthetic image creation method and synthetic image creation program
JP2006285655A (en) Image processor, image processing method and image processing program
JP6451300B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2018028805A (en) Image processing system
JP2005236472A (en) Apparatus for editing moving picture
CN115379195B (en) Video generation method, device, electronic equipment and readable storage medium
JP2005115011A (en) Image display apparatus, image display method, image display program and recording medium recording the program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150615

R150 Certificate of patent or registration of utility model

Ref document number: 5772684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150