JP5772684B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP5772684B2 JP5772684B2 JP2012083644A JP2012083644A JP5772684B2 JP 5772684 B2 JP5772684 B2 JP 5772684B2 JP 2012083644 A JP2012083644 A JP 2012083644A JP 2012083644 A JP2012083644 A JP 2012083644A JP 5772684 B2 JP5772684 B2 JP 5772684B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- frames
- value
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は画像処理装置、画像処理方法、及びプログラムに関し、特に複数の画像フレームから合成画像を生成する画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly to an image processing method and a program for generating a composite image from a plurality of image frames.
ビデオカメラをはじめとする撮像装置を用いて、人間や物体等の動体を撮像することがある。この際にユーザは、動体の軌跡を一枚の合成静止画像で確認したい場合がある。例えば、ゴルフをする人間を撮像している場合、そのスイングの軌道を1枚の合成静止画像で確認したい場合がある。 An imaging device such as a video camera may be used to image a moving object such as a person or an object. At this time, the user may want to confirm the trajectory of the moving object with a single composite still image. For example, when a person who is playing golf is imaged, it may be desired to confirm the swing trajectory with a single composite still image.
特許文献1には、背景を含む動画像を対象とした場合であっても、動体の移動軌跡を含む合成画像を得ることができる動画像切り出し装置が開示されている。当該動画像切り出し装置は、N枚のフレームをサンプリングし、サンプリングしたフレーム間の相対応画素の差分の絶対値を二値化して各フレームに対応するマスクフレームを生成する。そして、動画像切り出し装置は、マスクフレームの各画素の値を累積した累積マスクフレームを生成する。さらに、動画像切り出し装置は、累積マスクフレームに対して所定閾値を用いて二値化処理を行った基準マスクフレームを生成する。その後、動画像切り出し装置は、各フレームに対応するマスクフレームと、基準マスクフレームと、を用いて画像合成を行うことにより、動体の軌跡画像を生成している。
特許文献1に記載の技術では、所定閾値を用いて2値化を行ったマスクフレーム及び基準マスクフレームを生成する。すなわち、マスクフレーム及び基準マスクフレームは、各画素について切り出し処理を行うか否かを示す2値のみが設定される。そして、2値の値が"1"となっている領域を各フレームから切り出し、切り出した画像領域を初期フレームに対して、完全に上書きしていくことにより軌跡画像を生成している。
In the technique described in
しかしながらこの方式では、閾値の設定が適切ではない場合、動体ではない箇所を切り出して完全に上書きしてしまう恐れがあり、その結果として動体の軌跡が把握できない、または誤認してしまう画像(破綻のある画像)を生成してしまう恐れがある。 However, in this method, if the threshold setting is not appropriate, there is a risk that a non-moving object will be cut out and overwritten completely, and as a result, the moving object's trajectory cannot be grasped or misunderstood. A certain image) may be generated.
本発明の一態様にかかる画像処理装置は、
N(Nは4以上の整数)枚の画像フレームの各画像フレーム間の相対応する画素の差分値を算出する差分算出部と、
前記差分算出部が算出した差分値を所定条件と比較することにより、各画素の前記差分値の大きさを2値のレベル値で示す2値化フレームを複数生成する二値化部と、
複数の前記2値化フレームにおけるレベル値を前記N枚の画像フレーム毎に積算した積算フレームを生成する累積画像生成部と、
前記積算フレームに設定されたレベル値から定まる前記N枚の画像フレーム各々の各画素の合成比率に基づき、前記N枚の画像フレームを合成した合成画像を生成する画像合成部と、を備え、
前記N枚の画像フレーム各々の各画素の合成比率の値域は、3値以上であることを特徴とするものである。
An image processing apparatus according to an aspect of the present invention includes:
A difference calculation unit that calculates a difference value of corresponding pixels between the image frames of N (N is an integer of 4 or more) image frames;
A binarization unit that generates a plurality of binarized frames indicating the magnitude of the difference value of each pixel by a binary level value by comparing the difference value calculated by the difference calculation unit with a predetermined condition;
A cumulative image generating unit that generates a summed frame obtained by summing the level values in the plurality of binarized frames for each of the N image frames;
An image synthesis unit that generates a synthesized image obtained by synthesizing the N image frames based on a synthesis ratio of each pixel of each of the N image frames determined from a level value set in the integrated frame;
The value range of the composition ratio of each pixel of each of the N image frames is three or more.
上述の本発明の一態様にかかる画像処理装置において、
前記積算フレーム内の各画素のレベル値から第1閾値を減算した値を、前記N枚の画像フレーム各々の各画素の合成比率として算出するキーフレーム生成部、を更に備えてもよい。
In the above-described image processing apparatus according to one aspect of the present invention,
The image processing apparatus may further include a key frame generation unit that calculates a value obtained by subtracting a first threshold value from a level value of each pixel in the integration frame as a synthesis ratio of each pixel of each of the N image frames.
上述の本発明の一態様にかかる画像処理装置において、
前記画像合成部は、前記積算フレームの各画素のレベル値を、そのまま前記N枚の画像フレーム各々の各画素の合成比率として用いてもよい。
In the above-described image processing apparatus according to one aspect of the present invention,
The image composition unit may use the level value of each pixel of the integrated frame as it is as a composition ratio of each pixel of the N image frames.
上述の本発明の一態様にかかる画像処理装置において、
前記画像合成部は、前記N枚の画像フレームの中で着目すべき画像フレームを示す着目フレーム情報を受信し、前記着目フレーム情報に基づいて前記N枚の画像フレームの合成順序を決定してもよい。
In the above-described image processing apparatus according to one aspect of the present invention,
The image composition unit may receive attention frame information indicating an image frame to be noted among the N image frames, and determine a composition order of the N image frames based on the attention frame information. Good.
上述の本発明の一態様にかかる画像処理装置において、
前記差分算出部は、各画像フレーム間の相対応する画素の輝度値及び色差値の差分を算出し、
前記二値化部は、輝度値及び色差値の双方を用いた条件判定を行うことにより前記2値化フレームを生成してもよい。
In the above-described image processing apparatus according to one aspect of the present invention,
The difference calculation unit calculates a difference between a luminance value and a color difference value of corresponding pixels between the image frames,
The binarization unit may generate the binarized frame by performing a condition determination using both a luminance value and a color difference value.
本発明の一態様にかかる画像処理方法は、
N(Nは4以上の整数)枚の画像フレームの各画像フレーム間の相対応する画素の差分値を算出する差分算出ステップと、
前記差分算出ステップにおいて算出した差分値を所定条件と比較することにより、各画素の前記差分値の大きさを2値のレベル値で示す2値化フレームを複数生成する二値化ステップと、
複数の前記2値化フレームにおけるレベル値を前記N枚の画像フレーム毎に積算した積算フレームを生成する累積画像生成ステップと、
前記積算フレームに設定されたレベル値から定まる前記N枚の画像フレーム各々の各画素の合成比率に基づき、前記N枚の画像フレームを合成した合成画像を生成する画像合成ステップと、を備え、
前記N枚の画像フレーム各々の各画素の合成比率の値域は、3値以上であることを特徴とするものである。
An image processing method according to an aspect of the present invention includes:
A difference calculating step of calculating a difference value of corresponding pixels between the image frames of N (N is an integer of 4 or more) image frames;
A binarization step for generating a plurality of binarized frames indicating the magnitude of the difference value of each pixel by a binary level value by comparing the difference value calculated in the difference calculation step with a predetermined condition;
A cumulative image generating step of generating a summed frame obtained by summing the level values in the plurality of binarized frames for each of the N image frames;
An image synthesis step for generating a synthesized image obtained by synthesizing the N image frames based on a synthesis ratio of each pixel of each of the N image frames determined from the level value set in the integrated frame,
The value range of the composition ratio of each pixel of each of the N image frames is three or more.
本発明の一態様にかかるプログラムは、
コンピュータに、
N(Nは4以上の整数)枚の画像フレームの各画像フレーム間の相対応する画素の差分値を算出する差分算出ステップと、
前記差分算出ステップにおいて算出した差分値を所定条件と比較することにより、各画素の前記差分値の大きさを2値のレベル値で示す2値化フレームを複数生成する二値化ステップと、
複数の前記2値化フレームにおけるレベル値を前記N枚の画像フレーム毎に積算した積算フレームを生成する累積画像生成ステップと、
前記積算フレームに設定されたレベル値から定まり、値域として3値以上を持つ前記N枚の画像フレーム各々の各画素の合成比率に基づき、前記N枚の画像フレームを合成した合成画像を生成する画像合成ステップと、
を実行させるためのものである。
The program according to one aspect of the present invention is:
On the computer,
A difference calculating step of calculating a difference value of corresponding pixels between the image frames of N (N is an integer of 4 or more) image frames;
A binarization step for generating a plurality of binarized frames indicating the magnitude of the difference value of each pixel by a binary level value by comparing the difference value calculated in the difference calculation step with a predetermined condition;
A cumulative image generating step of generating a summed frame obtained by summing the level values in the plurality of binarized frames for each of the N image frames;
An image that is determined from the level value set in the integrated frame and that generates a combined image by combining the N image frames based on a combining ratio of each pixel of the N image frames having a value range of 3 or more. A synthesis step;
Is to execute.
本発明によれば、動体の軌跡が把握できる、すなわち破綻の少ない合成画像を生成することができる画像処理装置、画像処理方法、及びプログラムを提供することができる。 According to the present invention, it is possible to provide an image processing apparatus, an image processing method, and a program capable of grasping the trajectory of a moving object, that is, capable of generating a composite image with little failure.
<実施の形態1>
以下、図面を参照して本発明の実施の形態について説明する。図1は、本実施の形態にかかる画像処理装置1の構成を示すブロック図である。画像処理装置1は、例えば動画撮像が可能なビデオカメラ等の撮像装置内に配置される。画像処理装置1は、画像記憶部10と、選択部20と、差分算出部30と、二値化部40と、積算部50と、画像合成部60と、を備える。画像処理装置1は、予め蓄積された動画像データの画像フレームを抽出し、各画像フレーム間の差分に応じた合成画像を生成する装置である。例えば、画像処理装置1は、投げたボールの軌跡やゴルフスイングの軌跡を示す合成画像を生成する。以下の説明では、画像処理装置1が4枚の画像フレームを基に合成画像を生成する例を説明するが、必ずしもこれに限られず、例えば10枚等の多数の画像フレームから合成画像を生成しても良い。すなわち、画像処理装置1は、N(Nは4以上の整数)枚の画像フレームから合成画像を生成する。画像処理装置1は、被写体の性質に合わせて合成する画像フレームの枚数を適宜変更すればよい。
<
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an
画像記憶部10は、動画像データを画像フレーム毎に記憶する。画像記憶部10は、例えばDRAM(Dynamic Random Access Memory)等により構成すればよい。また、画像記憶部10は、画像処理装置1に着脱可能なUSB(Universal Serial Bus)メモリ等により構成しても良い。各画像フレームの画像サイズは同一とする。各画像フレームは、各画素についてのRGB値を保持しており、当該RGB値は公知の変換式を用いて輝度及び色差に変換可能である。
The
選択部20は、画像記憶部10から合成画像の生成に用いる画像フレームを4枚選択し、差分算出部30及び画像合成部60に供給する。以下の説明において、選択部20は、図2に示す4枚の画像フレームを選択する。
The
図2は、動画像データにかかる4枚の画像フレームを示す図である。各画像フレームは、円形の動体が動く動画像データに関するものである。各画像フレームでは、撮像された動体を斜線で示し、他の画像フレームにおける動体の位置を破線で示している。背景色は同一色であるものとする。各画像フレームの撮像順序は、画像フレーム1(Fr1)、画像フレーム2(Fr2)、画像フレーム3(Fr3)、画像フレーム4(Fr4)となる。そのため、動体は時間が進むにつれて右方向に移動し、その移動速度が徐々に減速している。 FIG. 2 is a diagram showing four image frames related to moving image data. Each image frame relates to moving image data in which a circular moving object moves. In each image frame, the captured moving object is indicated by diagonal lines, and the position of the moving object in other image frames is indicated by broken lines. The background color is the same color. The imaging order of each image frame is image frame 1 (Fr1), image frame 2 (Fr2), image frame 3 (Fr3), and image frame 4 (Fr4). Therefore, the moving body moves to the right as time advances, and the moving speed is gradually decelerated.
差分算出部30は、供給された4枚の画像フレーム間の相対応する画素間における差分値を抽出する処理部である。まず、差分算出部30は、画像フレームの組を全て抽出する。すなわち、差分算出部30は、12組(N×(N−1))の組合せ((Fr1,Fr2)〜(Fr4,Fr1))を抽出する。そして、差分抽出部30は、各組合せにおける相対応する画素の画像信号の差分を算出する。ここで、差分抽出部30は、相対応する画素の色差の差分値、及び輝度の差分値の双方を算出する。差分算出部30は、算出した差分値を二値化部40に供給する。
The
二値化部40は、差分算出部30が算出した差分値を所定の条件と比較することにより、各画素を2値(所定条件を満たす画素を1、その他の画素を0)のレベル値で示す2値化フレーム(Δ(Fr1,Fr2)〜Δ(Fr4,Fr1))を算出する。各画素に設定される2値のレベル値は、比較対象の画像フレームの相対応する画素との画素差分が大きいか否かを示す。ここで二値化部40は、各画素の色差の差分値、及び輝度の差分値の双方を考慮して2値化を行う。例えば、色差の差分値と輝度の差分値を乗算した乗算値の絶対値が閾値以上であるか否かに応じて2値化を行っても良い。また、色差の差分値の絶対値をある閾値と比較し、輝度の差分値の絶対値を別の閾値と比較し、双方ともに閾値以上であるか否かに応じて2値化を行っても良い。すなわち、二値化部40は、異なる画像フレームを比較した場合に、少なくとも1つの領域が条件を満たすような所定条件を用いて2値化を行えばよい。
The
なお、二値化部40は、精度は落ちるものの、輝度の差分値または色差の差分値のいずれか一方のみを用いて二値化処理を行っても良い。
Note that the
図3は、二値化部40が生成した2値化フレーム(Δ(Fr1,Fr2)〜Δ(Fr4,Fr1))を示す図である。例えば、Δ(Fr1,Fr2)では、2つの円形領域のレベル値が1となり、それ以外の領域のレベル値は0となっている。二値化部40は、各画像フレーム(Fr1〜Fr4)について3種類の2値化フレームを算出する。二値化部40は、算出した全ての2値化フレーム(Δ(Fr1,Fr2)〜Δ(Fr4,Fr1))を積算部50に供給する。
FIG. 3 is a diagram illustrating binarized frames (Δ (Fr1, Fr2) to Δ (Fr4, Fr1)) generated by the
積算部50は、2値化フレーム(Δ(Fr1,Fr2)〜Δ(Fr4,Fr1))を用いて各画像フレーム(Fr1〜Fr4)についての積算フレーム(SumΔ(Fr1)〜SumΔ(Fr4))を算出する。図4は、積算フレーム(SumΔ(Fr1)〜SumΔ(Fr4))を示す概念図である。積算部50は、各画像フレーム(Fr1〜Fr4)に関する2値化フレーム(Δ(Fr1,Fr2)〜Δ(Fr4,Fr1))内のレベル値(1または0)を画素毎に積算する。例えば、積算部50は、以下の算出式に示すように、フレーム1(Fr1)についてΔ(Fr1,Fr2)、Δ(Fr1,Fr3)、Δ(Fr1,Fr4)の相対応する画素のレベル値の積算値を求めることにより積算フレームSumΔ(Fr1)を算出する。
SumΔ(Fr1) = Δ(Fr1,Fr2) + Δ(Fr1,Fr3) + Δ(Fr1,Fr4)
The integrating
SumΔ (Fr1) = Δ (Fr1, Fr2) + Δ (Fr1, Fr3) + Δ (Fr1, Fr4)
積算部50は、その他の画像フレーム(Fr2〜4)についても同様の手法により積算フレームSumΔ(Fr2)〜SumΔ(Fr4)を算出する。積算部50は、算出した積算フレームSumΔ(Fr1)〜SumΔ(Fr4)を画像合成部60に供給する。
The
画像合成部60は、選択部20から供給された4枚の画像フレーム(Fr1〜Fr4)を、積算部50から供給された積算フレームSumΔ(Fr1)〜SumΔ(Fr4)を用いて合成する。画像合成部60による合成手順を図5を参照し、説明する。図5は、画像合成部60による画像合成過程を示す図である。なお、説明の便宜のため、図5の初期フレーム(Fr1)に領域名を記載する(領域A1〜A5)。図5内における"bg"とはバックグラウンドの略であり、背景色を示す。
The
積算フレームSumΔ(Fr1)〜SumΔ(Fr4)における各画素のレベル値の値域は、0〜3である。画像合成部60は、このレベル値を合成比率として用いる。詳細には、レベル0の画素の合成比率は0%、レベル1の画素の合成比率は33.3%、レベル2の画素の合成比率は66.7%、レベル3の画素の合成比率は100%となる。
The range of the level value of each pixel in the integration frames SumΔ (Fr1) to SumΔ (Fr4) is 0 to 3. The
はじめに画像合成部60は、初期画像フレームとして画像フレーム1(Fr1)を選択し、この初期画像フレーム(Fr1)に各画像フレームを合成していく。画像合成部60は、画像フレーム2(Fr2)にかかる積算フレームSumΔ(Fr2)を参照し、各画素のレベル値に応じて画像フレーム2(Fr2)の合成を行う。レベル0の画素については、処理を行わない。レベル1の画素については、画像フレーム2(Fr2)のRGB値を33.3(33.33333−,以下同様)%、画像フレーム1(Fr1)の箇所のRGB値を66.7(66.666−,以下同様)%の割合で合成する。レベル2の画素については、画像フレーム2(Fr2)のRGB値を66.7%、画像フレーム1(Fr1)の箇所のRGB値を33.3%の割合で合成する。レベル3の画素については、元の画素のRGB値(この場合、画像フレーム1(Fr1)のRGB値)を画像フレーム2(Fr2)のRGB値で置換する。例えば領域A1については、画像フレーム1(Fr1)のRGB値に66.7%を掛け合わせた値と、画像フレーム2(Fr2)のRGB値(すなわち背景色)に33.3%を掛け合わせた値と、を足し合わせる。領域A1の画像フレーム1(Fr1)のRGB値が(120,150,180)であり、領域A1の画像フレーム2(Fr2)のRGB値(背景色のRGB値)が(90,90,90)である場合、当該領域A1のRGB値は(110,130,150)となる。このようにして、画像処理部60は、初期画像フレーム(Fr1)と画像フレーム2(Fr2)の合成画像フレーム(Fr1+Fr2)を生成する。
First, the
画像合成部60は、同様の手法で合成画像フレーム(Fr1+Fr2)と画像フレーム3(Fr3)との合成画像フレーム(Fr1+Fr2+Fr3)を生成する。例えば、領域A1については合成画像フレーム(Fr1+Fr2)のRGB値を66.7%、画像フレーム3(Fr3)のRGB値を33.3%の割合で合成する。この結果、領域A1の合成比率は画像フレーム1(Fr1)のRGB値が44.4%、背景色のRGB値が55.5%の割合となる。
The
画像合成部60は、同様の手法で合成画像フレーム(Fr1+Fr2+Fr3)と画像フレーム4(Fr4)を合成し、最終的な合成画像(Fr1+Fr2+Fr3+Fr4)を生成する。生成した合成画像の各領域の合成比率は、図5に示す通りとなる。画像合成部60は、生成した合成画像を任意の記憶装置や表示装置(液晶ディスプレイ等)に出力する。ユーザは、この合成画像を参照することにより、動体の軌跡を確認する。
The
上述の説明では、画像合成部60は、時系列の順序で画像フレームの合成処理(Fr1から順に合成を行う)を行ったが必ずしもこれに限られず、合成順序は順不同である。例えば、画像合成部60は、画像フレーム4(Fr4)、画像フレーム3(Fr3)、画像フレーム2(Fr2)、画像フレーム1(Fr1)の順序で合成を行っても良い。同様に、画像合成部60は、画像フレーム2(Fr2)、画像フレーム4(Fr4)、画像フレーム3(Fr3)、画像フレーム1(Fr1)の順序で合成を行っても良い。
In the above description, the
なお、画像合成部60は、ユーザから着目すべき画像フレームの情報(着目フレーム情報)を受信し、当該着目フレーム情報に応じて画像フレームの合成順序を定めても良い。以下、詳細を説明する。
Note that the
ユーザは、画像処理装置1と一体化された入力装置(マウス、キーボード等)、または画像処理装置1と接続可能な入力装置を用いて着目フレーム情報を入力する。例えば、ゴルフスイングの合成画像を生成する場合、ユーザは、フォロースルーを重点的に確認したい場合にはフォロースルーに関する画像フレームの識別子を入力する。または、ユーザは合成対象の全画像フレームのうち、「前半」、「中盤」、「後半」といった抽象的な画像フレームの順序を入力しても良い。この場合、画像合成部60は、ユーザの入力(「前半」、「中盤」、「後半」)を基に着目すべき画像フレームを一つに特定する。
The user inputs the frame information of interest using an input device (such as a mouse or a keyboard) integrated with the
画像合成部60は、入力された着目フレーム情報を基に画像フレームの合成順序を決定する。例えば9枚の画像フレーム(Fr1〜Fr9)を合成する場合であって、着目フレーム情報として時系列順序の8枚目の画像フレーム(Fr8)が設定された場合、画像合成部60は、8枚目の画像フレーム(Fr8)が最後に合成され、8枚目の画像フレームから時間間隔が離れた画像フレームほど早く合成が行われるように画像フレームの合成順序を定める。すなわち、画像合成部60は、Fr1,Fr2,Fr3,Fr4,Fr5,Fr6,Fr7(またはFr9),Fr9(またはFr7),Fr8という順序を画像フレームの合成順序と定める。画像合成部60は、決定した合成順序に基づいて合成処理を行う。
The
上述のように画像合成部60が着目フレーム情報に応じて画像フレームの合成順序を定めることにより、ユーザが最も確認したい画像フレームの合成順序が最後となる。すなわち、確認したい画像フレームの合成が終了した後に、他の画像フレームが合成される恐れが無くなる。これにより、着目したい画像フレームが鮮明に表示された合成画像を得ることができる。
As described above, the
以上、本実施の形態にかかる画像処理装置1について説明した。続いて、従来の技術(特許文献1)の技術を比較例とし、本実施の形態にかかる画像処理装置1の効果について説明する。
The
特許文献1の技術を用いた場合、差分値から2値化を行う際の閾値、及び累積マスクフレームから基準マスクフレームを生成する際の閾値、の設定が非常に重要となる。この閾値の設定を誤った場合、ある画像フレームから意図しない領域を切り出し、当該領域を用いた上書き処理をしてしまう。これにより、動体の軌道が把握できない、または誤認してしまう破綻のある合成画像を生成してしまう。
When the technique of
一方、本実施の形態にかかる画像処理装置1は、積算フレームを用いて画像合成を行う。画像処理装置1は、4枚以上の画像フレームを対象としている。そのため、生成する積算フレームに規定された各画素の合成比率の値域が3値以上となる。画像合成部60は、この各画素の合成比率を2値化することなく、そのまま画像合成に用いる。すなわち、画像合成部60は、各画像フレームを切り出すか切り出さないかを示す2値では無く、各画像フレームの画素値(上述の例ではRGB値)をどの程度用いて合成するかを示す合成比率を用いて合成を行う。これにより、画像処理装置1は、意図しない領域を画像フレームから切り出して、当該領域を用いた上書き処理を行うことを回避することができる。そのため、動体の軌跡が把握できなくなる、または誤認するような破綻のある合成画像を生成することを回避することができる。
On the other hand, the
上述の説明では幾何的な動体が単純に移動する例(図2〜図5)を用いて説明したが、画像処理装置1が合成対象とする自然画は、動体の移動方向や移動速度の変化が非常に複雑である。例えば、ゴルフスイングの合成画像を生成する場合、ドライバヘッドの移動量は大きいが、ゴルファーの体の軸の移動量は小さい。そのため、特許文献1に記載の技術を用いる場合、上述の閾値の設定に高度なノウハウを要することになり、実際には破綻のある合成画像を生成してしまうケースが非常に多いと考えられる。一方、本実施の形態にかかる画像処理装置1は、このような複雑な自然画にかかる画像フレームを合成対象とした場合であっても、合成比率に一定の幅があるため、破綻の少ない合成画像を生成することができる。
In the above description, the example in which the geometric moving object simply moves (FIGS. 2 to 5) has been described. However, the natural image to be synthesized by the
さらに、本実施の形態にかかる合成画像の生成処理は、複雑なアルゴリズムを用いた計算等を行う必要がない。そのため、画像処理装置1の処理負荷が少なく、かつ短い時間で合成画像を生成することができる。
Furthermore, the composite image generation processing according to the present embodiment does not require calculation using a complicated algorithm. For this reason, the processing load on the
<実施の形態2>
本実施の形態にかかる画像処理装置1は、積算フレームに対してレベルシフト処理を行うことを特徴とする。本実施の形態にかかる画像処理装置1について実施の形態1と異なる点を説明する。なお、以下の説明において、同一の符号を付して特に言及しない処理部は、実施の形態1と同一の処理を行うものとする。また、本実施の形態でも、図2に示す4枚の画像フレームを合成対象とする。
<
The
図6は、本実施の形態にかかる画像処理装置1の構成を示すブロック図である。画像処理装置1は、図1に示す構成に加えて、キーフレーム生成部70を更に備える。積算部50は、生成した各画像フレーム(Fr1〜Fr4)に対応する積算フレーム(SumΔ(Fr1)〜SumΔ(Fr4))を画像合成部60ではなく、キーフレーム生成部70に供給する。
FIG. 6 is a block diagram showing a configuration of the
キーフレーム生成部70は、供給された積算フレーム(SumΔ(Fr1)〜SumΔ(Fr4))を、所定の閾値(以下、第1閾値と記載する。)を用いて減算(レベルシフト)したキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))を生成する。以下、図7を参照してキーフレームの生成概念について説明する。
The key
図7(a)は、図4に示す積算フレーム(SumΔ(Fr1)〜SumΔ(Fr4))である。キーフレーム生成部70は、積算フレーム(SumΔ(Fr1)〜SumΔ(Fr4))のレベル値から第1閾値を減算したキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))を生成する。詳細には、キーフレーム生成部70は、レベル値として第1閾値以上の値を持つレベル値から第1閾値を減算することによりキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))を生成する。図7(b)は、図7(a)に示す積算フレーム(SumΔ(Fr1)〜SumΔ(Fr4)から第1閾値として1を減算して生成したキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))である。キーフレーム生成部70は、生成したキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))を画像合成部60に供給する。
FIG. 7A is an integration frame (SumΔ (Fr1) to SumΔ (Fr4)) shown in FIG. The key
ここで、キーフレーム生成部70が使用する第1閾値は、キーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))内のレベル値の値域が3値以上になるような正の整数に設定する。例えば、図7の例では、第1閾値を1に設定し、2以上を設定しないようにする。
Here, the first threshold value used by the key
画像合成部60は、供給されたキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))を用いて画像フレームの合成処理を行う。合成方法は、実施の形態1と同様である。図8は、図7(b)に示すキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))を用いた画像合成過程を示す図である。
The
キーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr4))における各画素のレベル値の値域は、0〜2である。このレベル値を合成比率として用いる。すなわち、レベル0の画素の合成比率は0%、レベル1の画素の合成比率は50%、レベル2の画素の合成比率は100%となる。合成処理は、図5と同様であるためその詳細は省略する。
The range of the level value of each pixel in the key frame (KeyΔ (Fr1) to KeyΔ (Fr4)) is 0-2. This level value is used as the composition ratio. That is, the synthesis ratio of
生成した合成画像(Fr1+Fr2+Fr3+Fr4)の各領域の合成比率は、図8に示す通りとなる。画像合成部60は、生成した合成画像を任意の記憶装置や表示装置(液晶ディスプレイ等)に出力する。
The composition ratio of each region of the generated composite image (Fr1 + Fr2 + Fr3 + Fr4) is as shown in FIG. The
続いて、図9を参照してキーフレーム生成の意義について説明する。図9は、積算フレーム作成とキーフレーム作成の概念を示す図である。図9では説明の容易化のため、3枚の画像フレーム(FrA,FrB,FrC)を用いた説明を行う。 Next, the significance of key frame generation will be described with reference to FIG. FIG. 9 is a diagram illustrating the concept of integrated frame creation and key frame creation. In FIG. 9, for ease of explanation, explanation is made using three image frames (FrA, FrB, FrC).
二値化部30は、上述の手法により二値化フレームΔ(FrA,FrB)を生成する。この際、図9に示すように、画像フレーム(FrA)を基準とした二値化フレームを生成しているにもかかわらず、二値化フレームΔ(FrA,FrB)において画像フレーム(FrB)に特有の領域に1(差分が大きい)が設定される。同様に、二値化フレームΔ(FrA,FrC)において、画像フレーム(FrC)に特有の領域に1(差分が大きい)が設定される。これらの二値化フレームを積算した積算フレームSumΔ(FrA)には、比較対象の画像フレーム(FrB,FrC)特有の領域(図中の四角で囲んだ領域)に1が設定される。
The
キーフレーム生成部70は、積算フレームSumΔ(FrA)に対して第1閾値として1を減算(レベルシフト)し、キーフレームKeyΔ(FrA)を生成する。この減算により、比較対象の画像フレーム(FrB,FrC)の特有の領域の影響を小さくすることができる。すなわち、キーフレームΔ(FrA)は、積算フレームSumΔ(FrA)と比べて画像フレーム(FrA)の特有の領域のみを的確に表現できるようになる。このように生成したキーフレームΔ(FrA)を用いて画像合成を行うことにより、より精度の高い合成画像を得ることができる。例えば、実施の形態1の手法で生成した合成画像(図5におけるFr1+Fr2+Fr3+Fr4)と、実施の形態2の手法で生成した合成画像(図8におけるFr1+Fr2+Fr3+Fr4)と、を比較した場合、後者の合成画像の方が円形の移動体をより鮮明に表示した軌跡画像となる。
The key
続いて、本実施の形態にかかる画像処理装置1が生成した合成画像と、特許文献1に記載の動画像切り出し装置が生成した合成画像と、の比較を行う。はじめに、特許文献1に記載の動画像切り出し装置の処理概要を、図10を参照して改めて説明する。
Subsequently, the composite image generated by the
動画像切り出し装置は、閾値を用いて2値化したマスクフレーム(図10(a))を用いて合成画像の生成を行う。この動画像切り出し装置による画像合成過程を図10(b)に示す。この動画像切り出し装置は、合成元の画像フレームの画素値を100%用いるか、合成する画像フレームの画素値を100%用いる(上書きを行う)。そのため、上述の閾値の設定が適切である場合には良好な合成画像を得られるが、不適切である場合には意図しない合成画像が生成される。 The moving image clipping device generates a composite image using a mask frame binarized using a threshold value (FIG. 10A). FIG. 10B shows an image composition process by the moving image clipping device. This moving image clipping device uses 100% of the pixel value of the image frame as the composition source, or uses 100% of the pixel value of the image frame to be synthesized (overwriting). Therefore, a good composite image can be obtained when the above-described threshold setting is appropriate, but an unintended composite image is generated when it is inappropriate.
以下、簡単な例を用いて本実施の形態にかかる画像処理装置1が生成した合成画像と、特許文献1に記載の動画像切り出し装置が生成した合成画像と、を比較する。図11に示すような幅が4の矩形物体が画像フレーム単位で1マスずつ移動する動画像データについて検討する。合成画像は、10枚の画像フレームから生成するものとする。なお、説明の明確化のため、RGB値では無く、矩形物体に1、それ以外の領域に0の画素値が設定されているものとして検討する。
Hereinafter, the composite image generated by the
図12(a)は、矩形物体の移動状態を示す。図示するように、矩形物体が画像フレーム毎に1マスだけ右に移動している。図12(b)は、生成した積算フレームSumΔ(Fr1)〜SumΔ(Fr10)を示す。図13(a)は図12(b)に示す積算フレームから第1閾値として3を減算して生成したキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr10))を示す図であり、図13(b)は図12(b)に示す積算フレームから第1閾値として4を減算して生成したキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr10))を示す図である。 FIG. 12A shows the moving state of the rectangular object. As shown in the figure, the rectangular object moves to the right by one square for each image frame. FIG. 12B shows the generated integrated frames SumΔ (Fr1) to SumΔ (Fr10). FIG. 13A is a diagram showing key frames (KeyΔ (Fr1) to KeyΔ (Fr10)) generated by subtracting 3 as the first threshold value from the integrated frame shown in FIG. 12B. ) Is a diagram showing key frames (KeyΔ (Fr1) to KeyΔ (Fr10)) generated by subtracting 4 as the first threshold value from the integrated frame shown in FIG. 12B.
図14(a)は、図13(a)に示すキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr10))から算出した、本実施の形態にかかる画像合成部60が用いる各画像フレームの合成比率(k1〜k10,%表示)を示す。図13(a)に示すキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr10))は値域が6であるため、各欄を6で除算することにより各画像フレームの合成比率(k1〜k10,%表示)が算出される。図14(b)は、図13(a)に示すキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr10))を用いて算出した特許文献1にかかる合成比率である。当該合成比率は、0より大きい値を持つ欄に100%が設定され、0である欄に0%が設定される。
FIG. 14A shows a composition ratio of each image frame used by the
図15(a)は、図13(b)に示すキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr10))から算出した、本実施の形態にかかる各画像フレームの合成比率(k1〜k10,%表示)を示す。図14(b)は、図13(b)に示すキーフレーム(KeyΔ(Fr1)〜KeyΔ(Fr10))を用いて算出した特許文献1にかかる合成比率である。
FIG. 15A shows a composite ratio (k1 to k10,% display) of each image frame according to the present embodiment calculated from the key frames (KeyΔ (Fr1) to KeyΔ (Fr10)) shown in FIG. 13B. ). FIG. 14B shows the composition ratio according to
なお、初期画像フレームは、画像フレーム1(Fr1)を想定している。そのため、図14及び図15において、k1の各欄には100%が設定される。図12〜図15において、太線枠内が矩形物体の位置を示す。また、合成順序は、時系列の順序(Fr1⇒Fr2⇒…⇒Fr10)とする。 Note that the initial image frame is assumed to be image frame 1 (Fr1). Therefore, in FIGS. 14 and 15, 100% is set in each column of k1. 12 to 15, the inside of the thick line frame indicates the position of the rectangular object. The synthesis order is a time-series order (Fr1 → Fr2 →... → Fr10).
まず、第1閾値を3にした場合(積算フレームの各画画素のレベル値から3だけ減算した場合)の合成処理について検討する。図14(b)から明らかなように、特許文献1の技術では、上書きすべきではない領域についても完全に上書き処理を行ってしまう(たとえば、合成比率k2の太線枠外の欄に100%が設定されている)。すなわち、矩形領域の画素値(1)が設定されるべき領域に、背景色の画素値(0)が設定されてしまう。一方、本実施の形態にかかる方式では、図14(a)に示すように、ある程度の比率で画像フレームの画素値が混合される。この際、矩形物体に対応する画素値の混合比率は高く、背景色の混合比率は低い。そのため、矩形物体が移動する軌跡を確認可能な合成画像を得ることができる。
First, a synthesis process when the first threshold value is 3 (when 3 is subtracted from the level value of each image pixel in the integrated frame) will be considered. As is apparent from FIG. 14B, the technique of
次に、第1閾値を4にした場合(積算フレームの各画素のレベル値から4だけ減算した場合)の合成処理について検討する。図15(b)から明らかなように、特許文献1の技術では、矩形領域以外の合成比率が0%となっている。そのため、所望の合成画像を得ることができる。一方、本実施の形態にかかる方式では、図15(a)に示すように、100%の精度ではないものの、ある程度の比率で各画像フレームの矩形領域内の画素値が混合される。そのため、矩形物体が鮮明に表示された合成画像ではないものの、矩形物体が移動する軌跡を確認可能な合成画像を得ることができる。
Next, a synthesis process when the first threshold value is 4 (when 4 is subtracted from the level value of each pixel of the integrated frame) will be considered. As is apparent from FIG. 15B, in the technique of
次に、本実施の形態にかかる方式で生成した合成画像と特許文献1に記載の方式で生成した合成画像をグラフ形式で示す。図16は、図11に示す動画像データを対象として生成された合成画像の画素値を示すグラフである。当該グラフの横軸は合成画像の横方向の座標を示し、縦軸は画素値を示す。
Next, a composite image generated by the method according to the present embodiment and a composite image generated by the method described in
図16(a)は、本実施の形態にかかる方式で生成した(図14(a)に示す合成比率または図15(a)に示す合成比率を用いて生成した)合成画像を示すグラフである。グラフ内には、期待値を示す折れ線(EXP)も併せて表示する。図16(b)は、特許文献1に記載の方式で生成した(図14(b)に示す合成比率または図15(b)に示す合成比率を用いて生成した)合成画像を示すグラフである。 FIG. 16A is a graph showing a composite image generated by the method according to the present embodiment (generated using the composite ratio shown in FIG. 14A or the composite ratio shown in FIG. 15A). . A broken line (EXP) indicating an expected value is also displayed in the graph. FIG. 16B is a graph showing a composite image generated by the method described in Patent Document 1 (generated using the composite ratio shown in FIG. 14B or the composite ratio shown in FIG. 15B). .
なお、確認として、本実施の形態にかかる方式における各座標の算出値の算出方法を以下に説明する。例えば、第1閾値を3であり、横軸が5の場合、図14(a)に記載の合成比率を用いた以下の算出を行い、最終的な算出値(0.33)を算出する。
1×1=1
1×(1−(1/2))+1×(1/2)=1
1×(1−(1/2))+1×(1/2)=1
1×(1−(1/2))+1×(1/2)=1
1×(1−(1/6))+0×(5/6)=(5/6)
(5/6)×(1−(1/6))+0×(5/6)=(25/36)
(25/36)×(1−(1/6))+0×(5/6)=(125/216)
(125/216)×(1−(1/6))+0×(5/6)=(625/1296)
(625/1296)×(1−(1/6))+0×(5/6)=(3125/7776)
(3125/7776)×(1−(1/6))+0×(5/6)=(15625/46656)=0.3349
As a confirmation, the calculation method of the calculated value of each coordinate in the method according to the present embodiment will be described below. For example, when the first threshold is 3 and the horizontal axis is 5, the following calculation using the composition ratio shown in FIG. 14A is performed to calculate the final calculated value (0.33).
1 × 1 = 1
1 * (1- (1/2)) + 1 * (1/2) = 1
1 * (1- (1/2)) + 1 * (1/2) = 1
1 * (1- (1/2)) + 1 * (1/2) = 1
1 × (1− (1/6)) + 0 × (5/6) = (5/6)
(5/6) × (1− (1/6)) + 0 × (5/6) = (25/36)
(25/36) × (1− (1/6)) + 0 × (5/6) = (125/216)
(125/216) × (1- (1/6)) + 0 × (5/6) = (625/1296)
(625/1296) × (1- (1/6)) + 0 × (5/6) = (3125/7777)
(3125/7777) × (1− (1/6)) + 0 × (5/6) = (15625/46656) = 0.3349
図16内の両グラフ((a),(b))を比較すると明らかなように、特許文献1に記載の方式では閾値が適切な場合には良好な合成画像を得ることができる。しかし、閾値が適切ではない場合には極端にグラフの形状が崩れる、すなわち生成される合成画像の各画素の画素値が意図しない値となる。一方、本実施の形態にかかる方式では閾値が適切でない場合であっても極端にグラフの形状が崩れることがない、すなわち生成される合成画像を参照することにより矩形物体の動きを把握することができる。
As is clear from comparison between the two graphs ((a) and (b)) in FIG. 16, the method described in
以上、本発明を上記実施形態に即して説明したが、上記実施形態の構成にのみ限定されるものではなく、本願特許請求の範囲の請求項の発明の範囲内で当業者であればなし得る各種変形、修正、組み合わせを含むことは勿論である。例えば、上述の説明では色空間としてRGBを想定したが、必ずしもこれに限られず他の色空間(YUV,CMY等)にも本発明を応用することができる。 Although the present invention has been described with reference to the above embodiment, the present invention is not limited to the configuration of the above embodiment, and can be made by those skilled in the art within the scope of the invention of the claims of the claims of the present application. It goes without saying that various modifications, corrections, and combinations are included. For example, in the above description, RGB is assumed as the color space. However, the present invention is not necessarily limited to this, and the present invention can be applied to other color spaces (YUV, CMY, etc.).
上述の選択部20、差分算出部30、二値化部40、積算部50、画像合成部60、及びキーフレーム生成部70の各処理は、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
Each processing of the
また、コンピュータが上述の実施の形態の機能を実現するプログラムを実行することにより、上述の実施の形態の機能が実現される場合だけでなく、このプログラムが、コンピュータ上で稼動しているOS(Operating System)もしくはアプリケーションソフトウェアと共同して、上述の実施の形態の機能を実現する場合も、本発明の実施の形態に含まれる。さらに、このプログラムの処理の全てもしくは一部がコンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットによって行われて、上述の実施の形態の機能が実現される場合も、本発明の実施の形態に含まれる。 In addition to the case where the function of the above-described embodiment is realized by the computer executing the program that realizes the function of the above-described embodiment, this program is not limited to the OS ( A case where the functions of the above-described embodiment are realized in cooperation with an operating system or application software is also included in the embodiment of the present invention. Furthermore, the present invention is also applicable to the case where the functions of the above-described embodiment are realized by performing all or part of the processing of the program by a function expansion board inserted into the computer or a function expansion unit connected to the computer. It is included in the embodiment.
1 画像処理装置
10 画像記憶部
20 選択部
30 差分算出部
40 二値化部
50 積算部
60 画像合成部
70 キーフレーム生成部
DESCRIPTION OF
Claims (7)
前記差分算出部が算出した差分値を所定条件と比較することにより、各画素の前記差分値の大きさを2値のレベル値で示す2値化フレームを複数生成する二値化部と、
複数の前記2値化フレームにおけるレベル値を前記N枚の画像フレーム毎に積算した積算フレームを生成する累積画像生成部と、
前記積算フレームに設定されたレベル値から定まる前記N枚の画像フレーム各々の各画素の合成比率に基づき、前記N枚の画像フレームを合成した合成画像を生成する画像合成部と、を備え、
前記N枚の画像フレーム各々の各画素の合成比率の値域は、3値以上であることを特徴とする画像処理装置。 A difference calculation unit that calculates a difference value of corresponding pixels between the image frames of N (N is an integer of 4 or more) image frames;
A binarization unit that generates a plurality of binarized frames indicating the magnitude of the difference value of each pixel by a binary level value by comparing the difference value calculated by the difference calculation unit with a predetermined condition;
A cumulative image generating unit that generates a summed frame obtained by summing the level values in the plurality of binarized frames for each of the N image frames;
An image synthesis unit that generates a synthesized image obtained by synthesizing the N image frames based on a synthesis ratio of each pixel of each of the N image frames determined from a level value set in the integrated frame;
The image processing apparatus according to claim 1, wherein a value range of a composition ratio of each pixel of each of the N image frames is three or more.
前記二値化部は、輝度値及び色差値の双方を用いた条件判定を行うことにより前記2値化フレームを生成することを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。 The difference calculation unit calculates a difference between a luminance value and a color difference value of corresponding pixels between the image frames,
The image according to any one of claims 1 to 4, wherein the binarization unit generates the binarized frame by performing a condition determination using both a luminance value and a color difference value. Processing equipment.
前記差分算出ステップにおいて算出した差分値を所定条件と比較することにより、各画素の前記差分値の大きさを2値のレベル値で示す2値化フレームを複数生成する二値化ステップと、
複数の前記2値化フレームにおけるレベル値を前記N枚の画像フレーム毎に積算した積算フレームを生成する累積画像生成ステップと、
前記積算フレームに設定されたレベル値から定まる前記N枚の画像フレーム各々の各画素の合成比率に基づき、前記N枚の画像フレームを合成した合成画像を生成する画像合成ステップと、を備え、
前記N枚の画像フレーム各々の各画素の合成比率の値域は、3値以上であることを特徴とする画像処理方法 A difference calculating step of calculating a difference value of corresponding pixels between the image frames of N (N is an integer of 4 or more) image frames;
A binarization step for generating a plurality of binarized frames indicating the magnitude of the difference value of each pixel by a binary level value by comparing the difference value calculated in the difference calculation step with a predetermined condition;
A cumulative image generating step of generating a summed frame obtained by summing the level values in the plurality of binarized frames for each of the N image frames;
An image synthesis step for generating a synthesized image obtained by synthesizing the N image frames based on a synthesis ratio of each pixel of each of the N image frames determined from the level value set in the integrated frame,
An image processing method characterized in that a value range of a composition ratio of each pixel of each of the N image frames is three or more.
N(Nは4以上の整数)枚の画像フレームの各画像フレーム間の相対応する画素の差分値を算出する差分算出ステップと、
前記差分算出ステップにおいて算出した差分値を所定条件と比較することにより、各画素の前記差分値の大きさを2値のレベル値で示す2値化フレームを複数生成する二値化ステップと、
複数の前記2値化フレームにおけるレベル値を前記N枚の画像フレーム毎に積算した積算フレームを生成する累積画像生成ステップと、
前記積算フレームに設定されたレベル値から定まり、値域として3値以上を持つ前記N枚の画像フレーム各々の各画素の合成比率に基づき、前記N枚の画像フレームを合成した合成画像を生成する画像合成ステップと、
を実行させるためのプログラム。 On the computer,
A difference calculating step of calculating a difference value of corresponding pixels between the image frames of N (N is an integer of 4 or more) image frames;
A binarization step for generating a plurality of binarized frames indicating the magnitude of the difference value of each pixel by a binary level value by comparing the difference value calculated in the difference calculation step with a predetermined condition;
A cumulative image generating step of generating a summed frame obtained by summing the level values in the plurality of binarized frames for each of the N image frames;
An image that is determined from the level value set in the integrated frame and that generates a combined image by combining the N image frames based on a combining ratio of each pixel of the N image frames having a value range of 3 or more. A synthesis step;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012083644A JP5772684B2 (en) | 2012-04-02 | 2012-04-02 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012083644A JP5772684B2 (en) | 2012-04-02 | 2012-04-02 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013214181A JP2013214181A (en) | 2013-10-17 |
JP5772684B2 true JP5772684B2 (en) | 2015-09-02 |
Family
ID=49587463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012083644A Active JP5772684B2 (en) | 2012-04-02 | 2012-04-02 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5772684B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3753232B2 (en) * | 2001-03-30 | 2006-03-08 | オムロン株式会社 | Motor motion analysis support device |
JP4307910B2 (en) * | 2003-03-07 | 2009-08-05 | 富士フイルム株式会社 | Moving image clipping device and method, and program |
-
2012
- 2012-04-02 JP JP2012083644A patent/JP5772684B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013214181A (en) | 2013-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5847924B2 (en) | 2D image capture for augmented reality representation | |
US10474918B2 (en) | Image processing apparatus, image processing method, and storage medium | |
WO2018139461A1 (en) | Moving object detection device, moving object detection method and storage medium | |
US10095919B2 (en) | Image processing apparatus, image processing method and storage medium to suitably clip a subject region from a moving image | |
US20150009216A1 (en) | Storage medium, image processing apparatus, image processing system and image processing method | |
JP2006195525A (en) | Apparatus and program for adding video object locus | |
US20190066734A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2020009447A (en) | Method and device for augmenting reality | |
KR20160016812A (en) | Image edits propagation to underlying video sequence via dense motion fields | |
CN107431742B (en) | Image processing apparatus, image processing system, and image processing method | |
JP5772684B2 (en) | Image processing apparatus, image processing method, and program | |
CN112887623B (en) | Image generation method and device and electronic equipment | |
US20130136342A1 (en) | Image processing device and image processing method | |
JP2020107170A (en) | Annotation device, learning model, image sensor, annotation method, and computer program | |
JP2015180048A (en) | Image processing device and image processing method | |
WO2018154827A1 (en) | Image processing device, image processing system and program | |
WO2020194664A1 (en) | Tracking device, trained model, endoscope system, and tracking method | |
JP4055908B2 (en) | Wipe pattern generator | |
JP2015191413A (en) | Synthetic image creation system, synthetic image creation method and synthetic image creation program | |
JP2006285655A (en) | Image processor, image processing method and image processing program | |
JP6451300B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2018028805A (en) | Image processing system | |
JP2005236472A (en) | Apparatus for editing moving picture | |
CN115379195B (en) | Video generation method, device, electronic equipment and readable storage medium | |
JP2005115011A (en) | Image display apparatus, image display method, image display program and recording medium recording the program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140829 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150615 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5772684 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |