JP2011221680A - Image synthesizing method, image synthesis program and image synthesizer - Google Patents
Image synthesizing method, image synthesis program and image synthesizer Download PDFInfo
- Publication number
- JP2011221680A JP2011221680A JP2010088352A JP2010088352A JP2011221680A JP 2011221680 A JP2011221680 A JP 2011221680A JP 2010088352 A JP2010088352 A JP 2010088352A JP 2010088352 A JP2010088352 A JP 2010088352A JP 2011221680 A JP2011221680 A JP 2011221680A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image
- value
- background
- pixel value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、動画や連写画像を重ね合わせて1枚の静止画像を作成する画像合成方法、画像合成プログラムおよび画像合成装置に関するものである。 The present invention relates to an image composition method, an image composition program, and an image composition apparatus that create a single still image by superimposing moving images and continuous shot images.
従来、動画や連写画像を重ね合わせて1枚の静止画像を作成する方法がある。先行文献1および先行文献2では、複数の画像フレーム上の同一位置の画素について、画素値の平均値もしくは中央値から基準画像としての背景画像を生成し、その背景画像に近い画素値の場合はブレンド率を低く設定し、大きく離れた画素値はブレンド率を高く設定し、それぞれのブレンド率を掛け合わされた画素値を加算することで合成画像を生成している。
Conventionally, there is a method of creating a single still image by superimposing moving images and continuous shot images. In the
これにより、全フレームを通して出現頻度の高い画像は背景の一部とみなされて低いブレンド率で合成され、一方、出現頻度の低い動体は高いブレンド率で貼り付けられる。 As a result, an image having a high appearance frequency is regarded as a part of the background and synthesized at a low blend rate throughout the entire frame, while a moving object having a low appearance frequency is pasted at a high blend rate.
しかし、上記従来の方法では、被写体の2次元方向への移動量が少ない画像では、うまく合成できないことがあった。例えば、図11の野球のスウィングのように被写体100が回転動作をしている場合は、被写体100がフレームの大部分で重なっているため、平均値や中央値をとると、本来動体である被写体100が背景画像として認識されてしまう。すると、例えば5枚連写のときに1フレームもしくは2フレームだけ被写体100の位置がずれてその領域に本当の背景画像101が写った場合には、その背景画像101が動体とみなされてしまう。この結果、背景画像101が強くブレンドされるので、被写体100に背景画像101が透けて写りこんでしまうという問題があった。
However, in the above conventional method, there is a case where an image with a small amount of movement of the subject in the two-dimensional direction cannot be combined well. For example, when the
本発明では、2次元方向への移動の少ない動体の連続撮影画像を合成する際に動体部分に背景が強く映りこむことを防止することを目的とする。 It is an object of the present invention to prevent a strong background from being reflected in a moving part when a continuously shot image of a moving object that moves little in a two-dimensional direction is synthesized.
本発明は、複複数の撮像フレームを合成して1枚の画像を生成する画像合成方法において、前記複数のフレームの画像データに基づいて基準画像を生成する基準画像生成ステップと、前記フレームの各画素の画素値変化特性を算出する画素値変化特性算出ステップと、前記画素値変化特性に基づいて、前記各画素が動体画像の存在する頻度の高い動体主要領域か、背景画像の存在する頻度の高い背景主要領域かを判断する領域判断ステップと、前記動体主要領域の画素とみなされた場合には、前記基準画像の画素値との差分が大きい画素値を弱くブレンドし、一方、前記背景主要領域の画素とみなされた場合には、前記基準画像の画素値との差分が大きい画素値を強くブレンドする画像ブレンドステップと、を有することを特徴とする。 The present invention relates to a reference image generation step of generating a reference image based on image data of a plurality of frames, in an image composition method for generating a single image by combining a plurality of imaging frames, and each of the frames Based on the pixel value change characteristic calculation step for calculating the pixel value change characteristic of the pixel, and the pixel value change characteristic, the frequency of the moving object main region where the moving image exists frequently or the background image exists. A region determining step for determining whether the pixel is a high background main region, and if it is regarded as a pixel of the moving object main region, a pixel value having a large difference from the pixel value of the reference image is weakly blended, while the background main region is An image blending step for strongly blending pixel values having a large difference from the pixel value of the reference image when it is regarded as a pixel in the region.
また、本発明は、複数の撮像フレームを合成して1枚の画像を生成する画像合成プログラムにおいて、前記複数のフレームの画像データに基づいて基準画像を生成する基準画像生成ステップと、前記フレームの各画素の画素値変化特性を算出する画素値変化特性算出ステップと、前記画素値変化特性に基づいて、前記各画素が動体画像の存在する頻度の高い動体主要領域か、背景画像の存在する頻度の高い背景主要領域かを判断する領域判断ステップと、前記動体主要領域の画素とみなされた場合には、前記基準画像の画素値との差分が大きい画素値を弱くブレンドし、一方、前記背景主要領域の画素とみなされた場合には、前記基準画像の画素値との差分が大きい画素値を強くブレンドする画像ブレンドステップと、をコンピュータに実行させることを特徴とする。 The present invention also provides a reference image generation step of generating a reference image based on the image data of the plurality of frames, in an image composition program for generating a single image by combining a plurality of imaging frames, A pixel value change characteristic calculating step for calculating a pixel value change characteristic of each pixel, and a frequency of existence of a background image or a moving object main region where each of the pixels is frequently present based on the pixel value change characteristic. A region determination step for determining whether the background main region is high and, if the pixel is considered to be a pixel of the moving body main region, a pixel value having a large difference from the pixel value of the reference image is weakly blended, while the background When it is regarded as a pixel in the main area, an image blending step for strongly blending a pixel value having a large difference from the pixel value of the reference image is executed on the computer. And characterized in that.
さらに、本発明では、複数の撮像フレームを合成して1枚の画像を生成する画像合成装置において、前記複数のフレームの画像データに基づいて基準画像を生成する基準画像生成手段と、前記フレームの各画素の画素値変化特性を算出する画素値変化特性算出手段と、前記画素値変化特性に基づいて、前記各画素が動体画像の存在する頻度の高い動体主要領域か、背景画像の存在する頻度の高い背景主要領域かを判断する領域判断手段と、前記動体主要領域の画素とみなされた場合には、前記基準画像の画素値との差分が大きい画素値を弱くブレンドし、一方、前記背景主要領域の画素とみなされた場合には、前記基準画像の画素値との差分が大きい画素値を強くブレンドする画像ブレンド手段と、を有することを特徴とする。 Further, according to the present invention, in an image composition device that synthesizes a plurality of imaging frames to generate one image, a reference image generation unit that generates a reference image based on image data of the plurality of frames, Pixel value change characteristic calculating means for calculating a pixel value change characteristic of each pixel, and based on the pixel value change characteristic, a frequency of a moving object main region where a moving image exists frequently or a background image of each pixel A region determination means for determining whether the background main region is high, and if the pixel of the moving body main region is regarded as a pixel, the pixel value having a large difference from the pixel value of the reference image is weakly blended, while the background And an image blending unit that strongly blends a pixel value having a large difference from the pixel value of the reference image when the pixel is regarded as a pixel in the main area.
本発明によれば、複数のフレームの画像データに基づいて基準画像を生成する一方、フレームの各画素の画素値の変化特性を算出し、その画素値変化特性に基づいて、各画素が動体画像の存在する頻度の高い動体主要領域か、背景画像の存在する頻度の高い背景主要領域かを判断する。そして、動体主要領域の画素とみなされた場合には、基準画像の画素値との差分が大きい画素値を弱くブレンドし、一方、背景主要領域の画素とみなされた場合には、基準画像の画素値との差分が大きい画素値を強くブレンドする。 According to the present invention, while generating a reference image based on image data of a plurality of frames, a change characteristic of a pixel value of each pixel of a frame is calculated, and each pixel is a moving object image based on the pixel value change characteristic. It is determined whether the main area of the moving object is frequently present or the main area of the background where the background image is frequently present. And when it is regarded as a pixel of the moving body main area, a pixel value having a large difference from the pixel value of the reference image is blended weakly, whereas when it is regarded as a pixel of the background main area, A pixel value having a large difference from the pixel value is strongly blended.
通常、動体がほとんど同じ位置で重なっている画像であっても、動きによって被写体やその衣服の形状に変化があるので、全フレームを通して必ず画素値に変化が見られる。一方、大多数のフレームで動きのない背景が映っている場合には、その部分の画素値の変化は非常に少ない。これらの画素値の変化の特性を捉えることで、従来は背景画像とみなされていた動体画像を正確に判断できる。そして、動体主要領域と判断された画素については、例えば全フレーム中一枚だけに背景画像が写っていたとしても、その背景画像の画素値が動体の画素値と大きく異なれば弱くブレンドされるので、動体部分に背景画像が映り込むことが防止できる。また、万一動体の画素値と大きな差がなければ、動体と同程度の割合でブレンドされるので、違和感は生じない。 Usually, even in an image in which moving objects overlap almost at the same position, the shape of the subject and its clothing changes due to the movement, so that the pixel value always changes throughout the entire frame. On the other hand, when a background with no motion is reflected in the majority of frames, the change in the pixel value of that portion is very small. By capturing the characteristics of these pixel value changes, it is possible to accurately determine a moving object image that was conventionally regarded as a background image. For pixels determined to be a moving object main region, for example, even if a background image is shown in only one frame, if the pixel value of the background image is significantly different from the pixel value of the moving object, it is blended weakly. It is possible to prevent the background image from being reflected in the moving body part. If there is no significant difference from the pixel value of the moving object, the blending is performed at the same rate as that of the moving object, so that there is no sense of incongruity.
一方、背景主要領域とみなされた画素の場合は、たとえば全フレーム中一枚だけに動体が写っていたとすると、その動体は強くブレンドされるので、背景の上に動体部分を確実に合成できる。よって、より正確な連写合成写真を生成できる。 On the other hand, in the case of a pixel regarded as a background main region, for example, if a moving object is reflected in only one frame in all frames, the moving object is strongly blended, so that the moving object portion can be reliably combined on the background. Therefore, a more accurate continuous shot composite photograph can be generated.
以下、図面に基づき本発明の実施形態について、画像合成プログラムを有する画像合成装置としてデジタルカメラを例にとり説明する。但し、本発明はデジタルカメラに限定されるものではなく、他の画像合成装置、例えばビデオカメラや携帯電話、さらにパーソナルコンピュータにも適用可能である。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings, taking a digital camera as an example of an image composition apparatus having an image composition program. However, the present invention is not limited to a digital camera, and can be applied to other image composition apparatuses such as a video camera, a mobile phone, and a personal computer.
図2に、本実施形態におけるデジタルカメラの構成を示す。撮影光学系1は、詳細には撮影レンズ、絞り及びメカシャッタを含む。撮影レンズは、さらにフォーカスレンズ、ズームレンズ及びアイリスを含む。撮影光学系1の各レンズやシャッタは、AE/AF制御部9からの指令に従ってモータやドライバにより駆動される。撮像素子2は、撮影光学系1により結像された被写体画像を電気信号に変換し、R、G、Bの各画像信号として出力する。撮像素子2は、CCDセンサやCMOSセンサから構成され、蓄積電荷がタイミングジェネレータ(TG)からのタイミング信号に応じて順次読み出される。
FIG. 2 shows the configuration of the digital camera in this embodiment. The photographing
アナログフロントエンド(AFE)3は、アナログ信号処理部であり、アナログ画像信号に対して増幅、ゲイン調整、リセット時の電圧値と信号出力時の電圧値の差分をとることで固定パターン雑音を除去する相関2重サンプリング(CDS)処理を行う。AD変換回路4は、アナログフロントエンド(AFE)3から供給された画像信号をデジタル信号に変換する。
The analog front end (AFE) 3 is an analog signal processing unit, which removes fixed pattern noise by taking the difference between the voltage value at the time of amplification, gain adjustment, reset and the voltage value at the time of signal output for the analog image signal. A correlated double sampling (CDS) process is performed. The
コントローラ5は、図示しないCPU、画像メモリ、および不揮発性メモリを含み、不揮発性メモリに格納された撮影プログラムを実行することで、操作部6からの操作信号を受けて撮影動作を行う。また、コントローラ5は、図示しない公知のゲイン補正、ガンマ補正、同時化処理、RGB−YC分離、ノイズ低減処理、エッジ強調処理、JPEG圧縮処理の各ブロックを含み、入力信号に対してゲイン補正やガンマ補正、同時化処理等を実行してY信号とC信号の画像データを生成する。ゲイン補正は、入力されたRAWデータ(RGB画像化前の空間的に不完全なサンプリングデータ)の各チャンネル毎に異なるゲインを補正してグレーバランスを合わせるものである。ガンマ補正は、CCD等の撮像素子の特性をLCD8の入出力特性に合わせるものである。同時化処理は、Bayer配列の単板CCDからRGB3画像を生成するものである。生成された画像データはメモリカード7に格納される。また、圧縮画像データに所定の伸長処理を実行して非圧縮の画像データを生成する。非圧縮の画像データは、撮影済みの画像としてLCD8に表示される。
The
さらに、コントローラ5は、LCD8に表示するプレビュー画像を生成するための回路や被写体画像から顔画像を検出する回路、及びAWB(オートホワイトバランス)回路を有する。さらにまた、コントローラ5には、本実施形態の画像合成プログラム5aが図示しない不揮発性メモリに格納されており、この画像合成プログラム5aに従って、後述する画像合成処理を実行する。なお、コントローラ5は、単一のプロセッサで構成される他、システム全体を制御するMPUと、そのサブプロセッサとして画像データを高速で処理するDIP(デジタルイメージプロセッサ)とから構成されていてもよい。
Further, the
AE/AF制御部9は、CPUを含み、AE(自動露出制御)及びAF(自動焦点制御)に必要な物理量を算出する。具体的には、画像信号から被写体の輝度を検出し、また、被写体までの距離を検出する。被写体の輝度から適正露出が決定され、絞り値、シャッタ速度、ISO感度が決定される。 The AE / AF control unit 9 includes a CPU and calculates a physical quantity necessary for AE (automatic exposure control) and AF (automatic focus control). Specifically, the brightness of the subject is detected from the image signal, and the distance to the subject is detected. Appropriate exposure is determined from the brightness of the subject, and the aperture value, shutter speed, and ISO sensitivity are determined.
次に本発明の第1の実施例を説明する。図1は、本発明の第1の実施例の画像合成方法の全体の手順を示すフローチャートである。まず、ステップS1では、デジタルカメラによってなされた高速連写の画像データを取得する。具体的には、多数枚(例えば10枚)の高速連続撮影を行い、その中から時間的に等間隔に少数枚(例えば5枚)を自動選択してもよいし、あらかじめ合成枚数のみ撮影するようにしてもよい。あるいは、撮影済みの画像データをメモリカード7から読み出してもよい。
Next, a first embodiment of the present invention will be described. FIG. 1 is a flowchart showing the overall procedure of the image composition method according to the first embodiment of the present invention. First, in step S1, high-speed continuous shooting image data made by a digital camera is acquired. Specifically, high-speed continuous shooting of a large number (for example, 10) may be performed, and a small number (for example, 5) may be automatically selected at regular intervals from among them, or only a composite number may be captured in advance. You may do it. Alternatively, captured image data may be read from the
ステップS2では、合成用の画像フレームから基準画像を作成する。基準画像とは、動体画像を除いたいわゆる背景画像であり、画像合成のベースとなる画像を意味する。基準画像の作成に利用する画像フレームは、合成するすべてのフレームでもよいが、合成枚数が多い場合には任意枚数を選択してもよい。本実施例では、すべてのフレームを用いるものとする。 In step S2, a reference image is created from the image frame for synthesis. The reference image is a so-called background image excluding a moving object image, and means an image that is a base for image composition. The image frames used to create the reference image may be all frames to be combined, but if the number of combined frames is large, an arbitrary number may be selected. In this embodiment, all frames are used.
基準画像フレーム上の任意の画素(i,j)における画素値をB(i,j)とすると、B(i,j)は次式(1)によって表される。 If the pixel value at an arbitrary pixel (i, j) on the reference image frame is B (i, j), B (i, j) is expressed by the following equation (1).
ここで、Nは合成対象のフレーム数、L(n,i,j)はn番目のフレーム上の任意の画素(i,j)の画素値である。この画素値には、例えばコントローラ5によってRGB−YC分離された画像信号のY信号成分(輝度信号成分)を用いる。また、Y信号は8ビット、すなわち255階調とする。式(1)により、基準画像B(i,j)は全フレームの輝度値の平均値であることが示される。
Here, N is the number of frames to be combined, and L (n, i, j) is the pixel value of an arbitrary pixel (i, j) on the nth frame. For this pixel value, for example, the Y signal component (luminance signal component) of the image signal RGB-YC separated by the
次に、ステップS3では、連続するフレーム間の各画素値L(n,i,j)の差分値の絶対値ΔL(m,i,j)を次式(2)によって求める。 Next, in step S3, an absolute value ΔL (m, i, j) of a difference value of each pixel value L (n, i, j) between consecutive frames is obtained by the following equation (2).
ここで、mはn+1番目のフレームとn番目のフレームとの差分計算の順番を意味し、m=N−1が最大である。 Here, m means the order of difference calculation between the (n + 1) th frame and the nth frame, and m = N−1 is the maximum.
図3はフレーム20内を動く被写体21を5枚連写した場合の画像合成の一例を示す図である。なお、ここでは背景画像の図示は省略してある。図に示すように、被写体21は、図面右側の位置21aから左周りに円弧を描くように移動しているものとする。すなわち、第1のフレーム(n=1)は被写体21が位置21aにいるときの画像、同様に第2のフレーム(n=2)は被写体21が位置21bに、第3のフレーム(n=3)は位置21cに、第4のフレーム(n=4)は位置21dに、さらに第5のフレーム(n=5)は位置21eにいるときの画像である。
FIG. 3 is a diagram showing an example of image composition when five
このような連写画像において、サンプルとして画素P1〜P5の5点について説明する。まず、画素P1についてのフレーム間の差分値ΔL(m,P1)を求める。なお、ここでは、わかりやすくするため座標i,jの代わりに画素の名称P1等を記載する。画素P1は、全5フレームのうち第1のフレームのみに被写体21が写っており、他のフレームではすべて背景画像である。よって、第2フレームと第1フレームの差分値、すなわちm=1の差分値ΔL(1,P1)は、背景画像の画素値(輝度値)と被写体21の画素値(輝度値)との差分の絶対値となる。一方、それ以外のフレーム間の差分値ΔL(2,P1)、ΔL(3,P1)、およびΔL(4,P1)は、背景画像どうしの差分になるのでほとんどゼロである。 In such a continuous image, five points of pixels P1 to P5 will be described as samples. First, a difference value ΔL (m, P1) between frames for the pixel P1 is obtained. Here, for the sake of clarity, the pixel name P1 is described instead of the coordinates i and j. In the pixel P1, the subject 21 is shown only in the first frame among all five frames, and the other frames are all background images. Therefore, the difference value between the second frame and the first frame, that is, the difference value ΔL (1, P1) of m = 1 is the difference between the pixel value (luminance value) of the background image and the pixel value (luminance value) of the subject 21. The absolute value of. On the other hand, the difference values ΔL (2, P1), ΔL (3, P1), and ΔL (4, P1) between the other frames are almost zero because they are the differences between the background images.
次に、画素P2では、第1のフレームと第2のフレームにおいて被写体21がそれぞれ位置21a、位置21bに写っている。一方、第3フレーム以降は背景画像のみが写っている。よって、第2フレームと第1フレームの差分値ΔL(1,P2)は、被写体21どうしの差分値となる。このとき、被写体21は、フレーム間のわずかなタイミングではあるが、その向きや位置が変化している。また被写体が人間であれば衣服のシワの変化などが起こる。これにより光の反射が変わるので、僅かながらに画素値にも変化が起こる。よって、差分値ΔL(1,P2)はある程度の大きさの階調値となる。一方、m=2の差分値ΔL(2,P2)は、背景画像と位置21bの被写体21との差分値になり、一般的には大きい値となる。さらにm=3、4の差分値ΔL(3,P2)、ΔL(4,P2)については、背景画像どうしの差分になるのでほぼゼロとなる。
Next, in the pixel P2, the subject 21 is shown at a position 21a and a position 21b in the first frame and the second frame, respectively. On the other hand, only the background image is shown after the third frame. Therefore, the difference value ΔL (1, P2) between the second frame and the first frame is a difference value between the
画素P3では、第1のフレームから第3のフレームにおいて被写体21がそれぞれ位置21a、位置21b、位置21cに写っている。一方、第4フレーム以降は背景画像のみが写っている。よって、第2フレームと第1フレームの差分値ΔL(1,P3)は、被写体どうしの差分値となる。同様に、第3フレームと第2フレームの差分値ΔL(2,P3)も被写体どうしの差分値になる。そして、第4フレームと第3フレームの差分値ΔL(3,P3)は、位置21cの被写体と背景との差分値、さらに第5フレームと第4フレームの差分値ΔL(4,P3)は、背景どうしの差分値となる。 In the pixel P3, the subject 21 is shown at a position 21a, a position 21b, and a position 21c in the first to third frames, respectively. On the other hand, only the background image is shown after the fourth frame. Therefore, the difference value ΔL (1, P3) between the second frame and the first frame is a difference value between subjects. Similarly, the difference value ΔL (2, P3) between the third frame and the second frame is also a difference value between subjects. The difference value ΔL (3, P3) between the fourth frame and the third frame is the difference value between the subject at the position 21c and the background, and the difference value ΔL (4, P3) between the fifth frame and the fourth frame is The difference value between backgrounds.
画素P4および画素P5についても同様の処理がなされる。図1のステップS4に戻り、コントローラ5は、これらの計算結果から各画素が、全フレームを通して動体画像の存在する頻度の高い動体主要領域の画素であるか、あるいは背景画像の存在する頻度の高い背景主要領域の画素であるかを判別する。
Similar processing is performed for the pixel P4 and the pixel P5. Returning to step S4 in FIG. 1, the
図4はフレーム間差分値計算と領域判別結果の一例を示す図である。コントローラ5は、各画素P1〜P5について、フレーム間の差分値の絶対値ΔLが所定値Lx以上となる数をカウントする。この所定値Lxは、理論的には1以上に設定されていればよいが、本実施例では、ノイズや撮影中の微妙な手ぶれ等を考慮して、「3」に設定する。コントローラ5は、差分値ΔLが所定値「3」以上となる数のカウント値が2個以下の画素については背景主要領域、総数m=4の半数を超える3個以上の画素については動体主要領域と判別する。この結果、画素P1およびP2が背景主要領域、画素P3、P4、P5が動体主要領域と判別される。
FIG. 4 is a diagram showing an example of the inter-frame difference value calculation and the region discrimination result. The
上記説明ではサンプルとして点P1〜P5の5個の画素のみについて判別する例を示したが、フレーム上のすべての画素について同様の処理を行うことは言うまでもない。この結果、図3の例では図中斜線で示した領域が動体主要領域、その他の領域が背景主要領域と判別される。 In the above description, an example in which only five pixels of the points P1 to P5 are determined as samples is shown, but it goes without saying that the same processing is performed for all the pixels on the frame. As a result, in the example of FIG. 3, a region indicated by hatching in the drawing is determined as the moving body main region, and the other regions are determined as the background main region.
ところで、動体でありながらその輝度値に変化がほとんどない場合には、上記方法では正確に領域を判別できないことがある。例えば、被写体が無地の暗い色の服を着ている場合には、画素によっては連写中ほとんど画素値に変化が生じないことがある。このような画素は、本来は動体主要領域であるにも関わらず背景主要領域と判別される可能性が高くなる。その結果、例えば図1の斜線の動体主要領域のうちいくつかの画素が背景主要領域画素と判断され、同じ種類の領域にもかかわらず正反対のブレンド処理がなされてしまう。このため、斑状の合成画像ができてしまう虞がある。 By the way, in the case where the luminance value is hardly changed even though it is a moving object, the region may not be accurately identified by the above method. For example, when the subject is wearing plain dark clothes, the pixel value may hardly change during continuous shooting depending on the pixel. Although such a pixel is originally a moving object main region, it is highly likely that the pixel is determined as a background main region. As a result, for example, some pixels in the shaded moving main area in FIG. 1 are determined as background main area pixels, and the opposite blending process is performed despite the same type of area. For this reason, there exists a possibility that a patch-like composite image may be made.
そこで、本実施例では、上記の判別手順を一通り行った後で、図5の領域判別精度アップフローチャートを実行する。まず、ステップS11では、背景主要領域と判断された画素の中から、動体主要領域の代表値と画素値が近似している画素(1次候補画素と呼ぶ)をフレーム毎に抽出する。動体主要領域の代表値は、全フレームの平均値または中央値をとることが好ましい。また、近似の判断としては、代表値と画素値の差分値が数階調程度以下となるかどうかを基準にするのがよい。抽出の具体例としては、例えば図3の画素P3が本来動体主要領域であるにも関わらず背景主要領域と判断されたとすると、画素P3の第1〜第5の各フレームにおける画素値をすべての動体主要領域の代表値と比較する。そして、いずれかのフレームに一つでも近似する動体主要領域が存在すれば、そのフレームの画素を1次候補画素と判断する。 Therefore, in the present embodiment, after the above-described determination procedure is completed, the area determination accuracy increasing flowchart of FIG. 5 is executed. First, in step S11, a pixel (referred to as a primary candidate pixel) whose pixel value approximates the representative value of the moving object main region is extracted for each frame from the pixels determined to be the background main region. The representative value of the moving body main region is preferably an average value or a median value of all frames. Further, as an approximation determination, it is preferable to use whether or not the difference value between the representative value and the pixel value is about several gradations or less. As a specific example of the extraction, for example, if the pixel P3 in FIG. 3 is determined to be the background main region even though it is originally a moving object main region, the pixel values in the first to fifth frames of the pixel P3 are all set. Compare with the representative value of the moving body main area. If there is at least one moving body main region that approximates any frame, the pixel of that frame is determined as the primary candidate pixel.
次に、1次候補画素と判断された画素のうち、動体主要領域と近接している画素を2次候補画素として抽出する(ステップS12)。この近接の判断を図6に基づいて説明する。例えば動体主要領域画素と判断されている画素Paの横に上記1次候補画素PbおよびPcが図のように隣接しているとすると、画素Paと直接隣り合っている画素Pbは当然2次候補画素と判断される。また、2次候補画素と判断された画素Pbと隣り合っている1次候補画素Pcも2次候補画素と判断する。さらにこの画素Pcと隣り合う1次候補画素が存在すれば、その画素も2次候補画素と判断する。 Next, out of the pixels determined to be the primary candidate pixels, pixels that are close to the moving object main region are extracted as secondary candidate pixels (step S12). This proximity determination will be described with reference to FIG. For example, if the primary candidate pixels Pb and Pc are adjacent to the pixel Pa determined to be a moving body main region pixel as shown in the figure, the pixel Pb directly adjacent to the pixel Pa is naturally a secondary candidate. It is determined as a pixel. Further, the primary candidate pixel Pc adjacent to the pixel Pb determined as the secondary candidate pixel is also determined as the secondary candidate pixel. Further, if there is a primary candidate pixel adjacent to the pixel Pc, the pixel is also determined as a secondary candidate pixel.
図5に戻り、ステップS13では、2次候補画素の存在する頻度の高い画素(例えば全5フレーム中3フレームに2次候補画素が存在する画素)を新たに動体主要領域の画素として抽出する。これにより、図4の判断だけでは拾いきれなかった動体主要領域画素を確実に抽出することができる。 Returning to FIG. 5, in step S <b> 13, a pixel with a high frequency in which secondary candidate pixels exist (for example, a pixel in which secondary candidate pixels exist in 3 frames out of all 5 frames) is newly extracted as pixels of the moving object main region. Thereby, the moving body main region pixels that could not be picked up only by the determination of FIG. 4 can be reliably extracted.
なお、上記説明では、各画素について全フレームで1次候補画素および2次候補画素を求めたが、あらかじめ各画素値の全フレーム平均を求め、その平均値を動体主要領域の代表値と比較し、類似する場合には新たに動体主要領域の画素として抽出するようにしてもよい。 In the above description, the primary candidate pixel and the secondary candidate pixel are obtained for each pixel in all frames. However, an average of all pixel values of each pixel value is obtained in advance, and the average value is compared with a representative value of the moving object main region. If they are similar, they may be newly extracted as pixels of the moving object main region.
図1に戻り、ステップS5では、図4および図5の結果に基づいて以下の画像合成処理を行う。まず、各画素P1〜P5について、式(1)で求めた基準画像B(i,j)とフレーム毎の各画素値L(n,i,j)との差分の絶対値ΔLB(n,i,j)を式(3)により計算する。 Returning to FIG. 1, in step S <b> 5, the following image composition processing is performed based on the results of FIGS. 4 and 5. First, for each of the pixels P1 to P5, an absolute value ΔLB (n, i) of a difference between the reference image B (i, j) obtained by Expression (1) and each pixel value L (n, i, j) for each frame. , J) is calculated by equation (3).
次に、図7のブレンド率算出表に基づいて、各画素のフレーム毎のブレンド率を算出する。ここで、動体主要領域の画素のブレンド率をαm、背景主要領域の画素のブレンド率をαbとすると、上記基準画像B(i,j)との差分値ΔLB(n,i,j)が所定値σ以上かσ未満であるかによって、それぞれ具体的な値が決まる。なお、σの値は、実験的に最適な値に決めればよい。好ましくは数10階調程度に設定するのがよい。 Next, the blend rate for each frame of each pixel is calculated based on the blend rate calculation table of FIG. Here, assuming that the blend ratio of pixels in the moving body main region is αm and the blend ratio of pixels in the background main region is αb, the difference value ΔLB (n, i, j) from the reference image B (i, j) is predetermined. Specific values are determined depending on whether the value is greater than or equal to σ or less than σ. Note that the value of σ may be determined experimentally as an optimal value. Preferably, it is set to about several tens of gradations.
図中、hは、動体主要領域における条件1(ΔLBが所定値σ未満)を満たす画素の全フレーム中の個数、kは背景主要領域における条件2(ΔLBが所定値σ以上)を満たす画素の全フレーム中の個数である。動体主要領域の各画素のブレンド率αmは、条件1のとき、すなわち動体画像が写っている画素と見なされるときに1/hに、一方条件2のとき、すなわち背景画像が写っている画素とみなされるときにゼロとなる。
In the figure, h is the number of pixels in all frames that satisfy condition 1 (ΔLB is less than a predetermined value σ) in the moving object main region, and k is a pixel that satisfies condition 2 (ΔLB is greater than or equal to the predetermined value σ) in the background main region. The number in all frames. The blend ratio αm of each pixel in the moving object main area is 1 / h when the
一方、背景主要領域の各画素のブレンド率αbは、全フレーム中、条件2を満たす画素(動体画像が写っている画素)の個数kがゼロのとき、すなわち全フレームが背景画像のみの場合には、各画素のαbは1/N(Nは全フレーム数)となる。一方、kがゼロでないとき、すなわち全フレーム中に1枚でも動体画像がある場合には、条件1を満たす画素のαbはゼロに、条件2を満たす画素のαbは1/kに設定される。
On the other hand, the blend ratio αb of each pixel in the background main region is determined when the number k of pixels satisfying the condition 2 (pixels in which a moving image is captured) is zero in all frames, that is, when all frames are only background images. In this case, αb of each pixel is 1 / N (N is the total number of frames). On the other hand, when k is not zero, that is, when there is at least one moving body image in all frames, αb of a pixel
具体例として、図3の背景主要領域である画素P1について見てみる。P1の第1フレームには動体が写っているので基準画像との差分値ΔLB(1,P1)は所定値σ以上となる。よって、P1の第1フレームの画素(以後P11と呼ぶ)に関するブレンド率αbは1/kとなる。ここで、画素P1においては、所定値σ以上の条件を満たすフレームは第1フレームのみなので、k=1、すなわち画素P11のブレンド率αbは1/1=1となる。一方、P1の第2フレーム以降の画素P12(2番目のフレームの画素を意味し、以下同様に記す)、P13、P14、P15はすべて背景画像なので、これらの差分値ΔLB(2,P12)、ΔLB(3,P13)、ΔLB(4,P14)、ΔLB(5,P15)はすべて所定値σ未満となり、ブレンド率αbはすべてゼロとなる。 As a specific example, consider the pixel P1, which is the background main region in FIG. Since the moving object is shown in the first frame of P1, the difference value ΔLB (1, P1) from the reference image is equal to or greater than the predetermined value σ. Therefore, the blend rate αb regarding the pixel of the first frame of P1 (hereinafter referred to as P11) is 1 / k. Here, in the pixel P1, since only the first frame satisfies the condition that satisfies the predetermined value σ or more, k = 1, that is, the blend rate αb of the pixel P11 is 1/1 = 1. On the other hand, since the pixel P12 (meaning the pixel of the second frame, hereinafter the same), P13, P14, and P15 of the second and subsequent frames of P1 are all background images, their difference values ΔLB (2, P12), ΔLB (3, P13), ΔLB (4, P14), and ΔLB (5, P15) are all less than the predetermined value σ, and the blend ratio αb is all zero.
こうして画素P1のすべてのフレームに対するブレンド率が求まると、次式(4)によって各画素の全フレーム分の合成画素値を算出する。 When the blend ratio for all the frames of the pixel P1 is obtained in this way, the combined pixel value for all the frames of each pixel is calculated by the following equation (4).
式(4)に基づいて具体的にP1について計算してみる。P1のような背景主要領域では基準画像は背景画像の画素値に近い値なので、P1における条件1に対応するフレーム数は4、条件2に対応するフレーム数は1となる。よって、P1の合成画素値は次式(5)のようになる。
Specifically, P1 will be calculated based on equation (4). In the background main region such as P1, the reference image has a value close to the pixel value of the background image, so the number of frames corresponding to
すなわち、画素P1に関しては第1フレームの画素P11の画素値のみが合成される。同様に、今度は動体主要領域画素のP3について計算してみる。P3のような動体主要領域では基準画像は動体の画素値に近い値なので、P3における条件1に対応するフレーム数は3、条件2に対応するフレーム数は2となる。よって、P3の合成画素値は次式(6)のようになる。
That is, for the pixel P1, only the pixel value of the pixel P11 of the first frame is synthesized. Similarly, this time, it calculates about P3 of a moving body main area | region pixel. In the moving object main region such as P3, the reference image has a value close to the pixel value of the moving object, so the number of frames corresponding to
以下同様に、フレーム20上のすべての画素について各ブレンド率を求め、前記式(4)によって加算することにより、合成画像が生成できる。
Similarly, a blended image can be generated by obtaining the blend ratios for all the pixels on the
以上説明したように、本実施例によれば、フレーム内の画像を動体主要領域と背景主要領域とに区別して、それぞれに応じたブレンド率で画像を合成するようにしたので、野球のスウィングのように動体の重なりが多い連写画像であっても、図8に示すように、背景画像が被写体に写り込むことなく理想的な連写合成画像ができる。 As described above, according to the present embodiment, the image in the frame is divided into the moving body main area and the background main area, and the images are synthesized with the blend ratios corresponding to each of them. As shown in FIG. 8, an ideal continuous-shot composite image can be obtained without a background image appearing on the subject, as shown in FIG.
なお、上記説明では、各領域の主体となす画像のみにブレンド率を与え、そうでない画像はブレンド率ゼロとしたが、これに限られず、主体でない画像についてもある程度のブレンド率を与えても良い。これにより、なめらかな画像が得られる。 In the above description, the blend rate is given only to the image that is the subject of each area, and the blend rate is zero for the other images. However, the present invention is not limited to this, and a certain blend rate may be given to images that are not the subject. . Thereby, a smooth image is obtained.
また、本実施例では、画素値として各画素の輝度値(Y信号)を用いたが、RGBの各色について演算してもよい。さらに、本実施例では、基準画像を式(1)による平均値で求める例を示したが、中央値を用いてもよい。 In this embodiment, the luminance value (Y signal) of each pixel is used as the pixel value. However, calculation may be performed for each color of RGB. Furthermore, although the example which calculates | requires a reference | standard image with the average value by Formula (1) was shown in a present Example, you may use a median.
次に本発明の第2の実施例について説明する。図9は第2の実施例の画像合成方法の全体の手順を示すフローチャートである。まず、ステップS21では、図1の第1の実施例と同様の方法で画像データを取得する。ステップS22では、合成用の画像フレームから基準画像を作成する。この作成には、第1の実施例と同様にすべてのフレームを用いるものとする。 Next, a second embodiment of the present invention will be described. FIG. 9 is a flowchart showing the overall procedure of the image composition method of the second embodiment. First, in step S21, image data is acquired by the same method as in the first embodiment of FIG. In step S22, a reference image is created from the image frame for synthesis. For this creation, it is assumed that all frames are used as in the first embodiment.
ステップS23では、合成用の画像フレームを一旦すべて合成する(予備合成画像と呼ぶ)。ステップS24では、この予備合成画像を小区分領域、例えば16×16画素毎の領域に分ける。そして、各小区分領域のフーリエ変換を行い、周波数特性を算出する。 In step S23, all the image frames for synthesis are once synthesized (referred to as a preliminary synthesized image). In step S24, the preliminary composite image is divided into small divided areas, for example, areas of 16 × 16 pixels. Then, a Fourier transform is performed on each small segment area to calculate a frequency characteristic.
図10は小区分領域の周波数特性の一例を示す図である。ステップS25では、各小区分領域のピーク周波数faが所定周波数fx以下となる領域を動体主要領域と判断する。この理由は、動体が重なっている領域については、対象フレームを合成すると全体的にぼやけた画像となり、周波数特性が低くなるからである。一方、ピーク周波数faがfxよりも大きい領域を背景主要領域と判断する。これは、背景画像が主な領域については、合成してもエッジがはっきりとしているので、周波数特性は高くなると考えられるからである。 FIG. 10 is a diagram illustrating an example of the frequency characteristics of the small segment area. In step S25, a region where the peak frequency fa of each small segment region is equal to or lower than the predetermined frequency fx is determined as the moving object main region. This is because, in a region where moving objects overlap, when the target frame is synthesized, an overall blurred image is obtained, and the frequency characteristics are lowered. On the other hand, an area where the peak frequency fa is larger than fx is determined as the background main area. This is because it is considered that the frequency characteristic is improved in the region where the background image is mainly because the edge is clear even if the background image is synthesized.
ただし、動体主要領域と判断された領域には、青空や無地の壁のように濃淡ない背景画像が含まれている可能性がある。そこで、ステップS26では、動体主要領域と判断されたものから例外の画像を抽出する。具体的には、対象の小区分領域の各画素について、実施例1で述べた式(2)と同じ計算式によって、フレーム間の画素値の差分を計算する。その差分の絶対値が所定値以下(例えば階調3以下)となる個数が全演算数mの半数以上となる場合には、その画素については背景主要領域とみなす。この場合、画素単位で判断してもよいし、背景主要領域画素とみなされた画素が大半を占める小区分についてはその中の画素すべてを背景主要領域画素とみなしてもよい。
However, there is a possibility that the area determined as the moving body main area includes a non-shaded background image such as a blue sky or a plain wall. Therefore, in step S26, an exceptional image is extracted from those determined as the moving object main region. Specifically, for each pixel in the target subdivision area, the difference in pixel value between frames is calculated by the same calculation formula as Expression (2) described in the first embodiment. If the absolute value of the difference is equal to or less than a predetermined value (for example,
ステップS27では、このように選別された画素の種類に応じて、実施例1の図1のステップS5と同じ要領で最終合成画像を生成する。これにより、実施例1同様に、理想的な連写合成画像を生成することができる。 In step S27, a final composite image is generated in the same manner as in step S5 of FIG. As a result, as in the first embodiment, an ideal continuous shooting composite image can be generated.
連写された画像のデジタルデータをデジタルカメラやその他の携帯端末装置、さらにはパーソナルコンピュータ上にて合成する方法に利用できる。 It can be used for a method of synthesizing digital data of continuously shot images on a digital camera, another portable terminal device, or a personal computer.
1 撮影光学系
2 撮像素子
5 コントローラ
5a 画像合成プログラム
7 メモリカード
8 LCD
21 被写体
P1、P2、P3、P4、P5 画素
DESCRIPTION OF
21 Subject P1, P2, P3, P4, P5 pixels
Claims (9)
前記複数のフレームの画像データに基づいて基準画像を生成する基準画像生成ステップと、
前記フレームの各画素の画素値変化特性を算出する画素値変化特性算出ステップと、
前記画素値変化特性に基づいて、前記各画素が動体画像の存在する頻度の高い動体主要領域か、背景画像の存在する頻度の高い背景主要領域かを判断する領域判断ステップと、
前記動体主要領域の画素とみなされた場合には、前記基準画像の画素値との差分が大きい画素値を弱くブレンドし、一方、前記背景主要領域の画素とみなされた場合には、前記基準画像の画素値との差分が大きい画素値を強くブレンドする画像ブレンドステップと、
を有することを特徴とする画像合成方法。 In an image composition method for generating a single image by combining a plurality of imaging frames,
A reference image generation step of generating a reference image based on the image data of the plurality of frames;
A pixel value change characteristic calculating step of calculating a pixel value change characteristic of each pixel of the frame;
An area determination step for determining whether each pixel is a moving main area where a moving image exists frequently or a background main area where a background image exists frequently based on the pixel value change characteristics;
When it is regarded as a pixel of the moving body main region, a pixel value having a large difference from the pixel value of the reference image is blended weakly, while when it is regarded as a pixel of the background main region, the reference An image blending step for strongly blending pixel values having a large difference from the pixel values of the image;
An image synthesizing method characterized by comprising:
前記領域判断ステップは、前記差分値の絶対値が所定値以上となる場合の割合に応じてその画素が前記動体主要領域か前記背景主要領域かを判断する、
ことを特徴とする請求項1記載の画像合成方法。 The pixel value change characteristic is difference value data of pixel values between successive frames of each pixel,
The region determination step determines whether the pixel is the moving body main region or the background main region according to a ratio when the absolute value of the difference value is equal to or greater than a predetermined value.
The image synthesizing method according to claim 1.
ことを特徴とする請求項2記載の画像合成方法。 The region determining step determines that the pixel is the moving body main region when the ratio when the absolute value of the difference value is a predetermined value or more is half or more.
The image synthesizing method according to claim 2.
ことを特徴とする請求項2記載の画像合成方法。 In the region determining step, among the pixels determined to be the background main region, a pixel that is close to the pixel of the moving body main region and has a pixel value close to the pixel is determined to be the moving body main region.
The image synthesizing method according to claim 2.
前記領域判断ステップは、前記周波数特性のピーク周波数に応じて、前記各小領域が前記動体主要領域画素か前記背景主要領域かを判断する、
ことを特徴とする請求項1記載の画像合成方法。 The pixel value change characteristic calculating step includes a preliminary synthesized image generating step of generating a preliminary synthesized image by synthesizing a predetermined number or more of the frames to be synthesized, and dividing the preliminary synthesized image into small regions, A frequency characteristic calculating step for calculating a frequency characteristic for each region,
The region determining step determines whether each small region is the moving body main region pixel or the background main region according to the peak frequency of the frequency characteristic.
The image synthesizing method according to claim 1.
ことを特徴とする請求項5記載の画像合成方法。 In the region determining step, when the peak frequency is equal to or lower than a predetermined frequency, the small region is determined as the moving body main region.
The image composition method according to claim 5.
ことを特徴とする請求項5記載の画像合成方法。 The area determination step calculates a difference value between successive frames for each pixel of the small area determined to be the moving body main area, and when the ratio at which the absolute value of the difference value is equal to or less than a predetermined value is high. Determines the pixel as the background main region,
The image composition method according to claim 5.
前記複数のフレームの画像データに基づいて基準画像を生成する基準画像生成ステップと、
前記フレームの各画素の画素値変化特性を算出する画素値変化特性算出ステップと、
前記画素値変化特性に基づいて、前記各画素が動体画像の存在する頻度の高い動体主要領域か、背景画像の存在する頻度の高い背景主要領域かを判断する領域判断ステップと、
前記動体主要領域の画素とみなされた場合には、前記基準画像の画素値との差分が大きい画素値を弱くブレンドし、一方、前記背景主要領域の画素とみなされた場合には、前記基準画像の画素値との差分が大きい画素値を強くブレンドする画像ブレンドステップと、
をコンピュータに実行させることを特徴とする画像合成プログラム。 In an image composition program that generates a single image by combining a plurality of imaging frames,
A reference image generation step of generating a reference image based on the image data of the plurality of frames;
A pixel value change characteristic calculating step of calculating a pixel value change characteristic of each pixel of the frame;
An area determination step for determining whether each pixel is a moving main area where a moving image exists frequently or a background main area where a background image exists frequently based on the pixel value change characteristics;
When it is regarded as a pixel of the moving body main region, a pixel value having a large difference from the pixel value of the reference image is blended weakly, while when it is regarded as a pixel of the background main region, the reference An image blending step for strongly blending pixel values having a large difference from the pixel values of the image;
An image composition program for causing a computer to execute the above.
前記複数のフレームの画像データに基づいて基準画像を生成する基準画像生成手段と、
前記フレームの各画素の画素値変化特性を算出する画素値変化特性算出手段と、
前記画素値変化特性に基づいて、前記各画素が動体画像の存在する頻度の高い動体主要領域か、背景画像の存在する頻度の高い背景主要領域かを判断する領域判断手段と、
前記動体主要領域の画素とみなされた場合には、前記基準画像の画素値との差分が大きい画素値を弱くブレンドし、一方、前記背景主要領域の画素とみなされた場合には、前記基準画像の画素値との差分が大きい画素値を強くブレンドする画像ブレンド手段と、
を有することを特徴とする画像合成装置。 In an image synthesis device that generates a single image by combining a plurality of imaging frames,
Reference image generation means for generating a reference image based on the image data of the plurality of frames;
Pixel value change characteristic calculating means for calculating a pixel value change characteristic of each pixel of the frame;
Based on the pixel value change characteristics, an area determination unit that determines whether each pixel is a moving main area where a moving image exists frequently or a background main area where a background image exists frequently;
When it is regarded as a pixel of the moving body main region, a pixel value having a large difference from the pixel value of the reference image is blended weakly, while when it is regarded as a pixel of the background main region, the reference Image blending means for strongly blending pixel values having a large difference from the image pixel values;
An image synthesizing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010088352A JP5541956B2 (en) | 2010-04-07 | 2010-04-07 | Image composition method, image composition program, and image composition apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010088352A JP5541956B2 (en) | 2010-04-07 | 2010-04-07 | Image composition method, image composition program, and image composition apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011221680A true JP2011221680A (en) | 2011-11-04 |
JP5541956B2 JP5541956B2 (en) | 2014-07-09 |
Family
ID=45038615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010088352A Expired - Fee Related JP5541956B2 (en) | 2010-04-07 | 2010-04-07 | Image composition method, image composition program, and image composition apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5541956B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013156868A (en) * | 2012-01-31 | 2013-08-15 | Nk Works Kk | Image processing program and image processing device |
CN111127529A (en) * | 2019-12-18 | 2020-05-08 | 浙江大华技术股份有限公司 | Image registration method and device, storage medium and electronic device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH096959A (en) * | 1995-06-21 | 1997-01-10 | Dainippon Printing Co Ltd | Spatial frequency characteristic setting method and setting method for digital filter |
JP2002298143A (en) * | 2001-03-30 | 2002-10-11 | Omron Corp | Motion analysis supporting device |
JP3411469B2 (en) * | 1997-04-14 | 2003-06-03 | 日本電信電話株式会社 | Frame multiplex image creation method |
JP2006350434A (en) * | 2005-06-13 | 2006-12-28 | Toshiba Corp | Hand-shape recognition device and its method |
JP2009071873A (en) * | 2007-04-27 | 2009-04-02 | Sharp Corp | Image processor and image processing method |
JP2009284001A (en) * | 2008-05-19 | 2009-12-03 | Sanyo Electric Co Ltd | Image processing device, image shooting device, and image processing method |
-
2010
- 2010-04-07 JP JP2010088352A patent/JP5541956B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH096959A (en) * | 1995-06-21 | 1997-01-10 | Dainippon Printing Co Ltd | Spatial frequency characteristic setting method and setting method for digital filter |
JP3411469B2 (en) * | 1997-04-14 | 2003-06-03 | 日本電信電話株式会社 | Frame multiplex image creation method |
JP2002298143A (en) * | 2001-03-30 | 2002-10-11 | Omron Corp | Motion analysis supporting device |
JP2006350434A (en) * | 2005-06-13 | 2006-12-28 | Toshiba Corp | Hand-shape recognition device and its method |
JP2009071873A (en) * | 2007-04-27 | 2009-04-02 | Sharp Corp | Image processor and image processing method |
JP2009284001A (en) * | 2008-05-19 | 2009-12-03 | Sanyo Electric Co Ltd | Image processing device, image shooting device, and image processing method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013156868A (en) * | 2012-01-31 | 2013-08-15 | Nk Works Kk | Image processing program and image processing device |
CN111127529A (en) * | 2019-12-18 | 2020-05-08 | 浙江大华技术股份有限公司 | Image registration method and device, storage medium and electronic device |
CN111127529B (en) * | 2019-12-18 | 2024-02-02 | 浙江大华技术股份有限公司 | Image registration method and device, storage medium and electronic device |
Also Published As
Publication number | Publication date |
---|---|
JP5541956B2 (en) | 2014-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4825093B2 (en) | Image pickup apparatus with camera shake correction function, camera shake correction method, and camera shake correction processing program | |
JP4861109B2 (en) | Image data processing apparatus, image data processing method, image data processing program, and imaging apparatus | |
KR101303410B1 (en) | Image capture apparatus and image capturing method | |
JP5643563B2 (en) | Image processing apparatus and control method thereof | |
JP5569357B2 (en) | Image processing apparatus, image processing method, and image processing program | |
WO2016035570A1 (en) | Image processing device and image processing method, and solid-state imaging device | |
JP2010206685A (en) | Image processing apparatus and program | |
JP2019101996A (en) | Image processing apparatus and image processing method reducing noise by composing plural captured images | |
JP5790858B2 (en) | Image composition apparatus, image composition method, and program | |
JP2011171842A (en) | Image processor and image processing program | |
JP2014179920A (en) | Imaging apparatus, control method thereof, program, and storage medium | |
JP2013225724A (en) | Imaging device, control method therefor, program, and storage medium | |
JP2017049947A (en) | Image processing apparatus and image processing method | |
JP5541956B2 (en) | Image composition method, image composition program, and image composition apparatus | |
JP2012160852A (en) | Image composition device, imaging device, image composition method, and image composition program | |
JP2023090492A (en) | Image processing device, image processing method, and imaging apparatus | |
JP6529269B2 (en) | Image processing apparatus, information processing method and program | |
JP6157274B2 (en) | Imaging apparatus, information processing method, and program | |
JP2017212698A (en) | Imaging apparatus, control method for imaging apparatus, and program | |
JP2018006993A (en) | Image processing device, imaging system, and imaging device | |
JP2015055988A (en) | Image processor, image processing method, and program | |
JP5494537B2 (en) | Image processing apparatus and program | |
JP2011077850A (en) | Image processing apparatus, image processing method, and program | |
JP2010278701A (en) | Image combining device, and image combining method and program | |
JP5131376B2 (en) | Image data processing apparatus, image data processing method, image data processing program, and imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130326 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140502 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140502 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5541956 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |