JP2009181259A - Image processor, image processing method, and program - Google Patents

Image processor, image processing method, and program Download PDF

Info

Publication number
JP2009181259A
JP2009181259A JP2008018637A JP2008018637A JP2009181259A JP 2009181259 A JP2009181259 A JP 2009181259A JP 2008018637 A JP2008018637 A JP 2008018637A JP 2008018637 A JP2008018637 A JP 2008018637A JP 2009181259 A JP2009181259 A JP 2009181259A
Authority
JP
Japan
Prior art keywords
background
pixel
value
image
background value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008018637A
Other languages
Japanese (ja)
Other versions
JP4900266B2 (en
Inventor
Hiroaki Ono
博明 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008018637A priority Critical patent/JP4900266B2/en
Publication of JP2009181259A publication Critical patent/JP2009181259A/en
Application granted granted Critical
Publication of JP4900266B2 publication Critical patent/JP4900266B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform generation of a path-composition image with a high responsiveness and stability. <P>SOLUTION: A background pixel selecting unit 130 selects m (m≤n) pixel values centering one (image I<SB>t</SB>to be processed) of input images I<SB>1</SB>-I<SB>n</SB>held in an input image holding unit 110. A background estimating unit 140 estimates a background value of each pixel position of the image I<SB>t</SB>to be processed based on the selected pixel values. A background updating unit 210 updates a background update value held in a background update value holding unit 221 based on the estimated background value. A difference level generating unit 160 generates a difference level between the pixel value of each pixel position of the image I<SB>t</SB>to be processed and the background update value. A path composition unit 170 generates a composition ratio based on the difference level and composites the image I<SB>t</SB>to be processed at the time t and the path composition result at the time t-1 held in the path composition result holding unit 180 by the composition ratio to generate a path composition result at the time t. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置に関し、特に時系列に撮像された撮像画像における軌跡を表示する画像処理装置、および、その画像処理方法ならびに当該方法をコンピュータに実行させるプログラムに関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that displays a trajectory in a captured image taken in time series, an image processing method thereof, and a program that causes a computer to execute the method.

時系列に撮像された複数の撮像画像(以下、フレーム画像という。)から動被写体の軌跡を示す画像を生成する方法として、例えば複数フレーム画像を単純に重ね合わせて合成する方法が考えられる。この単純な方法によると、フレーム数が多くなればなるほど、合成結果に対する一枚のフレームの寄与率が低くなり、動被写体の軌跡が薄くなってしまうという問題がある。例えば、図7のような5枚のフレーム画像を想定した場合、単純に合成を行うと、合成結果に対する各画素の寄与率は20%になり、動被写体が横切る画素位置においては、動被写体が20%、背景が80%という比率で合成されるため、図8(c)のように動被写体の軌跡が薄くなってしまう。   As a method of generating an image showing a moving subject's trajectory from a plurality of captured images (hereinafter referred to as frame images) captured in time series, for example, a method of simply superimposing a plurality of frame images and combining them can be considered. According to this simple method, there is a problem that as the number of frames increases, the contribution rate of one frame to the synthesis result decreases, and the locus of the moving subject becomes thin. For example, assuming five frame images as shown in FIG. 7, if the composition is simply performed, the contribution ratio of each pixel to the composition result is 20%, and the moving subject is located at the pixel position where the moving subject crosses. Since 20% and the background are combined at a ratio of 80%, the locus of the moving subject becomes thin as shown in FIG.

これに対し、単純な合成に改良を加えた手法として、映像データから複数のフレーム画像を抽出し、輝度値に応じた重みを付けて一枚の静止画像を合成する方法が提案されている(例えば、特許文献1参照。)。この従来技術では、各フレーム画像における同一位置の画素において、輝度値の平均値からの距離が輝度値の分散以上離れている画素には大きい重みを付けて、輝度値の平均値からの距離が輝度値の分散以下に収まっている画素には小さい重みを付けて合成が行われ、その結果が出力画像の同一位置の画素として出力される。これにより、合成画像において動被写体の重みが背景の重みより大きくなり、単純な合成方法に比べて動被写体の軌跡をはっきりさせるものである。   On the other hand, as a method for improving simple synthesis, a method has been proposed in which a plurality of frame images are extracted from video data, and a single still image is synthesized with weights according to luminance values ( For example, see Patent Document 1.) In this prior art, in the pixel at the same position in each frame image, a pixel whose distance from the average value of the luminance value is more than the variance of the luminance value is given a large weight, and the distance from the average value of the luminance value is Pixels that are less than or equal to the variance of luminance values are combined with a small weight, and the result is output as a pixel at the same position in the output image. As a result, the weight of the moving subject in the synthesized image becomes larger than the weight of the background, and the locus of the moving subject is clarified as compared with a simple synthesis method.

また、動被写体を抽出してその追跡を行うことによって動被写体の軌跡の合成を行う手法が提案されている(例えば、特許文献2参照。)。この従来技術では、動被写体の追跡が失敗した場合に、追跡が成功した時刻の動被写体の特徴量や位置などから動被写体を補間することにより、動被写体の抽出および追跡の精度を高めている。   In addition, a method of synthesizing the locus of a moving subject by extracting and tracking the moving subject has been proposed (see, for example, Patent Document 2). In this conventional technique, when tracking of a moving subject fails, the accuracy of extraction and tracking of the moving subject is improved by interpolating the moving subject from the feature amount or position of the moving subject at the time when tracking was successful. .

しかしながら、動被写体の重みを大きくして合成する方法によれば、単純な合成方法に比べて動被写体の軌跡をはっきりさせるという効果があるが、背景以外は等しい重みによる多重合成になるため、背景以外のフレーム画像の数が多ければ多いほど軌跡に対する一枚の寄与率が低くなり、原画像と同等にはっきりとした軌跡を作成することは困難であった。また、輝度値の分散により背景を判断する方法では、画像の状態によっては背景とそれ以外を明確に区別することが困難な場合があった。また、動被写体を追跡する従来技術によれば、動被写体を補間しながら、任意の態様により軌跡を表示させることができるが、この場合、特徴量として動被写体の存在領域、色、輝度、テクスチャ等が用いられるため、これらの変化や変形などに対応できないという問題があった。また、動被写体が多い場合には、演算等に要するコストの関係上、それら全ての動被写体を追跡することが困難になるという問題があった。   However, the method of combining the moving subject with a larger weight has the effect of clarifying the locus of the moving subject as compared with the simple combining method. The larger the number of other frame images, the lower the contribution ratio of one piece to the trajectory, and it was difficult to create a trajectory as clear as the original image. Further, in the method of determining the background based on the dispersion of luminance values, it may be difficult to clearly distinguish the background from the other depending on the state of the image. In addition, according to the conventional technique for tracking a moving subject, a trajectory can be displayed in an arbitrary manner while interpolating the moving subject. In this case, the moving subject's existing area, color, brightness, texture, etc. And the like are used, there is a problem that these changes and deformations cannot be handled. Further, when there are many moving subjects, there is a problem that it is difficult to track all the moving subjects due to the cost required for calculation and the like.

そこで、背景画像を事前に求めておいて、この背景画像の画素値と入力画像の画素値との間の相違度を生成し、この相違度に応じて入力画像の画素値を出力画像としての軌跡合成画像に反映させることにより、動被写体の軌跡静止画や軌跡動画を生成する画像処理装置が提案されている(例えば、特許文献3参照。)。
特開平10−290450号公報(図1) 特開2005−123824号公報(図1) 特開2007−328755号公報(図2)
Therefore, a background image is obtained in advance, a difference between the pixel value of the background image and the pixel value of the input image is generated, and the pixel value of the input image is output as an output image according to the difference. There has been proposed an image processing apparatus that generates a trajectory still image or a trajectory moving image of a moving subject by reflecting it in a trajectory composite image (see, for example, Patent Document 3).
JP-A-10-290450 (FIG. 1) Japanese Patent Laying-Open No. 2005-123824 (FIG. 1) JP 2007-328755 A (FIG. 2)

上述のように、背景画像との相違度に応じて入力画像の画素値を軌跡合成画像に反映させる従来技術によれば、背景と異なる領域ほど軌跡合成画像への寄与率が高くなり、よりはっきりとした動被写体の軌跡を得ることができる。しかしながら、この場合、背景画像を事前に計算するため、軌跡合成画像の表示を開始するまでに待ち時間が生じてしまうという問題がある。また、背景画像を生成するためには入力画像を全て必要とするため、撮像の終了点が決まるまで軌跡合成を行うことができないという問題がある。さらに、背景画像を予め生成した場合、背景の変動に対して追従することができなくなるため、ある程度長い期間の撮像において不具合を生じるおそれがある。   As described above, according to the prior art in which the pixel value of the input image is reflected in the locus synthesized image according to the degree of difference from the background image, the contribution rate to the locus synthesized image increases as the region different from the background becomes clearer. The trajectory of the moving subject can be obtained. However, in this case, since the background image is calculated in advance, there is a problem that a waiting time occurs before the display of the trajectory composite image is started. In addition, since all input images are required to generate a background image, there is a problem that locus synthesis cannot be performed until the end point of imaging is determined. Further, when the background image is generated in advance, it becomes impossible to follow the background fluctuation, and there is a possibility that a problem may occur in imaging for a certain period of time.

本発明はこのような状況に鑑みてなされたものであり、応答性および安定性の高い軌跡合成画像生成を行うことを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to generate a trajectory composite image with high responsiveness and stability.

本発明は、上記課題を解決するためになされたものであり、その第1の側面は、時系列に並ぶ複数の入力画像の対応する画素位置のそれぞれにおいて処理対象となる入力画像を中心として複数の画素値を選択する画素選択手段と、上記画素位置における背景値を保持する背景値保持手段と、上記選択された複数の画素値に基づいて上記処理対象である入力画像の上記画素位置における背景値を推定する背景値推定手段と、上記推定された背景値に基づいて上記背景値保持手段に保持される背景値を更新して新たな背景値として上記背景値保持手段に保持させる背景更新手段と、上記処理対象である入力画像の画素値と上記更新された背景値との相違度を生成する相違度生成手段と、上記画素位置のそれぞれについて上記相違度に応じて上記処理対象である入力画像の画素値を反映させて出力画像の画素値を生成する出力画像生成手段とを具備することを特徴とする画像処理装置、その方法およびプログラムである。これにより、複数の入力画像の対応する画素位置のそれぞれにおいて背景値を更新して、その更新された背景値に基づいて出力画素を生成させるという作用をもたらす。   The present invention has been made to solve the above-described problems, and a first aspect of the present invention is that a plurality of input images that are processing targets at respective pixel positions corresponding to a plurality of input images arranged in time series are centered. A pixel selection means for selecting a pixel value of the image, a background value holding means for holding a background value at the pixel position, and a background at the pixel position of the input image to be processed based on the selected pixel values. A background value estimating means for estimating a value, and a background updating means for updating the background value held in the background value holding means based on the estimated background value and holding the background value as a new background value in the background value holding means And a dissimilarity generation means for generating a dissimilarity between the pixel value of the input image to be processed and the updated background value, and the processing according to the dissimilarity for each of the pixel positions. The image processing apparatus characterized by comprising an output image generation means for generating a pixel value of an output image to reflect the pixel values of the input image which is the target, its method and program. Thus, the background value is updated at each of the corresponding pixel positions of the plurality of input images, and an output pixel is generated based on the updated background value.

また、この第1の側面において、上記推定された背景値の信頼度を上記選択された複数の画素値に基づいて生成する背景信頼度生成手段をさらに具備し、上記相違度生成手段は、上記信頼度に応じて上記相違度を生成してもよい。これにより、背景値の信頼度に応じて相違度を生成させるという作用をもたらす。この場合において、上記相違度生成手段は、上記信頼度が低いほど上記相違度が大きくなるよう上記相違度を生成することができる。   The first aspect further includes background reliability generation means for generating the reliability of the estimated background value based on the selected plurality of pixel values, and the difference generation means includes: The degree of difference may be generated according to the reliability. This brings about the effect that the degree of difference is generated according to the reliability of the background value. In this case, the dissimilarity generation means can generate the dissimilarity so that the dissimilarity increases as the reliability decreases.

また、この第1の側面において、上記背景更新手段は、上記信頼度に応じて上記背景値保持手段に保持される背景値を更新してもよい。これにより、背景値の信頼度に応じて背景値を更新させるという作用をもたらす。この場合において、上記背景更新手段は、上記信頼度が高いほど上記推定された背景値の比重が高くなるよう上記背景値保持手段に保持される背景値を更新することができる。   In the first aspect, the background update unit may update the background value held in the background value holding unit according to the reliability. This brings about the effect that the background value is updated according to the reliability of the background value. In this case, the background update unit can update the background value held in the background value holding unit so that the higher the reliability, the higher the specific gravity of the estimated background value.

また、この第1の側面において、上記背景値推定手段は、上記選択された複数の画素値における最頻値を背景値として推定してもよい。これにより、画素値における最頻値により背景値を更新させるという作用をもたらす。   In the first aspect, the background value estimating means may estimate a mode value among the selected plurality of pixel values as a background value. This brings about the effect that the background value is updated with the mode value in the pixel value.

また、この第1の側面において、上記出力画像生成手段は、上記出力画像の画素値を保持する出力画像保持手段と、上記画素位置のそれぞれについて上記相違度に応じて合成比率を生成する合成比率生成手段と、上記画素位置のそれぞれについて上記合成比率に応じて上記処理対象である入力画像の画素値を上記出力画像保持手段に保持された上記出力画像の画素値と合成して新たな出力画像の画素値として上記出力画像保持手段に保持させる合成値算出手段とを具備してもよい。これにより、相違度と背景合成比率とに基づいて生成された合成比率により、処理対象である入力画像の画素値と出力画像の画素値とを合成させるという作用をもたらす。   In the first aspect, the output image generation unit generates an output image holding unit that holds a pixel value of the output image, and a combination ratio that generates a combination ratio according to the difference between the pixel positions. A new output image is generated by combining the pixel value of the input image to be processed with the generation unit and the pixel value of the output image held in the output image holding unit according to the synthesis ratio for each of the pixel positions. And a synthesized value calculating means for holding the output image holding means as the pixel value. Thereby, the pixel value of the input image to be processed and the pixel value of the output image are combined by the combination ratio generated based on the degree of difference and the background combination ratio.

また、この第1の側面において、上記画素選択手段は、上記複数の画素値を時間的に等間隔に選択してもよく、また、上記処理対象である入力画像との時間的距離が近いほど時間的に高い頻度で上記複数の画素値を選択してもよい。選択される画素値を間引くことにより、選択される時間範囲を変更することなく画素値の数を減らし、動被写体確率生成の精度の劣化を抑えるという作用をもたらす。   In the first aspect, the pixel selection unit may select the plurality of pixel values at regular intervals in time, and the closer the temporal distance to the input image to be processed is, The plurality of pixel values may be selected with a high frequency in time. By thinning out the selected pixel values, the number of pixel values is reduced without changing the selected time range, and the deterioration of the accuracy of moving subject probability generation is suppressed.

また、この第1の側面において、上記背景更新手段による上記背景値の更新と上記相違度生成手段による上記相違度の生成との頻度が互いに異なるようにしてもよい。これにより、相違度の生成に対する背景更新頻度を制御することで効果的にスループットを向上させるという作用をもたらす。   In the first aspect, the background value update by the background update unit may be different from the frequency of the difference generation by the difference generation unit. This brings about the effect of effectively improving the throughput by controlling the background update frequency with respect to the generation of the degree of difference.

また、本発明の第2の側面は、時系列に並ぶ複数の入力画像の対応する画素位置のそれぞれにおいて複数の画素値を選択する画素選択手段と、上記選択された複数の画素値に基づいて上記画素位置における背景値を推定する背景値推定手段と、上記推定された背景値の信頼度を上記選択された複数の画素値に基づいて生成する背景信頼度生成手段と、処理対象である入力画像の画素値と上記推定された背景値との相違度を上記信頼度に応じて生成する相違度生成手段と、上記画素位置のそれぞれについて上記相違度に応じて上記処理対象である入力画像の画素値を反映させて出力画像の画素値を生成する出力画像生成手段とを具備することを特徴とする画像処理装置、その方法およびプログラムである。これにより、推定された背景値およびその信頼度に基づいて、出力画素を生成させるという作用をもたらす。   The second aspect of the present invention is based on pixel selection means for selecting a plurality of pixel values at each of corresponding pixel positions of a plurality of input images arranged in time series, and on the basis of the selected plurality of pixel values. Background value estimating means for estimating a background value at the pixel position, background reliability generating means for generating the reliability of the estimated background value based on the selected plurality of pixel values, and an input to be processed A difference generation means for generating a difference between the pixel value of the image and the estimated background value according to the reliability, and an input image to be processed according to the difference for each of the pixel positions An image processing apparatus, a method and a program therefor, comprising output image generation means for generating pixel values of an output image by reflecting pixel values. This brings about the effect | action that an output pixel is produced | generated based on the estimated background value and its reliability.

本発明によれば、応答性および安定性の高い軌跡合成画像の生成を実現することができるという優れた効果を奏し得る。   According to the present invention, it is possible to achieve an excellent effect that it is possible to generate a trajectory composite image with high responsiveness and stability.

次に本発明の実施の形態について図面を参照して詳細に説明する。   Next, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施の形態における撮像装置の一例を示す図である。この撮像装置は、大別して光学系、信号処理系、記録系、表示系、および、制御系から構成される。   FIG. 1 is a diagram illustrating an example of an imaging apparatus according to an embodiment of the present invention. This imaging apparatus is roughly composed of an optical system, a signal processing system, a recording system, a display system, and a control system.

光学系は、被写体の光画像を集光するレンズ11と、光画像の光量を調整する絞り12と、集光された光画像を光電変換して電気信号に変換する撮像素子13とから構成される。撮像素子13は、例えば、CCD(Charge Coupled Devices)イメージセンサなどにより実現される。   The optical system includes a lens 11 that collects a light image of a subject, a diaphragm 12 that adjusts the amount of light in the light image, and an image sensor 13 that photoelectrically converts the collected light image into an electrical signal. The The image sensor 13 is realized by, for example, a CCD (Charge Coupled Devices) image sensor.

信号処理系は、撮像素子13からの電気信号をサンプリングするサンプリング回路21と、サンプリング回路21から供給されるアナログ信号をデジタル信号に変換するA/D変換回路22と、A/D変換回路22から入力されるデジタル信号に所定の画像処理を施す画像処理回路23とから構成される。サンプリング回路21は、例えば、相関2重サンプリング回路(CDS:Correlated Double Sampling)によって実現される。これにより、撮像素子13で発生するノイズが軽減される。なお、画像処理回路23により実行される処理の詳細については後述する。   The signal processing system includes a sampling circuit 21 that samples an electrical signal from the image sensor 13, an A / D conversion circuit 22 that converts an analog signal supplied from the sampling circuit 21 into a digital signal, and an A / D conversion circuit 22. And an image processing circuit 23 that performs predetermined image processing on the input digital signal. The sampling circuit 21 is realized by, for example, a correlated double sampling circuit (CDS: Correlated Double Sampling). Thereby, noise generated in the image sensor 13 is reduced. Details of processing executed by the image processing circuit 23 will be described later.

記録系は、画像信号を記憶するメモリ32と、画像処理回路23によって処理された画像信号を符号化してメモリ32に記録し、また、メモリ32から画像信号を読み出して復号し、画像処理回路23に供給する符号化/復号器31とから構成される。   The recording system encodes the image signal processed by the image processing circuit 23 and the memory 32 that stores the image signal, and records the image signal in the memory 32, and also reads and decodes the image signal from the memory 32, and the image processing circuit 23. And an encoder / decoder 31 to be supplied.

表示系は、画像処理回路23によって処理された画像信号をアナログ化するD/A変換回路41と、アナログ化された画像信号を後段の表示部43に適合する形式のビデオ信号にエンコードするビデオエンコーダ42と、入力されるビデオ信号に対応する画像を表示する表示部43とから構成される。表示部43は、例えば、LCD(Liquid Crystal Display)等により実現され、ファインダとしての機能も有する。   The display system includes a D / A conversion circuit 41 that converts the image signal processed by the image processing circuit 23 into an analog signal, and a video encoder that encodes the analog image signal into a video signal in a format suitable for the display unit 43 in the subsequent stage. 42 and a display unit 43 that displays an image corresponding to the input video signal. The display unit 43 is realized by, for example, an LCD (Liquid Crystal Display) or the like, and also has a function as a finder.

制御系は、撮像素子13、サンプリング回路21、A/D変換回路22、および、画像処理回路23の動作タイミングを制御するタイミング生成器51と、ユーザによるシャッタ操作やその他のコマンド入力を受け付けるための操作入力受付部52と、周辺機器を接続するためのドライバ53と、撮像装置全体を制御する制御部54とから構成される。ドライバ53には、磁気ディスク、光ディスク、光磁気ディスク、または、半導体メモリ等が接続される。制御部54は、これらに記憶されている制御用プログラムをドライバ53を介して読み出し、読み出した制御用プログラムや操作入力受付部52から入力されるユーザからのコマンド等に基づいて制御を行う。   The control system is a timing generator 51 that controls the operation timing of the image sensor 13, the sampling circuit 21, the A / D conversion circuit 22, and the image processing circuit 23; An operation input receiving unit 52, a driver 53 for connecting peripheral devices, and a control unit 54 for controlling the entire imaging apparatus are configured. The driver 53 is connected to a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like. The control unit 54 reads out the control programs stored therein via the driver 53, and performs control based on the read control program, a user command input from the operation input receiving unit 52, and the like.

画像処理回路23、符号化/復号器31、メモリ32、タイミング生成器51、操作入力受付部52、および、制御部54は、バス59を介して相互に接続されている。   The image processing circuit 23, the encoder / decoder 31, the memory 32, the timing generator 51, the operation input receiving unit 52, and the control unit 54 are connected to each other via a bus 59.

この撮像装置において、被写体の光学画像(入射光)は、レンズ11および絞り12を介して撮像素子13に入射され、撮像素子13によって光電変換されて電気信号となる。得られた電気信号は、サンプリング回路21によってノイズ成分が除去され、A/D変換回路22によってデジタル化された後、画像処理回路23が内蔵する(図示しない)画像メモリに一時格納される。   In this image pickup apparatus, an optical image (incident light) of a subject enters the image pickup device 13 through the lens 11 and the diaphragm 12, and is photoelectrically converted by the image pickup device 13 into an electric signal. A noise component is removed from the obtained electric signal by the sampling circuit 21, digitized by the A / D conversion circuit 22, and then temporarily stored in an image memory (not shown) built in the image processing circuit 23.

なお、通常の状態では、タイミング生成器51による信号処理系に対する制御により、画像処理回路23の内蔵する画像メモリには、一定のフレームレートで絶えず画像信号が上書きされるようになされている。画像処理回路23の内蔵する画像メモリの画像信号は、D/A変換回路41によってアナログ信号に変換され、ビデオエンコーダ42によってビデオ信号に変換されて対応する画像が表示部43に表示される。   In a normal state, the image signal built in the image processing circuit 23 is constantly overwritten at a fixed frame rate by the control of the signal processing system by the timing generator 51. The image signal in the image memory built in the image processing circuit 23 is converted into an analog signal by the D / A conversion circuit 41, converted into a video signal by the video encoder 42, and a corresponding image is displayed on the display unit 43.

表示部43は、撮像装置のファインダとしての役割も担っている。ユーザが操作入力受付部52に含まれるシャッターボタンを押下した場合、制御部54は、タイミング生成器51に対して、シャッターボタンが押下された直後の画像信号を保持するように、すなわち、画像処理回路23の画像メモリに画像信号が上書きされないように、信号処理系を制御する。画像処理回路23の画像メモリに保持された画像データは、符号化/復号器31によって符号化されてメモリ32に記録される。以上のような撮像装置の動作によって、1枚の画像データの取込みが完了する。   The display unit 43 also serves as a viewfinder of the imaging device. When the user presses the shutter button included in the operation input receiving unit 52, the control unit 54 causes the timing generator 51 to hold the image signal immediately after the shutter button is pressed, that is, image processing. The signal processing system is controlled so that the image signal is not overwritten in the image memory of the circuit 23. The image data held in the image memory of the image processing circuit 23 is encoded by the encoder / decoder 31 and recorded in the memory 32. With the operation of the imaging apparatus as described above, the acquisition of one piece of image data is completed.

図2は、本発明の実施の形態における撮像装置の画像処理回路23の第1の実施例を示す図である。この一実施例による画像処理回路23は、入力画像保持部110と、軌跡画素選択部120と、背景画素選択部130と、背景推定部140と、背景信頼度生成部150と、背景更新部210と、背景更新値保持部221と、相違度生成部160と、軌跡合成部170と、軌跡合成結果保持部180と、軌跡合成画像表示部190とを備えている。   FIG. 2 is a diagram illustrating a first example of the image processing circuit 23 of the imaging device according to the embodiment of the present invention. The image processing circuit 23 according to this embodiment includes an input image holding unit 110, a trajectory pixel selection unit 120, a background pixel selection unit 130, a background estimation unit 140, a background reliability generation unit 150, and a background update unit 210. A background update value holding unit 221, a dissimilarity generation unit 160, a trajectory synthesis unit 170, a trajectory synthesis result holding unit 180, and a trajectory composite image display unit 190.

入力画像保持部110は、時系列に撮像されたn枚(nは2以上の整数)の入力画像(I〜I)を保持するメモリである。n枚の入力画像のうち、時系列に古いものから順に処理対象画像として扱われる。この入力画像保持部110は有限であるため、新しく入力画像が入力されると、保持されている入力画像の中で最も古いものから順に無効化され、上書きされていく。したがって、この入力画像保持部110には常に一定期間に相当する入力画像が保持されることになる。 The input image holding unit 110 is a memory that holds n (n is an integer of 2 or more) input images (I 1 to I n ) captured in time series. Among the n input images, they are treated as processing target images in order from the oldest in time series. Since the input image holding unit 110 is limited, when a new input image is input, the oldest input image is invalidated and overwritten in order. Therefore, this input image holding unit 110 always holds an input image corresponding to a certain period.

軌跡画素選択部120は、入力画像保持部110に保持された入力画像(I〜I)の1枚を処理対象画像として、各画素位置の画素値を選択するものである。画素位置の選択順は、例えば左上からスキャンライン順などが考えられる。例えば、入力画像のそれぞれが座標(1,1)乃至(p,q)のp×q画素(pおよびqは1以上の整数)からなる場合において、時刻t(tは2以上の整数)の入力画像を処理対象画像Iとすると、軌跡画素選択部120は、処理対象画像Iの座標(1,1)の画素位置の画素値を選択し、次に、処理対象画像Iの座標(1,2)の画素位置の画素値を選択する。軌跡画素選択部120は、この要領で処理対象画像について全ての画素位置の画素値が選択されるまで処理を繰り返し、処理対象画像Iに対してp×q個分の画素値を選択する。この軌跡画素選択部120によって選択された画素値は、軌跡画素値として信号線129を介して相違度生成部160および軌跡合成部170に供給される。 The trajectory pixel selection unit 120 selects a pixel value at each pixel position using one of the input images (I 1 to I n ) held in the input image holding unit 110 as a processing target image. The selection order of the pixel positions may be, for example, the scan line order from the upper left. For example, when each of the input images is composed of p × q pixels having coordinates (1, 1) to (p, q) (p and q are integers of 1 or more), at time t (t is an integer of 2 or more). When the input image and the processing target image I t, the locus pixel selection unit 120 selects the pixel value of the pixel position of the coordinate (1,1) of the processing target image I t, then the coordinates of the target image I t The pixel value at the pixel position (1, 2) is selected. Locus pixel selection unit 120 repeats the process until the pixel values of all the pixel positions is selected for the target image in this manner, selects a pixel value of p × q pieces min to the processing target image I t. The pixel value selected by the trajectory pixel selection unit 120 is supplied to the dissimilarity generation unit 160 and the trajectory synthesis unit 170 via the signal line 129 as a trajectory pixel value.

背景画素選択部130は、入力画像保持部110に保持された入力画像(I〜I)の1枚を処理対象画像として、この処理対象画像を中心として時系列順に一定の範囲の入力画像において、対応する画素位置の中からm個(m≦n;mは2以上の整数)の画素値を選択するものである。画素位置の選択順は、例えば左上からスキャンライン順などが考えられる。例えば、入力画像のそれぞれが座標(1,1)乃至(p,q)のp×q画素(pおよびqは1以上の整数)からなる場合において、時刻t(tは2以上の整数)の入力画像を処理対象画像Iとすると、背景画素選択部130は、まず、n枚の入力画像の座標(1,1)の画素位置の画素値の中から処理対象画像Iを中心とするm個を選択する。背景画素選択部130は、次に、n枚の入力画像の座標(1,2)の画素位置の画素値の中から処理対象画像Iを中心とするm個を選択する。この要領で、最終的には入力画像(I〜I)に対してm個の画素値がp×q組分選択されることになる。これら選択された画素値は、背景推定部140に供給される。 The background pixel selection unit 130 uses one of the input images (I 1 to I n ) held in the input image holding unit 110 as a processing target image, and an input image in a certain range in time series centering on the processing target image. In FIG. 5, m (m ≦ n; m is an integer of 2 or more) pixel values are selected from the corresponding pixel positions. The selection order of the pixel positions may be, for example, the scan line order from the upper left. For example, when each of the input images is composed of p × q pixels having coordinates (1, 1) to (p, q) (p and q are integers of 1 or more), at time t (t is an integer of 2 or more). When the input image and the processing target image I t, background pixel selection unit 130 firstly processed as the center image I t from among the pixel values of the pixel positions of the coordinates of the n input images (1,1) Select m. Background pixel selection unit 130 then selects an m number around the target image I t from among the pixel values of the pixel positions of the coordinates of the n input images (1, 2). In this manner, ultimately m pixel value is to be selected p × q of sets for the input image (I 1 ~I n). These selected pixel values are supplied to the background estimation unit 140.

背景推定部140は、背景画素選択部130において選択されたm個の画素値に基づいて、処理対象画像Iの各画素位置の背景値を推定するものである。m個の画素値は上述のようにp×q組分供給されるため、背景推定部140は、1枚の処理対象画像Iに対してp×q個の背景値を推定する。この推定された背景値Be(以下、背景推定値という)は、背景更新部210に供給される。この背景値推定の際には、後述するように、背景の時間的恒常性を利用した統計的な処理が行われる。この処理により、m個の画素値をそれぞれ基準値としてサンプリングした場合に、各基準値に近い画素値の数がカウントされ、そのカウント数が最も多くなるような基準値が背景値として推定され、その推定された際のカウント数が最大カウント数cとなる。この最大カウント数(c)およびサンプリング総数(m)は、背景信頼度生成部150に供給される。 Background estimation unit 140, based on the m number of pixel values selected in the background pixel selection unit 130, and estimates the background value of each pixel position of the processing target image I t. For m pixel values supplied p × q of sets as described above, the background estimation unit 140 estimates the p × q pieces of background values with respect to one of the processing target image I t. The estimated background value Be t (hereinafter referred to as background estimation value) is supplied to the background update unit 210. In this background value estimation, as will be described later, statistical processing using the temporal constancy of the background is performed. With this process, when m pixel values are sampled as reference values, the number of pixel values close to each reference value is counted, and the reference value that maximizes the count number is estimated as the background value. The estimated count number is the maximum count number c. The maximum count number (c) and the total sampling number (m) are supplied to the background reliability generation unit 150.

背景信頼度生成部150は、背景推定部140から供給された最大カウント数(c)およびサンプリング総数(m)に基づいて、背景推定部140において推定された背景推定値の信頼度Tを生成するものである。具体的には、背景値の信頼度Tは、次式により求めることができる。なお、この背景信頼度生成部150により生成された背景値の信頼度Tは、処理対象画像Iにおける画素位置毎に求められ、信号線229を介して背景更新部210および相違度生成部160に供給される。
=c/m
The background reliability generation unit 150 generates the reliability T t of the background estimation value estimated by the background estimation unit 140 based on the maximum count number (c) and the total sampling number (m) supplied from the background estimation unit 140. To do. Specifically, the reliability T t of the background value can be obtained by the following equation. Incidentally, the reliability T t of the background value generated by the background reliability determining unit 150, the processing is determined for each pixel position in the target image I t, background update unit through the signal lines 229 210 and degree-of-difference generation unit 160.
T t = c / m

背景更新部210は、背景推定部140により推定された背景値に基づいて背景更新値保持部221に保持される背景値(背景更新値)を更新するものである。この背景更新部210は、背景推定部140により推定された背景値Beと背景更新値保持部221に保持される背景更新値But−1とから、処理対象画像Iにおける背景更新値Buを生成して背景更新値保持部221に保持させる。このとき、背景信頼度生成部150から供給された背景値の信頼度Tに応じて、背景値Beと背景更新値But−1との比率を変えることができる。すなわち、背景値Beの信頼度Tが高ければ背景値Beの比率を高くし、背景値Beの信頼度Tが低ければ背景更新値But−1の比率を高くする。例えば、時刻tの座標(x,y)の背景値の信頼度をT(x,y,t)、時刻tの座標(x,y)の背景推定値をBe(x,y,t)、時刻t−1の座標(x,y)の背景更新値をBu(x,y,t−1)とすると、時刻tの座標(x,y)の背景更新値Bu(x,y,t)は次式により算出される。

Figure 2009181259
The background update unit 210 updates the background value (background update value) held in the background update value holding unit 221 based on the background value estimated by the background estimation unit 140. The background update section 210, the background update value Bu t-1 Metropolitan held in the background value Be t and background update value holding section 221 estimated by the background estimation unit 140, a background update value in the processing target image I t Bu t is generated and stored in the background update value storage unit 221. In this case, it is possible in accordance with the reliability T t of the background value supplied from the background reliability determining unit 150, changing the ratio between the background value Be t and background update value Bu t-1. That is, the higher the reliability T t of the background value Be t with a ratio of the background value Be t, a higher ratio of the background updated value Bu t-1 A low reliability T t of the background value Be t. For example, the reliability of the background value of the coordinate (x, y) at time t is T (x, y, t), the estimated background value of the coordinate (x, y) at time t is Be (x, y, t), Assuming that the background update value at the coordinates (x, y) at time t−1 is Bu (x, y, t−1), the background update value Bu (x, y, t) at the coordinates (x, y) at time t−1. Is calculated by the following equation.
Figure 2009181259

但し、kは更新パラメータである。kをフィルタ係数とすれば、上式はIIR(Infinite Impulse Response)フィルタの伝達関数の式と等価である。すなわち、時刻tの背景更新値Buを、時刻tの背景値Beと時刻t−1の背景更新値But−1とを用いて、IIRフィルタにより更新していることになる。これにより、背景が変動する場合においても対応することができ、また、背景信頼度が低い場合には、前の時刻の背景更新値の重みが大きくなるように背景更新値が更新されるため、背景信頼度を考慮した背景値の更新が可能になる。なお、この背景更新部210により更新された背景更新値Buは、信号線228を介して背景更新値保持部221および相違度生成部160に供給される。 However, k is an update parameter. If k is a filter coefficient, the above equation is equivalent to the equation of an IIR (Infinite Impulse Response) filter transfer function. That is, the background update value Bu t at time t, with reference to the background update value Bu t-1 of the background value of the time t Be t and time t-1, will have been updated by an IIR filter. Thereby, it is possible to cope with the case where the background fluctuates, and when the background reliability is low, the background update value is updated so that the weight of the background update value at the previous time is increased. The background value can be updated in consideration of the background reliability. Incidentally, the background update value Bu t updated by the background update unit 210 via the signal line 228 is supplied to the background update value holding unit 221 and the degree-of-difference generation unit 160.

背景更新値保持部221は、背景更新部210によって更新された背景更新値を保持するものである。この背景更新値保持部221により保持される背景更新値は、次の時刻(t)において前回の背景更新値But−1として背景更新部210に供給される。 The background update value holding unit 221 holds the background update value updated by the background update unit 210. The background update value held by the background update value holding unit 221 is supplied to the background update unit 210 at the next time (t) as the previous background update value But -1 .

相違度生成部160は、軌跡画素選択部120によって選択された処理対象画像Iの各画素位置の画素値と背景更新部210によって更新された背景更新値Buとの間の相違度dを生成するものである。例えば、処理対象画像の画素値と背景更新値との色空間上の距離に比例するように相違度を設定することができる。これにより、両者の距離が大きいほど相違度も大きくなる。 Degree-of-difference generation unit 160, the dissimilarity d between the background update value Bu t updated by the pixel value and the background update unit 210 of each pixel position of the processing target image I t selected by the trajectory pixel selection unit 120 Is to be generated. For example, the degree of difference can be set so as to be proportional to the distance in the color space between the pixel value of the processing target image and the background update value. Thus, the greater the distance between the two, the greater the degree of difference.

ここで、両者の距離は例えば以下のように定義される。すなわち、画素値をRGB値で表した場合、処理対象画像の画素値V1(R1、G1、B1)と背景更新値V2(R2、G2、B2)との間の距離は、ユークリッド空間における距離、各色空間における距離の総和、または、最大相違値を示す色空間における距離などにより表すことができる。なお、ここでは、RGB色空間の例を示しているが、例えば、YCbCr色空間やその他の色空間を用いるようにしても構わない。

Figure 2009181259
Here, the distance between the two is defined as follows, for example. That is, when the pixel value is represented by an RGB value, the distance between the pixel value V1 (R1, G1, B1) of the processing target image and the background update value V2 (R2, G2, B2) is a distance in the Euclidean space, It can be expressed by the sum of the distances in each color space, the distance in the color space showing the maximum difference value, or the like. Although an example of the RGB color space is shown here, for example, a YCbCr color space or other color spaces may be used.
Figure 2009181259

また、背景信頼度生成部150から供給された信頼度Tが低い場合には、相違度dを大きくすることも考えられる。つまり、相違度生成部160は、信頼度Tが高い場合には処理対象画像の画素値と背景推定値との距離を利用して相違度dを算出するが、信頼度Tが低い場合には相違度dを大きく設定する。もしくは、相違度生成部160は、信頼度Tが低いほど相違度dが大きくなるよう相違度を生成する。相違度dが大きいということは、動被写体であることを意味する。相違度生成の際にこのような信頼度Tに応じた処理を行うのは、背景を動体と誤判定するリスクよりも動体を背景と誤判定するリスクの方が大きいからである。例えば、動体を背景と誤判定した場合、動体は軌跡合成に反映されずに動体の軌跡が消えるが、背景を動体と誤判定した場合、軌跡合成において背景の上に背景を合成することになっても出力結果に与える影響は少ない。この相違度生成部160によって生成された相違度dは、信号線169を介して軌跡合成部170に供給される。 In addition, when the reliability T t supplied from the background reliability generation unit 150 is low, the difference d may be increased. That is, the dissimilarity generation unit 160 calculates the dissimilarity d using the distance between the pixel value of the processing target image and the background estimation value when the reliability Tt is high, but the reliability Tt is low. Is set to a large difference d. Alternatively, the dissimilarity generation unit 160 generates the dissimilarity so that the dissimilarity d increases as the reliability Tt decreases. A large difference d means a moving subject. The reason why the process according to the reliability T t is performed when the difference is generated is that the risk of misjudging a moving object as a background is greater than the risk of misjudging the background as a moving object. For example, if the moving object is erroneously determined as the background, the moving object disappears without being reflected in the trajectory synthesis, but if the background is erroneously determined as the moving object, the background is synthesized on the background in the trajectory synthesis. However, it has little effect on the output result. The dissimilarity d generated by the dissimilarity generation unit 160 is supplied to the trajectory synthesis unit 170 via the signal line 169.

軌跡合成部170は、相違度生成部160によって生成された相違度dに基づいて合成比率を生成して、この合成比率により時刻tの処理対象画像Iと軌跡合成結果保持部180に保持されている時刻t−1の軌跡合成結果とを合成して、時刻tの軌跡合成結果を生成するものである。生成された時刻tの軌跡合成結果は、信号線179を介して軌跡合成結果保持部180および軌跡合成画像表示部190に供給される。 The trajectory synthesis unit 170 generates a synthesis ratio based on the dissimilarity d generated by the dissimilarity generation unit 160, and is held in the processing target image It at time t and the trajectory synthesis result holding unit 180 based on the synthesis ratio. The locus synthesis result at time t-1 is synthesized with the locus synthesis result at time t-1. The generated trajectory synthesis result at time t is supplied to the trajectory synthesis result holding unit 180 and the trajectory composite image display unit 190 via the signal line 179.

軌跡合成結果保持部180は、軌跡合成部170による軌跡合成結果を保持するものである。この軌跡合成結果保持部180に保持された軌跡合成結果は、次の時刻で信号線189を介して軌跡合成部170に供給される。すなわち、時刻tの入力画像を処理対象画像としている時には、時刻t−1の軌跡合成結果が軌跡合成部170に供給されることになる。   The trajectory synthesis result holding unit 180 holds the trajectory synthesis result by the trajectory synthesis unit 170. The locus synthesis result held in the locus synthesis result holding unit 180 is supplied to the locus synthesis unit 170 via the signal line 189 at the next time. That is, when the input image at time t is used as the processing target image, the locus synthesis result at time t−1 is supplied to the locus synthesis unit 170.

軌跡合成画像表示部190は、信号線179を介して軌跡合成部170から供給された軌跡合成結果に基づいて軌跡合成画像を表示するものである。この軌跡合成画像表示部190は、表示部43をそのまま用いてもよく、また、撮像装置に接続された他の表示装置により実現されてもよい。   The trajectory composite image display unit 190 displays a trajectory composite image based on the trajectory composite result supplied from the trajectory composite unit 170 via the signal line 179. The trajectory composite image display unit 190 may use the display unit 43 as it is, or may be realized by another display device connected to the imaging device.

図3は、本発明の実施の形態による背景画素選択部130における画素値選択の態様を示す図である。背景画素選択部130は、入力画像保持部110に保持された入力画像(I〜I)のうち、時刻tの入力画像Iを処理対象画像として、その入力画像Iのp×q画素の各画素位置について画素値の選択を行う。 FIG. 3 is a diagram illustrating a mode of pixel value selection in the background pixel selection unit 130 according to the embodiment of the present invention. Background pixel selection unit 130 of the input image stored in the input image holding unit 110 (I 1 ~I n), as the processing target image the input image I t at time t, p × q of the input image I t A pixel value is selected for each pixel position of the pixel.

入力画像Iにおける1つの画素位置の画素値Vについて背景値を推定するためには、入力画像Iを中心とする他の入力画像における対応する画素位置の画素値が用いられる。例えば、時刻t−iおよび時刻t+iの入力画像It−iおよびIt−iにおける対応する画素位置の画素値Vt−iおよびVt+iが用いられる。 In order to estimate the background value for the pixel value V t of a pixel position in the input image I t, the pixel value of the corresponding pixel position in the other input image centered on the input image I t is used. For example, the pixel values V t-i and V t + i of the corresponding pixel positions in the input images I t-i and I t-i at the time t-i and the time t + i are used.

背景画素選択部130により選択される画素値の数は多いほど背景値推定の精度を向上させるのに有利であるが、その一方で計算コストは増大する。そこで、以下のように背景値推定の精度を考慮して画素値の選択間隔を調整することが望ましい。   As the number of pixel values selected by the background pixel selection unit 130 increases, it is advantageous to improve the accuracy of background value estimation, but the calculation cost increases. Therefore, it is desirable to adjust the pixel value selection interval in consideration of the accuracy of background value estimation as follows.

図4は、本発明の実施の形態における画素値の選択間隔の例を示す図である。ここでは、入力画像(I〜I)の時間方向を横軸に示している。同図(a)は、時刻tを中心とした一定の範囲内における画素値を全て選択した例である。同図(b)は、時刻tを中心とした一定の範囲内における画素値を等間隔に間引いて選択した例である。同図(c)は、時刻tを中心とした一定の範囲内において、時刻tに近いほど密に、遠いほど粗く画素値を選択した例である。すなわち、同図(c)では、入力画像との時間的距離が近いほど時間的に高い頻度で画素値が選択されている。 FIG. 4 is a diagram illustrating an example of a pixel value selection interval according to the embodiment of the present invention. Here, the time direction of the input images (I 1 to I n ) is shown on the horizontal axis. FIG. 4A shows an example in which all pixel values within a certain range centered on time t are selected. FIG. 5B shows an example in which pixel values within a certain range centered on time t are selected by being thinned out at equal intervals. FIG. 6C shows an example in which pixel values are selected more densely as the time is closer to time t and coarser as the time is farther within a certain range centered on time t. That is, in FIG. 3C, pixel values are selected with a higher frequency in time as the temporal distance from the input image is closer.

このように、同図(a)と比べて、同図(b)または(c)のように画素値を選択することにより、選択される時間範囲を変更することなく画素値の数を減らすことができ、背景値推定の精度の劣化を抑えることができる。   In this way, the number of pixel values can be reduced without changing the time range to be selected by selecting the pixel values as shown in (b) or (c) of FIG. It is possible to suppress degradation of the accuracy of background value estimation.

図5は、本発明の実施の形態による背景推定部140における背景値推定の態様を示す図である。背景画素選択部130により選択されたm個の画素値の1個をサンプリングして基準値とする。この基準値を中心として画素値の高低のそれぞれに背景閾値を加味した範囲内に収まる画素値の数をカウントする。同図の例では、カウント数は7個となる。その後、m個の画素値のうち他の1個を基準値として順次変えながら同様にカウントしていく。その結果、そのカウント数が最も多くなるような基準値が推定された背景値Beとなる。すなわち、画素値の最頻値が背景値として推定される。また、背景値として推定された際のカウント数が最大カウント数cとなる。なお、ここでは、カウント数が最も多くなるような基準値を背景値として推定したが、その際の背景閾値の範囲内に収まる画素値の平均値を背景値として推定してもよい。 FIG. 5 is a diagram showing an aspect of background value estimation in the background estimation unit 140 according to the embodiment of the present invention. One of the m pixel values selected by the background pixel selection unit 130 is sampled and used as a reference value. The number of pixel values that fall within a range in which the background threshold is added to each of the high and low pixel values with the reference value as the center is counted. In the example of the figure, the count number is seven. After that, the other one of the m pixel values is sequentially changed as a reference value and counted in the same manner. As a result, the count number is most often made background reference value is the estimate Be t. That is, the mode value of the pixel value is estimated as the background value. Further, the count number when estimated as the background value is the maximum count number c. Here, the reference value that maximizes the number of counts is estimated as the background value, but an average value of pixel values that fall within the background threshold range at that time may be estimated as the background value.

図6は、本発明の実施の形態における軌跡合成部170の一構成例を示す図である。この軌跡合成部170は、フェードアウト制御パラメータ保持部171と、合成比率生成部172と、軌跡合成値算出部173とを備えている。   FIG. 6 is a diagram illustrating a configuration example of the trajectory synthesis unit 170 in the embodiment of the present invention. The trajectory synthesis unit 170 includes a fade-out control parameter holding unit 171, a synthesis ratio generation unit 172, and a trajectory synthesis value calculation unit 173.

フェードアウト制御パラメータ保持部171は、フェードアウト制御パラメータαbgを保持するものである。このフェードアウト制御パラメータαbgは、背景の合成比率を表すものであり、このフェードアウト制御パラメータαbgを大きく設定すると短期間で背景に埋もれてフェードアウトしていくことになる。 The fade-out control parameter holding unit 171 holds the fade-out control parameter α bg . The fade-out control parameter α bg represents the background synthesis ratio. If the fade-out control parameter α bg is set large, the fade-out control parameter α bg is buried in the background and fades out in a short period of time.

合成比率生成部172は、相違度生成部160から信号線169を介して供給された相違度dおよびフェードアウト制御パラメータ保持部171に保持されたフェードアウト制御パラメータαbgに基づいて、軌跡合成のための合成比率αを生成するものである。この合成比率αは、次式により算出される。
α=αbg+d・(1−αbg
Based on the difference d supplied from the difference generation unit 160 via the signal line 169 and the fade-out control parameter α bg held in the fade-out control parameter holding unit 171, the combination ratio generation unit 172 The composition ratio α is generated. This synthesis ratio α is calculated by the following equation.
α = α bg + d · (1−α bg )

相違度dが大きい場合、αも大きくなり、合成時の原画像(処理対象画像I)の画素値の寄与率が高くなるため、原画像の画素値が軌跡として合成結果に反映され易くなる。一方、相違度dが小さい場合、αも小さくなり、合成結果に対して過去の軌跡画像の寄与率が高くなるため、原画像の画素値が軌跡として合成結果に反映され難くなる。 When the degree of difference d is large, α also increases, and the contribution ratio of the pixel value of the original image (processing target image I t ) at the time of composition increases, so that the pixel value of the original image is easily reflected as a trajectory in the composition result. . On the other hand, when the degree of difference d is small, α is also small, and the contribution rate of the past trajectory image is high with respect to the composite result, so that the pixel value of the original image is hardly reflected as a trajectory in the composite result.

上述のように、αbgは背景の合成比率を表すパラメータであり、背景領域であれば相違度dが0になるため、α=αbgにより原画像の画素値が軌跡合成結果に反映される。つまり、原画像の画素が背景であっても過去の軌跡に原画像の画素値を合成するため、古い軌跡ほど背景に埋もれていくフェードアウトの効果を生み出すことが可能となる。このように、フェードアウト制御パラメータαbgによって軌跡のフェードアウトの度合いを制御することが可能となる。 As described above, α bg is a parameter representing the background synthesis ratio. Since the difference d is 0 in the background area, the pixel value of the original image is reflected in the trajectory synthesis result by α = αbg. In other words, even if the pixels of the original image are the background, the pixel values of the original image are synthesized with the past trajectory, so that it becomes possible to produce a fade-out effect that is buried in the background as the old trajectory is. In this manner, the degree of trajectory fade-out can be controlled by the fade-out control parameter α bg .

軌跡合成値算出部173は、軌跡画素選択部120から信号線129を介して供給された処理対象画像Iと軌跡合成結果保持部180から信号線189を介して供給された直前の軌跡合成結果St−1とを合成比率生成部172によって生成された合成比率αにより合成するものである。ここで、時刻tの座標(x,y)の入力画像をI(x,y,t)、時刻t−1の軌跡合成結果をS(x,y,t−1)とすると、時刻tの軌跡合成結果S(x,y,t)は次式により算出される。
S(x,y,t)=α・I(x,y,t)+(1−α)・S(x,y,t−1)
Locus synthesis value calculation unit 173, the locus synthesis result immediately before supplied via the signal line 189 from the target image I t and the locus synthesis result storage unit 180 supplied via the signal line 129 from the trajectory pixel selection unit 120 S t-1 is synthesized by the synthesis ratio α generated by the synthesis ratio generation unit 172. Here, if the input image at the coordinates (x, y) at time t is I (x, y, t) and the locus synthesis result at time t-1 is S (x, y, t-1), The locus synthesis result S (x, y, t) is calculated by the following equation.
S (x, y, t) = α · I (x, y, t) + (1−α) · S (x, y, t−1)

上式の処理を、座標(1,1)乃至(p,q)の全画素位置において繰り返すことにより、時刻tにおける軌跡画像が合成される。なお、上述のように、相違度dが大きいほど合成比率αも大きくなるため、動被写体である処理対象画像Iは軌跡として合成結果に反映され易くなる。 The trajectory image at time t is synthesized by repeating the above processing at all pixel positions of coordinates (1, 1) to (p, q). As described above, since the degree of difference d is higher the greater the synthesis ratio α greater, the processing target image I t is a moving subject is likely to be reflected in the composition result as the locus.

ここで、フェードアウト制御パラメータαbgによる効果を説明するために、図7(a)、同図(b)、同図(c)、同図(d)および同図(e)の順番で撮像された撮像画像を入力画像として想定する。フェードアウト制御パラメータαbgとして「0」を設定した場合、合成比率αは相違度dと一致する。動被写体領域では相違度dが「1」になり、背景領域では相違度dが「0」になるとすると、合成の際に背景と動被写体が混ざることがないため、最終的に得られる軌跡合成画像には図8(a)のように動被写体の軌跡が全て濃く表示される。 Here, in order to explain the effect of the fade-out control parameter α bg , images are taken in the order of FIG. 7A, FIG. 7B, FIG. 7C, FIG. The captured image is assumed as an input image. When “0” is set as the fade-out control parameter α bg , the composition ratio α matches the dissimilarity d. If the dissimilarity d is “1” in the moving subject region and the dissimilarity d is “0” in the background region, the background and the moving subject are not mixed at the time of composition. In the image, the locus of the moving subject is all darkly displayed as shown in FIG.

一方、フェードアウト制御パラメータαbgとして「0.3」程度を設定した場合、合成比率αは「0.3」から「1」の間の値となる。動被写体領域では相違度dが「1」になり、背景領域では相違度dが「0」になるとすると、合成されるたびに背景が動被写体に混ざっていくため、最終的に得られる軌跡合成画像には図8(b)のように動被写体の軌跡が古いものほど薄く表示される。 On the other hand, when about “0.3” is set as the fade-out control parameter α bg , the composition ratio α is a value between “0.3” and “1”. If the dissimilarity d is “1” in the moving subject region and the dissimilarity d is “0” in the background region, the background is mixed with the moving subject every time the composition is performed. In the image, as the locus of the moving subject is older, the lighter is displayed as shown in FIG.

また、軌跡合成画像は、図8(a)および(b)のように1枚の軌跡合成画像として表示するだけでなく、図9や図10のように動被写体の移動する途中の状態を複数枚の軌跡合成画像として時系列に表示してもよい。この場合も、上述のフェードアウト制御パラメータαbgを利用してフェードアウトの度合いを制御することができる。例えば、軌跡をはっきり残したい場合には、フェードアウト制御パラメータαbgとして「0」を設定すれば、合成比率αは相違度dと一致する。動被写体領域では相違度dが「1」になり、背景領域では相違度dが「0」になるとすると、合成の際に背景と動被写体が混ざることがないため、途中の軌跡合成画像には図9のように動被写体の軌跡が全て濃く表示される。 Further, the trajectory composite image is not only displayed as one trajectory composite image as shown in FIGS. 8A and 8B, but also a plurality of states during the movement of the moving subject as shown in FIG. 9 and FIG. It may be displayed in time series as a single trajectory composite image. Also in this case, the degree of fade-out can be controlled using the above-described fade-out control parameter α bg . For example, when it is desired to leave a locus clearly, if “0” is set as the fade-out control parameter α bg , the composition ratio α matches the difference d. If the dissimilarity d is “1” in the moving subject region and the dissimilarity d is “0” in the background region, the background and the moving subject are not mixed at the time of composition. As shown in FIG. 9, the locus of the moving subject is all darkly displayed.

一方、軌跡をフェードアウトさせたい場合には、フェードアウト制御パラメータαbgとして「0.3」程度を設定すれば、合成比率αは「0.3」から「1」の間の値となる。動被写体領域では相違度dが「1」になり、背景領域では相違度dが「0」になるとすると、合成されるたびに背景が動被写体に混ざっていくため、途中の軌跡合成画像には図10のように動被写体の軌跡が古いものほど薄く表示される。 On the other hand, when it is desired to fade out the trajectory, the synthesis ratio α becomes a value between “0.3” and “1” by setting about “0.3” as the fade-out control parameter α bg . If the dissimilarity d is “1” in the moving subject region and the dissimilarity d is “0” in the background region, the background is mixed with the moving subject every time the composition is performed. As shown in FIG. 10, the older the moving subject trajectory is, the lighter is displayed.

図11は、本発明の実施の形態における撮像装置の画像処理回路23の第1の実施例の変形例を示す図である。この変形例では、背景更新値保持部221に代えて背景情報保持部220を備えている。この背景情報保持部220は、背景更新部210によって更新された背景更新値Buおよび背景信頼度生成部150によって生成された背景値の信頼度Tを背景情報として保持するものである。この背景情報保持部220を設けることにより、背景画素選択部130、背景推定部140、背景信頼度生成部150および背景更新部210による背景更新処理と、軌跡画素選択部120および相違度生成部160による動体検出処理または軌跡合成部170による軌跡合成処理とをタイミングをずらして実行することができるようになる。 FIG. 11 is a diagram illustrating a modification of the first example of the image processing circuit 23 of the imaging device according to the embodiment of the present invention. In this modification, a background information holding unit 220 is provided instead of the background update value holding unit 221. This background information holding unit 220 is to hold the reliability T t of the background value generated by the background update value Bu t and background reliability determining unit 150 updated by the background update section 210 as background information. By providing the background information holding unit 220, the background pixel selection unit 130, the background estimation unit 140, the background reliability generation unit 150 and the background update unit 210 perform background update processing, and the trajectory pixel selection unit 120 and the difference degree generation unit 160. It is possible to execute the moving object detection process according to the above or the trajectory synthesis process by the trajectory synthesis unit 170 at different timings.

図12は、本発明の実施の形態における撮像装置の処理タイミング例を示す図である。背景画素選択部130、背景推定部140、背景信頼度生成部150および背景更新部210による処理を背景更新処理、軌跡画素選択部120および相違度生成部160による処理を動体検出処理、軌跡合成部170による処理を軌跡合成処理とすると、それぞれを逐次的に処理する場合には、同図(a)のようなタイミングになる。すなわち、背景更新処理が行われた後に動体検出処理が行われ、動体検出処理が行われた後に軌跡合成処理が行われる。   FIG. 12 is a diagram illustrating an example of processing timing of the imaging apparatus according to the embodiment of the present invention. The background pixel selection unit 130, the background estimation unit 140, the background reliability generation unit 150, and the background update unit 210 perform the background update process, and the trajectory pixel selection unit 120 and the difference generation unit 160 perform the moving object detection process and the trajectory synthesis unit. Assuming that the processing by 170 is the trajectory synthesis processing, the timing is as shown in FIG. That is, the moving object detection process is performed after the background update process is performed, and the locus synthesis process is performed after the moving object detection process is performed.

図11のように背景情報保持部220を設けた場合、背景更新処理の結果は背景情報として背景情報保持部220に保持されるため、図12(b)のように動体検出処理および軌跡合成処理の終了を待つことなく次の背景更新処理を行うことができる。すなわち、背景更新処理と動体検出処理または軌跡合成処理とはオーバラップして実行することができる。   When the background information holding unit 220 is provided as shown in FIG. 11, the result of the background update process is held as background information in the background information holding unit 220. Therefore, the moving object detection process and the trajectory synthesis process as shown in FIG. It is possible to perform the next background update process without waiting for the end of. That is, the background update process and the moving object detection process or the trajectory synthesis process can be executed in an overlapping manner.

また、背景更新処理が動体検出処理および軌跡合成処理に比べて重い処理であることから、全体のスループットをさらに向上させるために、背景更新処理と動体検出処理および軌跡合成処理との頻度を1対2の割合にしたものが図12(c)である。これによれば、背景更新を1回行った結果により動体検出および軌跡合成を2回行うことができる。背景が緩やかに変動している場合は、動体検出毎に背景更新を行う必要はなく、処理の重い背景更新の頻度を下げることにより、全体のスループットを向上させることができる。   In addition, since the background update process is heavier than the moving object detection process and the trajectory synthesis process, the frequency of the background update process, the moving object detection process, and the trajectory synthesis process is set to one pair in order to further improve the overall throughput. FIG. 12C shows the ratio of 2. According to this, a moving body detection and locus | trajectory synthesis | combination can be performed twice by the result of having performed background update once. When the background fluctuates gently, it is not necessary to update the background every time a moving object is detected, and the overall throughput can be improved by reducing the frequency of background updating, which is heavy processing.

図12(c)と同じ条件で背景情報保持部220を設けた場合、図12(d)のように動体検出処理および軌跡合成処理の終了を待つことなく次の背景更新処理を行うことができる。すなわち、1回の背景更新処理と2回の動体検出処理または軌跡合成処理とをオーバラップして実行することができ、スループットがさらに向上する。   When the background information holding unit 220 is provided under the same conditions as in FIG. 12C, the next background update process can be performed without waiting for the end of the moving object detection process and the trajectory synthesis process as shown in FIG. . That is, one background update process and two moving object detection processes or trajectory synthesis processes can be executed in an overlapping manner, further improving the throughput.

次に本発明の実施の形態における撮像装置の第1の実施例の動作について図面を参照して説明する。   Next, the operation of the first example of the imaging apparatus according to the embodiment of the present invention will be described with reference to the drawings.

図13は、本発明の実施の形態における撮像装置による背景更新処理手順の一例を示す流れ図である。   FIG. 13 is a flowchart illustrating an example of a background update processing procedure by the imaging apparatus according to the embodiment of the present invention.

まず、背景画素選択部130において、処理対象画像を中心として時系列順に前後の時刻の入力画像において、対応する画素位置の中からm個の画素値が選択される(ステップS911)。この画素値選択の際の入力画像間の関係については、図3および図4により説明したとおりである。   First, in the background pixel selection unit 130, m pixel values are selected from the corresponding pixel positions in the input image at the time before and after the processing target image in the time series order (step S911). The relationship between input images at the time of pixel value selection is as described with reference to FIGS.

そして、この選択された画素値に基づいて、背景推定部140において背景値Beが推定される(ステップS912)。この背景値推定のための処理については、図5により説明したとおりである。 On the basis of the selected pixel values, the background values Be t is estimated in the background estimation unit 140 (step S912). The process for estimating the background value is as described with reference to FIG.

この背景値推定の際に得られた最大カウント数(c)およびサンプリング総数(m)に基づいて、背景信頼度生成部150において背景値の信頼度Tが生成される(ステップS913)。 Based on the maximum count number (c) and the total sampling number (m) obtained at the time of estimating the background value, the background reliability generation unit 150 generates the background value reliability T t (step S913).

そして、推定された背景値Beに基づいて、背景更新値But−1が背景更新部210によって更新される(ステップS914)。この背景値更新の際には、背景値の信頼度Tが考慮され、背景値Beの信頼度Tが高ければ背景値Beの比率が高くなり、背景値Beの信頼度Tが低ければ背景更新値But−1の比率が高くなる。 Then, based on the estimated background value Be t, background update value Bu t-1 is updated by the background update section 210 (step S914). During the background value update is considered the reliability T t of the background value, the higher the reliability T t of the background value Be t becomes high proportion of the background value Be t, reliability T background value Be t If t is low, the ratio of the background update value But -1 is high.

処理対象画像Iにおけるp×q画素の各画素位置について上述の処理が終了すると、その処理対象画像Iに関する処理は終了する(ステップS915)。これらステップS911乃至S914の処理は、各画素位置について独立に行うことが可能である。 When the above-described processing for each pixel position of the p × q pixels in the target image I t is completed, the process relates to the processing target image I t is completed (step S915). The processes in steps S911 to S914 can be performed independently for each pixel position.

時刻tの入力画像を処理対象画像としてステップS911乃至S915の処理が完了した後、引き続き時刻t+1以降の入力画像を処理対象画像としてステップS911乃至S915の処理を繰り返すことにより、軌跡合成画像を順次、時系列に生成していくことができる。これら処理対象画像の処理についても、各処理対象画像間において独立に行うことが可能である。   After the processing of steps S911 to S915 is completed with the input image at time t as the processing target image, the trajectory composite image is sequentially repeated by repeating the processing of steps S911 to S915 with the input image after time t + 1 as the processing target image. It can be generated in time series. These processing target images can be processed independently between the processing target images.

図14は、本発明の実施の形態における撮像装置による動体検出および軌跡合成処理手順の一例を示す流れ図である。   FIG. 14 is a flowchart showing an example of a moving object detection and trajectory synthesis processing procedure by the imaging apparatus according to the embodiment of the present invention.

まず、軌跡画素選択部120において、入力画像の1枚を処理対象画像Iとして、各画素位置の画素値が選択される(ステップS921)。そして、この選択された入力画像の画素値と、背景更新処理により更新された背景値Buとの相違度dが相違度生成部160によって生成される(ステップS923)。 First, the locus pixel selection unit 120, as a processing target image I t the one input image, a pixel value of each pixel position is selected (step S921). Then, the pixel value of the selected input image, the dissimilarity d between the updated background value Bu t is generated by the degree-of-difference generation unit 160 by the background update process (step S923).

このようにして生成された相違度dに基づいて、軌跡合成部170において合成比率αが生成され、この合成比率αに応じて処理対象画像Iと直前の軌跡合成結果St−1とが合成されて、その結果が出力される(ステップS924)。 Based on thus generated dissimilarity d, the generated synthesis ratio α in the locus synthesis unit 170, the process target image I t and the previous locus synthesis result of S t-1 in accordance with the synthesis ratio α is The result is synthesized and the result is output (step S924).

処理対象画像におけるp×q画素の各画素位置について上述の処理が終了すると、その処理対象画像に関する処理は終了する(ステップS925)。これらステップS921乃至S924の処理は、各画素位置について独立に行うことが可能である。   When the above-described processing is completed for each pixel position of p × q pixels in the processing target image, the processing regarding the processing target image ends (step S925). The processes in steps S921 to S924 can be performed independently for each pixel position.

時刻tの入力画像を処理対象画像としてステップS921乃至S925の処理が完了した後、引き続き時刻t+1以降の入力画像を処理対象画像としてステップS921乃至S925の処理を繰り返すことにより、軌跡合成画像を順次、時系列に生成していくことができる。これら処理対象画像の処理についても、各処理対象画像間において独立に行うことが可能である。   After the processing of steps S921 to S925 is completed using the input image at time t as the processing target image, the trajectory composite image is sequentially repeated by repeating the processing of steps S921 to S925 using the input image after time t + 1 as the processing target image. It can be generated in time series. These processing target images can be processed independently between the processing target images.

また、図11の変形例のように、背景情報保持部220を設けることにより、図13の背景更新処理と、図14の動体検出および軌跡合成処理とをオーバラップして実行させることができる。   Further, by providing the background information holding unit 220 as in the modified example of FIG. 11, the background update process of FIG. 13 and the moving object detection and trajectory synthesis process of FIG. 14 can be executed in an overlapping manner.

このように、本発明の実施の形態によれば、時系列の入力画像から背景推定部140により背景値を推定し、その推定された背景値に基づいて背景更新値保持部221に保持される背景値を逐次更新することにより、背景が変動するような状況においても、安定した動被写体検出を行うことができる。すなわち、撮像画像の背景の状態や、動被写体の数、大きさ、変形、色などに左右されずに、精度の高い動被写体の軌跡合成画像を生成することが可能な画像処理装置を実現することができる。   Thus, according to the embodiment of the present invention, the background estimation unit 140 estimates the background value from the time-series input image, and is stored in the background update value holding unit 221 based on the estimated background value. By sequentially updating the background value, stable moving subject detection can be performed even in a situation where the background fluctuates. That is, an image processing apparatus capable of generating a highly accurate moving subject trajectory composite image without being influenced by the background state of the captured image and the number, size, deformation, color, etc. of the moving subject is realized. be able to.

また、本発明の実施の形態によれば、動被写体の誤検出の問題に対し、背景信頼度の低い領域においては動被写体と判定することで、軌跡合成結果に与える影響および計算コストの双方を抑えることができる。   Further, according to the embodiment of the present invention, with respect to the problem of erroneous detection of a moving subject, it is determined that the subject is a moving subject in an area with low background reliability, thereby reducing both the influence on the trajectory synthesis result and the calculation cost. Can be suppressed.

また、本発明の実施の形態によれば、動体検出に対する背景更新頻度を制御することで効果的にスループットを向上させることができる。   Moreover, according to the embodiment of the present invention, it is possible to effectively improve the throughput by controlling the background update frequency for moving object detection.

なお、本発明の実施の形態ではデジタルスチルカメラやデジタルビデオカメラなどの撮像装置によって連続撮影された複数枚の画像を想定して説明したが、本発明はこれに限定されるものではなく、再生機器において放送網やインターネットを介して取得された映像データ等も入力画像として適用することができる。   The embodiment of the present invention has been described assuming a plurality of images continuously captured by an imaging apparatus such as a digital still camera or a digital video camera. However, the present invention is not limited to this, and playback is performed. Video data or the like acquired via a broadcast network or the Internet in the device can also be applied as an input image.

次に本発明の実施の形態における撮像装置の第2の実施例について図面を参照して説明する。   Next, a second example of the imaging apparatus according to the embodiment of the present invention will be described with reference to the drawings.

図15は、本発明の実施の形態における撮像装置の画像処理回路23の第2の実施例を示す図である。この第2の実施例による撮像装置は、第1の実施例の構成において背景更新部210および背景更新値保持部221に代えて背景情報保持部220を設けた構成になっている。この場合、背景画素選択部130は、入力画像(I〜I)の全体を射程範囲としてその中からm個の画素値を選択する。この選択された画素値に基づいて背景推定部140において背景値Bが推定され、その信頼度Tが背景信頼度生成部150において生成される。背景推定部140において推定された背景値Bおよび背景信頼度生成部150において生成された信頼度Tは、背景情報として背景情報保持部220に保持される。この背景情報は、第1の実施例の場合と異なり、更新されない。そして、相違度生成部160は、背景情報保持部220に保持された背景情報に基づいて入力画像の画素値と背景値Bとの相違度を生成する。その際、背景値Bの信頼度Tも考慮される。 FIG. 15 is a diagram illustrating a second example of the image processing circuit 23 of the imaging device according to the embodiment of the present invention. The imaging apparatus according to the second embodiment has a configuration in which a background information holding unit 220 is provided instead of the background update unit 210 and the background update value holding unit 221 in the configuration of the first example. In this case, the background pixel selection unit 130 selects m pixel values from the entire input image (I 1 to I n ) as a range. Based on the selected pixel value, the background estimation unit 140 estimates the background value B, and the reliability T is generated by the background reliability generation unit 150. The background value B estimated by the background estimation unit 140 and the reliability T generated by the background reliability generation unit 150 are held in the background information holding unit 220 as background information. Unlike the case of the first embodiment, this background information is not updated. Then, the difference generation unit 160 generates a difference between the pixel value of the input image and the background value B based on the background information held in the background information holding unit 220. At that time, the reliability T of the background value B is also considered.

図16は、本発明の実施の形態における撮像装置による処理手順の一例を示す流れ図である。   FIG. 16 is a flowchart illustrating an example of a processing procedure performed by the imaging apparatus according to the embodiment of the present invention.

まず、背景画素選択部130において、入力画像(I〜I)の全体からm個の画素値が選択される(ステップS931)。そして、この選択された画素値に基づいて、背景推定部140において背景値Bが推定される(ステップS932)。また、この背景値推定の際に得られた最大カウント数(c)およびサンプリング総数(m)に基づいて、背景信頼度生成部150において背景値の信頼度Tが生成される(ステップS933)。これらステップS931乃至S933の処理は、各画素位置について独立に行うことが可能である。 First, the background pixel selection unit 130, m pieces of pixel values are selected from the entire input image (I 1 ~I n) (step S931). Based on the selected pixel value, the background estimation unit 140 estimates the background value B (step S932). In addition, based on the maximum count number (c) and the total sampling number (m) obtained in the background value estimation, the background reliability generation unit 150 generates the reliability T of the background value (step S933). The processes in steps S931 to S933 can be performed independently for each pixel position.

また、軌跡画素選択部120において、入力画像の1枚を処理対象画像Iとして、各画素位置の画素値が選択される(ステップS941)。そして、この選択された入力画像の画素値と、背景更新処理により更新された背景値Bとの相違度dが相違度生成部160によって生成される(ステップS943)。 Further, in the trajectory pixel selection unit 120, as a processing target image I t the one input image, a pixel value of each pixel position is selected (step S 941). Then, a difference degree d between the pixel value of the selected input image and the background value B updated by the background update process is generated by the difference degree generation unit 160 (step S943).

このようにして生成された相違度dに基づいて、軌跡合成部170において合成比率αが生成され、この合成比率αに応じて処理対象画像Iと直前の軌跡合成結果St−1とが合成されて、その結果が出力される(ステップS944)。 Based on thus generated dissimilarity d, the generated synthesis ratio α in the locus synthesis unit 170, the process target image I t and the previous locus synthesis result of S t-1 in accordance with the synthesis ratio α is The result is synthesized and the result is output (step S944).

処理対象画像Iにおけるp×q画素の各画素位置について上述の処理が終了すると、その処理対象画像Iに関する処理は終了する(ステップS945)。これらステップS941乃至S944の処理は、各画素位置について独立に行うことが可能である。 When the above-described processing for each pixel position of the p × q pixels in the target image I t is completed, the process relates to the processing target image I t is completed (step S945). The processes in steps S941 to S944 can be performed independently for each pixel position.

時刻tの入力画像を処理対象画像としてステップS941乃至S945の処理が完了した後、引き続き時刻t+1以降の入力画像を処理対象画像としてステップS941乃至S945の処理を繰り返すことにより、軌跡合成画像を順次、時系列に生成していくことができる。これら処理対象画像の処理についても、各処理対象画像間において独立に行うことが可能である。   After the process of steps S941 to S945 is completed with the input image at time t as the processing target image, the process of steps S941 to S945 is successively repeated with the input image after time t + 1 as the processing target image. It can be generated in time series. These processing target images can be processed independently between the processing target images.

このように、この第2の実施例によれば、一度算出された背景値を以降、更新することなく利用し続けることにより、背景算出に要するコストを削減することができる。   Thus, according to the second embodiment, the cost required for background calculation can be reduced by continuing to use the background value once calculated without updating.

なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、以下に示すように特許請求の範囲における発明特定事項とそれぞれ対応関係を有するが、これに限定されるものではなく本発明の要旨を逸脱しない範囲において種々の変形を施すことができる。   The embodiment of the present invention is an example for embodying the present invention and has a corresponding relationship with the invention-specific matters in the claims as shown below, but is not limited thereto. However, various modifications can be made without departing from the scope of the present invention.

すなわち、請求項1において、画素選択手段は例えば背景画素選択部130に対応する。また、背景値保持手段は例えば背景更新値保持部221に対応する。また、背景値推定手段は例えば背景値推定部140に対応する。また、背景更新手段は例えば背景更新部210に対応する。また、相違度生成手段は例えば相違度生成部160に対応する。また、出力画像生成手段は例えば軌跡合成部170および軌跡合成結果保持部180に対応する。   That is, in claim 1, the pixel selection unit corresponds to, for example, the background pixel selection unit 130. The background value holding unit corresponds to the background update value holding unit 221, for example. The background value estimating means corresponds to the background value estimating unit 140, for example. A background update unit corresponds to the background update unit 210, for example. Further, the difference generation unit corresponds to the difference generation unit 160, for example. The output image generation means corresponds to the trajectory synthesis unit 170 and the trajectory synthesis result holding unit 180, for example.

また、請求項2において、背景信頼度生成手段は例えば背景信頼度生成部150に対応する。   Further, in claim 2, the background reliability generation means corresponds to the background reliability generation unit 150, for example.

また、請求項11および12において、画素選択手順は例えばステップS911に対応する。また、背景値推定手順は例えばステップS912に対応する。また、背景更新手順は例えばステップS914に対応する。また、相違度生成手順は例えばステップS923に対応する。また、出力画像生成手順は例えばステップS924に対応する。   Further, in claims 11 and 12, the pixel selection procedure corresponds to, for example, step S911. The background value estimation procedure corresponds to, for example, step S912. The background update procedure corresponds to, for example, step S914. The difference degree generation procedure corresponds to, for example, step S923. The output image generation procedure corresponds to step S924, for example.

また、請求項13において、画素選択手段は例えば背景画素選択部130に対応する。また、背景値推定手段は例えば背景値推定部140に対応する。また、背景信頼度生成手段は例えば背景信頼度生成部150に対応する。また、相違度生成手段は例えば相違度生成部160に対応する。また、出力画像生成手段は例えば軌跡合成部170に対応する。   Further, in claim 13, the pixel selection means corresponds to, for example, the background pixel selection unit 130. The background value estimating means corresponds to the background value estimating unit 140, for example. A background reliability generation unit corresponds to the background reliability generation unit 150, for example. Further, the difference generation unit corresponds to the difference generation unit 160, for example. The output image generation means corresponds to the trajectory synthesis unit 170, for example.

また、請求項14および15において、画素選択手順は例えばステップS931に対応する。また、背景値推定手順は例えばステップS932に対応する。また、背景信頼度生成手順は例えばステップS933に対応する。また、相違度生成手順は例えばステップS943に対応する。また、出力画像生成手順は例えばステップS944に対応する。   Further, in claims 14 and 15, the pixel selection procedure corresponds to, for example, step S931. The background value estimation procedure corresponds to, for example, step S932. The background reliability generation procedure corresponds to, for example, step S933. The difference degree generation procedure corresponds to, for example, step S943. The output image generation procedure corresponds to step S944, for example.

なお、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。   The processing procedure described in the embodiment of the present invention may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program May be taken as

本発明の実施の形態における撮像装置の一例を示す図である。It is a figure which shows an example of the imaging device in embodiment of this invention. 本発明の実施の形態における撮像装置の画像処理回路23の第1の実施例を示す図である。It is a figure which shows the 1st Example of the image processing circuit 23 of the imaging device in embodiment of this invention. 本発明の実施の形態による背景画素選択部130における画素値選択の態様を示す図である。It is a figure which shows the aspect of the pixel value selection in the background pixel selection part 130 by embodiment of this invention. 本発明の実施の形態における画素値の選択間隔の例を示す図である。It is a figure which shows the example of the selection space | interval of the pixel value in embodiment of this invention. 本発明の実施の形態による背景推定部140における背景値推定の態様を示す図である。It is a figure which shows the aspect of the background value estimation in the background estimation part 140 by embodiment of this invention. 本発明の実施の形態における軌跡合成部170の一構成例を示す図である。It is a figure which shows the example of 1 structure of the locus | trajectory synthetic | combination part 170 in embodiment of this invention. 入力画像の一例を示す図である。It is a figure which shows an example of an input image. 軌跡合成画像の一例を示す図である。It is a figure which shows an example of a locus | trajectory composite image. 軌跡合成動画における時系列の出力例を示す図である。It is a figure which shows the example of a time series output in a locus | trajectory synthetic | combination moving image. 軌跡合成動画における時系列の他の出力例を示す図である。It is a figure which shows the other output example of the time series in a locus | trajectory synthetic | combination moving image. 本発明の実施の形態における撮像装置の画像処理回路23の第1の実施例の変形例を示す図である。It is a figure which shows the modification of the 1st Example of the image processing circuit 23 of the imaging device in embodiment of this invention. 本発明の実施の形態における撮像装置の処理タイミング例を示す図である。It is a figure which shows the example of a process timing of the imaging device in embodiment of this invention. 本発明の実施の形態における撮像装置による背景更新処理手順の一例を示す流れ図である。It is a flowchart which shows an example of the background update process sequence by the imaging device in embodiment of this invention. 本発明の実施の形態における撮像装置による動体検出および軌跡合成処理手順の一例を示す流れ図である。It is a flowchart which shows an example of the moving body detection and locus | trajectory synthesis processing procedure by the imaging device in embodiment of this invention. 本発明の実施の形態における撮像装置の画像処理回路23の第2の実施例を示す図である。It is a figure which shows the 2nd Example of the image processing circuit 23 of the imaging device in embodiment of this invention. 本発明の実施の形態における撮像装置による処理手順の一例を示す流れ図である。It is a flowchart which shows an example of the process sequence by the imaging device in embodiment of this invention.

符号の説明Explanation of symbols

11 レンズ
13 撮像素子
21 サンプリング回路
22 A/D変換回路
23 画像処理回路
31 符号化/復号器
32 メモリ
41 D/A変換回路
42 ビデオエンコーダ
43 表示部
51 タイミング生成器
52 操作入力受付部
53 ドライバ
54 制御部
59 バス
110 入力画像保持部
120 軌跡画素選択部
130 背景画素選択部
140 背景推定部
150 背景信頼度生成部
160 相違度生成部
170 軌跡合成部
171 フェードアウト制御パラメータ保持部
172 合成比率生成部
173 軌跡合成値算出部
180 軌跡合成結果保持部
190 軌跡合成画像表示部
210 背景更新部
220 背景情報保持部
221 背景更新値保持部
DESCRIPTION OF SYMBOLS 11 Lens 13 Image pick-up element 21 Sampling circuit 22 A / D conversion circuit 23 Image processing circuit 31 Encoding / decoding device 32 Memory 41 D / A conversion circuit 42 Video encoder 43 Display part 51 Timing generator 52 Operation input reception part 53 Driver 54 Control unit 59 Bus 110 Input image holding unit 120 Trajectory pixel selection unit 130 Background pixel selection unit 140 Background estimation unit 150 Background reliability generation unit 160 Dissimilarity generation unit 170 Trajectory synthesis unit 171 Fade-out control parameter storage unit 172 Composition ratio generation unit 173 Locus synthesis value calculation unit 180 locus synthesis result holding unit 190 locus synthesis image display unit 210 background update unit 220 background information holding unit 221 background update value holding unit

Claims (15)

時系列に並ぶ複数の入力画像の対応する画素位置のそれぞれにおいて処理対象となる入力画像を中心として複数の画素値を選択する画素選択手段と、
前記画素位置における背景値を保持する背景値保持手段と、
前記選択された複数の画素値に基づいて前記処理対象である入力画像の前記画素位置における背景値を推定する背景値推定手段と、
前記推定された背景値に基づいて前記背景値保持手段に保持される背景値を更新して新たな背景値として前記背景値保持手段に保持させる背景更新手段と、
前記処理対象である入力画像の画素値と前記更新された背景値との相違度を生成する相違度生成手段と、
前記画素位置のそれぞれについて前記相違度に応じて前記処理対象である入力画像の画素値を反映させて出力画像の画素値を生成する出力画像生成手段と
を具備することを特徴とする画像処理装置。
Pixel selection means for selecting a plurality of pixel values around the input image to be processed at each of the corresponding pixel positions of the plurality of input images arranged in time series;
Background value holding means for holding a background value at the pixel position;
Background value estimation means for estimating a background value at the pixel position of the input image to be processed based on the plurality of selected pixel values;
A background updating unit that updates the background value held in the background value holding unit based on the estimated background value and holds the background value in the background value holding unit as a new background value;
A difference generation unit that generates a difference between a pixel value of the input image to be processed and the updated background value;
An image processing apparatus comprising: output image generation means for generating a pixel value of an output image by reflecting a pixel value of the input image to be processed according to the degree of difference for each of the pixel positions. .
前記推定された背景値の信頼度を前記選択された複数の画素値に基づいて生成する背景信頼度生成手段をさらに具備し、
前記相違度生成手段は、前記信頼度に応じて前記相違度を生成することを特徴とする請求項1記載の画像処理装置。
Further comprising background reliability generation means for generating the reliability of the estimated background value based on the selected plurality of pixel values;
The image processing apparatus according to claim 1, wherein the difference generation unit generates the difference according to the reliability.
前記相違度生成手段は、前記信頼度が低いほど前記相違度が大きくなるよう前記相違度を生成することを特徴とする請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the dissimilarity generation unit generates the dissimilarity such that the dissimilarity increases as the reliability decreases. 前記背景更新手段は、前記信頼度に応じて前記背景値保持手段に保持される背景値を更新することを特徴とする請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the background update unit updates a background value held in the background value holding unit according to the reliability. 前記背景更新手段は、前記信頼度が高いほど前記推定された背景値の比重が高くなるよう前記背景値保持手段に保持される背景値を更新することを特徴とする請求項4記載の画像処理装置。   The image processing according to claim 4, wherein the background update unit updates the background value held in the background value holding unit so that the specific gravity of the estimated background value increases as the reliability increases. apparatus. 前記背景値推定手段は、前記選択された複数の画素値における最頻値を背景値として推定することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the background value estimation unit estimates a mode value of the selected plurality of pixel values as a background value. 前記出力画像生成手段は、
前記出力画像の画素値を保持する出力画像保持手段と、
前記画素位置のそれぞれについて前記相違度に応じて合成比率を生成する合成比率生成手段と、
前記画素位置のそれぞれについて前記合成比率に応じて前記処理対象である入力画像の画素値を前記出力画像保持手段に保持された前記出力画像の画素値と合成して新たな出力画像の画素値として前記出力画像保持手段に保持させる合成値算出手段とを具備する
ことを特徴とする請求項1記載の画像処理装置。
The output image generation means includes
Output image holding means for holding pixel values of the output image;
A composition ratio generating means for generating a composition ratio according to the degree of difference for each of the pixel positions;
For each of the pixel positions, the pixel value of the input image that is the processing target is combined with the pixel value of the output image held in the output image holding unit according to the combination ratio as a pixel value of a new output image The image processing apparatus according to claim 1, further comprising: a composite value calculation unit that is held in the output image holding unit.
前記画素選択手段は、前記複数の画素値を時間的に等間隔に選択することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the pixel selection unit selects the plurality of pixel values at equal intervals in time. 前記画素選択手段は、前記処理対象である入力画像との時間的距離が近いほど時間的に高い頻度で前記複数の画素値を選択することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the pixel selection unit selects the plurality of pixel values with a higher frequency in time as a temporal distance from the input image to be processed is closer. 前記背景更新手段による前記背景値の更新と前記相違度生成手段による前記相違度の生成との頻度が互いに異なることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the frequency of the background value update by the background update unit and the difference generation by the difference generation unit are different from each other. 時系列に並ぶ複数の入力画像の対応する画素位置のそれぞれにおいて処理対象となる入力画像を中心として複数の画素値を選択する画素選択手順と、
前記選択された複数の画素値に基づいて前記処理対象である入力画像の前記画素位置における背景値を推定する背景値推定手順と、
前記推定された背景値に基づいて背景値保持手段に保持される背景値を更新して新たな背景値として前記背景値保持手段に保持させる背景更新手順と、
前記処理対象である入力画像の画素値と前記更新された背景値との相違度を生成する相違度生成手順と、
前記画素位置のそれぞれについて前記相違度に応じて前記処理対象である入力画像の画素値を反映させて出力画像の画素値を生成する出力画像生成手順と
を具備することを特徴とする画像処理方法。
A pixel selection procedure for selecting a plurality of pixel values around the input image to be processed at each of the corresponding pixel positions of the plurality of input images arranged in time series; and
A background value estimation procedure for estimating a background value at the pixel position of the input image to be processed based on the selected plurality of pixel values;
A background update procedure for updating the background value held in the background value holding unit based on the estimated background value and holding the background value in the background value holding unit as a new background value;
A difference generation procedure for generating a difference between a pixel value of the input image to be processed and the updated background value;
An image processing method comprising: an output image generation procedure for generating a pixel value of an output image by reflecting a pixel value of the input image to be processed according to the degree of difference for each of the pixel positions .
時系列に並ぶ複数の入力画像の対応する画素位置のそれぞれにおいて処理対象となる入力画像を中心として複数の画素値を選択する画素選択手順と、
前記選択された複数の画素値に基づいて前記処理対象である入力画像の前記画素位置における背景値を推定する背景値推定手順と、
前記推定された背景値に基づいて背景値保持手段に保持される背景値を更新して新たな背景値として前記背景値保持手段に保持させる背景更新手順と、
前記処理対象である入力画像の画素値と前記更新された背景値との相違度を生成する相違度生成手順と、
前記画素位置のそれぞれについて前記相違度に応じて前記処理対象である入力画像の画素値を反映させて出力画像の画素値を生成する出力画像生成手順と
をコンピュータに実行させることを特徴とするプログラム。
A pixel selection procedure for selecting a plurality of pixel values around the input image to be processed at each of the corresponding pixel positions of the plurality of input images arranged in time series; and
A background value estimation procedure for estimating a background value at the pixel position of the input image to be processed based on the selected plurality of pixel values;
A background update procedure for updating the background value held in the background value holding unit based on the estimated background value and holding the background value in the background value holding unit as a new background value;
A difference generation procedure for generating a difference between a pixel value of the input image to be processed and the updated background value;
A program causing a computer to execute an output image generation procedure for generating a pixel value of an output image by reflecting a pixel value of an input image to be processed according to the degree of difference for each of the pixel positions. .
時系列に並ぶ複数の入力画像の対応する画素位置のそれぞれにおいて複数の画素値を選択する画素選択手段と、
前記選択された複数の画素値に基づいて前記画素位置における背景値を推定する背景値推定手段と、
前記推定された背景値の信頼度を前記選択された複数の画素値に基づいて生成する背景信頼度生成手段と、
処理対象である入力画像の画素値と前記推定された背景値との相違度を前記信頼度に応じて生成する相違度生成手段と、
前記画素位置のそれぞれについて前記相違度に応じて前記処理対象である入力画像の画素値を反映させて出力画像の画素値を生成する出力画像生成手段と
を具備することを特徴とする画像処理装置。
Pixel selection means for selecting a plurality of pixel values at each of corresponding pixel positions of a plurality of input images arranged in time series,
Background value estimating means for estimating a background value at the pixel position based on the selected plurality of pixel values;
Background reliability generation means for generating reliability of the estimated background value based on the selected plurality of pixel values;
A difference generation means for generating a difference between the pixel value of the input image to be processed and the estimated background value according to the reliability;
An image processing apparatus comprising: output image generation means for generating a pixel value of an output image by reflecting a pixel value of the input image to be processed according to the degree of difference for each of the pixel positions. .
時系列に並ぶ複数の入力画像の対応する画素位置のそれぞれにおいて複数の画素値を選択する画素選択手順と、
前記選択された複数の画素値に基づいて前記画素位置における背景値を推定する背景値推定手順と、
前記推定された背景値の信頼度を前記選択された複数の画素値に基づいて生成する背景信頼度生成手順と、
処理対象である入力画像の画素値と前記推定された背景値との相違度を前記信頼度に応じて生成する相違度生成手順と、
前記画素位置のそれぞれについて前記相違度に応じて前記処理対象である入力画像の画素値を反映させて出力画像の画素値を生成する出力画像生成手順と
を具備することを特徴とする画像処理方法。
A pixel selection procedure for selecting a plurality of pixel values at each of corresponding pixel positions of a plurality of input images arranged in time series, and
A background value estimation procedure for estimating a background value at the pixel position based on the selected plurality of pixel values;
A background reliability generation procedure for generating the reliability of the estimated background value based on the selected plurality of pixel values;
A difference generation procedure for generating a difference between the pixel value of the input image to be processed and the estimated background value according to the reliability;
An image processing method comprising: an output image generation procedure for generating a pixel value of an output image by reflecting a pixel value of the input image to be processed according to the degree of difference for each of the pixel positions .
時系列に並ぶ複数の入力画像の対応する画素位置のそれぞれにおいて複数の画素値を選択する画素選択手順と、
前記選択された複数の画素値に基づいて前記画素位置における背景値を推定する背景値推定手順と、
前記推定された背景値の信頼度を前記選択された複数の画素値に基づいて生成する背景信頼度生成手順と、
処理対象である入力画像の画素値と前記推定された背景値との相違度を前記信頼度に応じて生成する相違度生成手順と、
前記画素位置のそれぞれについて前記相違度に応じて前記処理対象である入力画像の画素値を反映させて出力画像の画素値を生成する出力画像生成手順と
をコンピュータに実行させることを特徴とするプログラム。
A pixel selection procedure for selecting a plurality of pixel values at each of corresponding pixel positions of a plurality of input images arranged in time series, and
A background value estimation procedure for estimating a background value at the pixel position based on the selected plurality of pixel values;
A background reliability generation procedure for generating the reliability of the estimated background value based on the selected plurality of pixel values;
A difference generation procedure for generating a difference between the pixel value of the input image to be processed and the estimated background value according to the reliability;
A program causing a computer to execute an output image generation procedure for generating a pixel value of an output image by reflecting a pixel value of an input image to be processed according to the degree of difference for each of the pixel positions. .
JP2008018637A 2008-01-30 2008-01-30 Image processing apparatus, image processing method, and program Expired - Fee Related JP4900266B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008018637A JP4900266B2 (en) 2008-01-30 2008-01-30 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008018637A JP4900266B2 (en) 2008-01-30 2008-01-30 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2009181259A true JP2009181259A (en) 2009-08-13
JP4900266B2 JP4900266B2 (en) 2012-03-21

Family

ID=41035213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008018637A Expired - Fee Related JP4900266B2 (en) 2008-01-30 2008-01-30 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4900266B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013081110A (en) * 2011-10-04 2013-05-02 Olympus Imaging Corp Imaging device
JP2013081111A (en) * 2011-10-04 2013-05-02 Olympus Imaging Corp Imaging device
JP2013081112A (en) * 2011-10-04 2013-05-02 Olympus Imaging Corp Imaging apparatus
JP2013145975A (en) * 2012-01-13 2013-07-25 Olympus Imaging Corp Image pickup device, image processing method, and program
JP5838371B1 (en) * 2014-06-30 2016-01-06 パナソニックIpマネジメント株式会社 Flow line analysis system, camera device, and flow line analysis method
US9277125B2 (en) 2011-10-04 2016-03-01 Olympus Corporation Imaging device and imaging method
JP2016048968A (en) * 2016-01-14 2016-04-07 オリンパス株式会社 Imaging apparatus, imaging method, and imaging program
JP2019219940A (en) * 2018-06-20 2019-12-26 カシオ計算機株式会社 Image processing device, image processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10290450A (en) * 1997-04-14 1998-10-27 Nippon Telegr & Teleph Corp <Ntt> Method for generating frame multiplex image
JP2007328755A (en) * 2006-05-08 2007-12-20 Sony Corp Image processor, image processing method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10290450A (en) * 1997-04-14 1998-10-27 Nippon Telegr & Teleph Corp <Ntt> Method for generating frame multiplex image
JP2007328755A (en) * 2006-05-08 2007-12-20 Sony Corp Image processor, image processing method and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013081110A (en) * 2011-10-04 2013-05-02 Olympus Imaging Corp Imaging device
JP2013081111A (en) * 2011-10-04 2013-05-02 Olympus Imaging Corp Imaging device
JP2013081112A (en) * 2011-10-04 2013-05-02 Olympus Imaging Corp Imaging apparatus
US9277125B2 (en) 2011-10-04 2016-03-01 Olympus Corporation Imaging device and imaging method
JP2013145975A (en) * 2012-01-13 2013-07-25 Olympus Imaging Corp Image pickup device, image processing method, and program
JP5838371B1 (en) * 2014-06-30 2016-01-06 パナソニックIpマネジメント株式会社 Flow line analysis system, camera device, and flow line analysis method
JP2016048968A (en) * 2016-01-14 2016-04-07 オリンパス株式会社 Imaging apparatus, imaging method, and imaging program
JP2019219940A (en) * 2018-06-20 2019-12-26 カシオ計算機株式会社 Image processing device, image processing method, and program
JP7192259B2 (en) 2018-06-20 2022-12-20 カシオ計算機株式会社 Image processing device, image processing method and program

Also Published As

Publication number Publication date
JP4900266B2 (en) 2012-03-21

Similar Documents

Publication Publication Date Title
JP4499693B2 (en) Image processing apparatus, image processing method, and program
JP4900266B2 (en) Image processing apparatus, image processing method, and program
JP5168837B2 (en) Image processing apparatus, image processing method, and program
JP5127686B2 (en) Image processing apparatus, image processing method, and imaging apparatus
EP2063390B1 (en) Image processing device and its program
JP5144487B2 (en) Main face selection device, control method thereof, imaging device, and program
JP4643407B2 (en) Frame rate conversion device and imaging device
JP6320571B2 (en) Image processing apparatus, image processing method, and program
US20160180508A1 (en) Image processing device, endoscope apparatus, image processing method, and program
US20110128415A1 (en) Image processing device and image-shooting device
JP2008035167A (en) Imaging apparatus
JP2010166512A (en) Imaging apparatus
US9672608B2 (en) Image processing device, endoscope apparatus, image processing method, and program
JP6366739B2 (en) Image processing apparatus, image processing method, and program
US9930250B2 (en) Method and apparatus for performing image processing operation based on frame/algorithm selection
US20120128206A1 (en) Object detection device, object detection method, and computer-readable medium recording program therefor
US10999489B2 (en) Image processing apparatus, image processing method, and image capture apparatus
KR101721226B1 (en) digital image signal processing apparatus and method for controlling the same
JP4900265B2 (en) Image processing apparatus, image processing method, and program
JP4998439B2 (en) Image processing apparatus, image processing method, and program
JP5812808B2 (en) Image processing apparatus and image processing method
JP4969349B2 (en) Imaging apparatus and imaging method
JP5304080B2 (en) Image reproduction apparatus and image reproduction program
JP2002330335A (en) Still picture image pickup device
JP2015132949A (en) Image processor, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees