JP2005250576A - Moving object extracting device and method - Google Patents

Moving object extracting device and method Download PDF

Info

Publication number
JP2005250576A
JP2005250576A JP2004056479A JP2004056479A JP2005250576A JP 2005250576 A JP2005250576 A JP 2005250576A JP 2004056479 A JP2004056479 A JP 2004056479A JP 2004056479 A JP2004056479 A JP 2004056479A JP 2005250576 A JP2005250576 A JP 2005250576A
Authority
JP
Japan
Prior art keywords
moving object
distribution
difference
image
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004056479A
Other languages
Japanese (ja)
Inventor
Masashi Aiiso
政司 相磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004056479A priority Critical patent/JP2005250576A/en
Publication of JP2005250576A publication Critical patent/JP2005250576A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily extract a moving object whose image is picked up in an image. <P>SOLUTION: At the time of inputting moving image data, a moving object extracting device calculates a difference between the pixel values of the corresponding pixels of an extraction object frame and a comparison object frame, and specifies a region where the value is a predetermined threshold T1 or more as a differential region. Then, the moving extracting device calculates a relative frequency distribution Nz of the pixel values of the overall extraction object frame and a relative frequency distribution Nd of the pixel values in the differential region, and calculates a rate R of them. The moving object extracting device estimates the pixel values belonging to a class where the rate R is a predetermined threshold T2 or more as a moving object constituting color. Then, the pixels pertinent to the moving object constituting color are extracted from the extraction object frame so that the moving object can be extracted. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像から動体を抽出する画像処理技術に関する。   The present invention relates to an image processing technique for extracting a moving object from an image.

従来、画像から背景と被写体を分離する技術について様々な研究がなされていた。例えば、特許文献1には、指定された色やテクスチャに基づき画像から被写体を抽出する方法や、画像を複数のブロックに分割した上で各ブロックの動きベクトルを求めることで動画像から被写体を抽出する方法などが記載されている。また、特許文献2には、背景と被写体の両方が撮像された静止画像と、背景のみが撮像された静止画像との差分をとることで背景と被写体を分離する技術が記載されている。   Conventionally, various studies have been made on techniques for separating a background and a subject from an image. For example, Patent Document 1 discloses a method of extracting a subject from an image based on a specified color and texture, or extracting a subject from a moving image by obtaining a motion vector of each block after dividing the image into a plurality of blocks. How to do is described. Patent Document 2 describes a technique for separating a background and a subject by taking a difference between a still image in which both the background and the subject are captured and a still image in which only the background is captured.

特開2002−24834号公報JP 2002-24834 A 特開2002−312792号公報JP 2002-327992 A

しかし、特許文献1に記載された技術では、被写体を抽出するために、予め被写体の色やテクスチャを指定する必要があった。また、特許文献2に記載された技術では、予め背景のみを撮像した画像を用意する必要があった。つまり、これらの技術では、画像から被写体を抽出するにあたり、煩わしい前準備が必要であった。   However, in the technique described in Patent Document 1, it is necessary to specify the color and texture of the subject in advance in order to extract the subject. In the technique described in Patent Document 2, it is necessary to prepare an image in which only the background is captured in advance. That is, these techniques require troublesome preparations when extracting a subject from an image.

本発明は、このような課題を解決するためになされたものであり、画像中に撮像された動く被写体(動体)を容易に抽出することのできる技術を提供することを目的とする。   The present invention has been made to solve such a problem, and an object of the present invention is to provide a technique that can easily extract a moving subject (moving object) captured in an image.

上記課題を解決するため、本発明を動体抽出装置として次のように構成した。すなわち、画像から動体を抽出する動体抽出装置であって、
画素毎に画素値が記録された2つの画像を入力する入力部と、
前記2つの画像の対応する各画素について画素値の差分を求め、該差分が第1の閾値以上となる領域を差分領域として特定する差分領域特定部と、
前記2つの画像のうち少なくとも1つの画像の画像全体の画素値について所定の階級幅で第1の分布を求め、さらに、該画像の前記差分領域に該当する領域内の画素値について前記階級幅で第2の分布を求める統計処理部と、
前記第1の分布に対する前記第2の分布の比を各階級毎に求め、該比が第2の閾値以上となる階級に属する画素値を、前記動体を構成する動体構成色であると推定する動体構成色推定部とを備えることを要旨とする。
In order to solve the above problems, the present invention is configured as a moving object extraction apparatus as follows. That is, a moving object extraction device that extracts a moving object from an image,
An input unit for inputting two images in which pixel values are recorded for each pixel;
A difference area specifying unit that calculates a difference between pixel values for each corresponding pixel of the two images and specifies an area where the difference is equal to or greater than a first threshold as a difference area;
A first distribution is obtained with a predetermined class width for the pixel values of the entire image of at least one image of the two images, and further, the pixel values in the area corresponding to the difference area of the image are calculated with the class width. A statistical processing unit for obtaining a second distribution;
A ratio of the second distribution to the first distribution is obtained for each class, and a pixel value belonging to a class in which the ratio is equal to or greater than a second threshold is estimated to be a moving object constituent color constituting the moving object. The gist is to include a moving object configuration color estimation unit.

時系列的に密接した関係にある2つの画像を比べた場合、両画像間で画素値がほとんど変化しない部分は背景である可能性が高く、画素値が大きく変化した部分は動体が撮像された部分である可能性が高いといえる。そのため、上記差分領域内には、動体を構成する画素が多く含まれていると考えることができる。本発明の動体抽出装置は、このように動体を構成する画素が多く含まれていると考えられる差分領域内の画素値の分布と、画像全体の画素値の分布の比を求めることで、動体を構成する画素値を推定する。   When two images that are closely related in time series are compared, it is highly likely that the portion where the pixel value hardly changes between the two images is the background, and the moving object is captured in the portion where the pixel value changes greatly. It can be said that there is a high possibility of being a part. Therefore, it can be considered that the difference area includes many pixels constituting the moving object. The moving object extraction apparatus of the present invention obtains a ratio of the distribution of pixel values in the difference area, which is considered to include a large number of pixels constituting the moving object, and the distribution of pixel values in the entire image. Is estimated.

このような動体抽出装置によれば、2つの画像を用意するだけで動体を構成する画素値を推定することができるため、従来のように煩わしい前準備を行うことなく、容易に画像から動体を抽出することが可能となる。動体抽出装置が入力する2つの画像は、どのような画像でも良いが、例えば、動画データを構成する連続した2つの画像フレームや、デジタルスチルカメラの連写機能を用いて撮影した2つの画像などを入力するものとしてもよい。これらの画像は、時系列的に密接した関係にあるため、効果的に動体を抽出することが可能である。   According to such a moving object extraction apparatus, it is possible to estimate the pixel values constituting the moving object simply by preparing two images. Therefore, the moving object can be easily extracted from the image without making troublesome preparation as in the prior art. It becomes possible to extract. The two images input by the moving object extraction apparatus may be any images. For example, two consecutive image frames constituting moving image data, two images taken using the continuous shooting function of a digital still camera, etc. It is good also as what inputs. Since these images are closely related in time series, it is possible to extract a moving object effectively.

上記統計処理部は、入力した2つの画像のうち一方のみを用いて2つ分布を求めるものとしてもよいし、両者を用いて2つの分布を求めるものとしてもよい。両者を用いるものとすれば、統計をとるサンプル数が増加するため、2つの分布を良好に求めることが可能となる。   The statistical processing unit may obtain two distributions using only one of the two input images, or may obtain two distributions using both. If both are used, the number of samples for which statistics are obtained increases, so that two distributions can be obtained satisfactorily.

上記動体構成色推定部は、前記第1の分布に対する前記第2の分布の比を求めるものとしたが、前記第2の分布に対する前記第1の分布の比を各階級毎に求めるものとし、該比が第2の閾値以下となる階級に属する画素値を、前記動体を構成する動体構成色であると推定するものとしてもよい。   The moving body constituent color estimation unit obtains the ratio of the second distribution to the first distribution, and obtains the ratio of the first distribution to the second distribution for each class, A pixel value belonging to a class in which the ratio is equal to or less than the second threshold value may be estimated as a moving object constituent color constituting the moving object.

上記構成の動体抽出装置において、
前記統計処理部が求める前記第1の分布および第2の分布は、相対度数分布であるものとしてもよい。
In the moving object extraction apparatus having the above configuration,
The first distribution and the second distribution obtained by the statistical processing unit may be a relative frequency distribution.

このように、度数をサンプル数で割ることによって得られる相対度数を用いれば、差分領域と画像全体の領域とにおける画素値の分布の傾向を同一のスケールで比較することができるため、動体構成色を好適に推定することが可能となる。   In this way, if the relative frequency obtained by dividing the frequency by the number of samples is used, the tendency of the distribution of pixel values in the difference area and the entire image area can be compared on the same scale. Can be suitably estimated.

上記構成の動体抽出装置において、
前記統計処理部は、前記第1および第2の分布を画素値のY,U,V各成分についてそれぞれ求め、
前記動体構成色推定部は、前記Y,U,V各成分についてそれぞれ前記動体構成色を推定するものとしてもよい。
In the moving object extraction apparatus having the above configuration,
The statistical processing unit obtains the first and second distributions for each of Y, U, and V components of pixel values,
The moving object composition color estimation unit may estimate the moving object composition color for each of the Y, U, and V components.

Y成分とは、画素値の輝度成分のことをいい、U成分とは、輝度成分と赤色成分の差、V成分とは、輝度成分と青色成分の差をいう。このように、画素値の各成分について動体構成色を推定するものとすれば、より詳細に動体の色を推定することが可能となる。なお、YUVに替えて、R(赤),G(緑),B(青)各成分について動体構成色を推定するものとしてもよい。   The Y component refers to the luminance component of the pixel value, the U component refers to the difference between the luminance component and the red component, and the V component refers to the difference between the luminance component and the blue component. In this way, if the moving object constituent color is estimated for each component of the pixel value, the moving object color can be estimated in more detail. In addition, it is good also as what estimates a moving body structural color about R (red), G (green), and B (blue) each component instead of YUV.

このような構成の動体抽出装置において、
前記統計処理部は、前記Y成分の階級幅を、前記U成分およびV成分の階級幅よりも相対的に大きくして前記第1及び第2の分布を求めるものとしてもよい。
In the moving object extraction device having such a configuration,
The statistical processing unit may obtain the first distribution and the second distribution by making the class width of the Y component relatively larger than the class width of the U component and the V component.

このようにすれば、Y成分の変化の感度を鈍感にさせることができるため、画像内に存在する陰影や、日射量の変化、絞り値の変更といった撮影条件の変化、などの影響を抑えて動体構成色を推定することが可能となる。   In this way, the sensitivity of the change in the Y component can be made insensitive, so that the influence of shadows existing in the image, changes in shooting conditions such as changes in the amount of solar radiation, and changes in the aperture value can be suppressed. It is possible to estimate the moving object constituent color.

また、前記動体構成色推定部は、前記Y,U,V各成分毎に前記第2の閾値が設定されているものとしてもよい。   Moreover, the said moving body structure color estimation part is good also as a thing with which the said 2nd threshold value is set for every said Y, U, and V component.

こうすることにより、精度良く動体構成色を推定することが可能となる。また、Y成分の感度を鈍感にさせる方法としては、上述したように、Y成分の階級幅を他の成分の階級幅よりも大きくする方法もあるが、例えば、Y成分の閾値を他の成分の閾値よりも低くする方法を採ることもできる。   By doing so, it is possible to estimate the moving object constituent color with high accuracy. Further, as a method of making the sensitivity of the Y component insensitive, as described above, there is also a method of making the class width of the Y component larger than the class width of the other component. It is also possible to adopt a method of lowering the threshold value.

上記構成の動体抽出装置において、
更に、動体の抽出を行う対象画像から前記動体構成色に該当する画素を抽出する動体抽出部を備えるものとしてもよい。このような構成であれば、動体構成色推定部によって推定した動体構成色を用いて任意の画像から動体を抽出することが可能となる。
In the moving object extraction apparatus having the above configuration,
Furthermore, it is good also as a thing provided with the moving body extraction part which extracts the pixel applicable to the said moving body structural color from the target image which extracts a moving body. With such a configuration, it is possible to extract a moving object from an arbitrary image using the moving object composition color estimated by the moving object composition color estimation unit.

上記構成の動体抽出装置において、
更に、前記差分領域の特定を行うよりも前に、前記2つの画像のズレを補正する補正部を備えるものとしてもよい。こうすることにより、画像撮像時の手ぶれやパンニングなどの影響を抑制することができるため、差分領域を好適に特定することが可能となる。
In the moving object extraction apparatus having the above configuration,
Furthermore, a correction unit that corrects a shift between the two images may be provided before the difference area is specified. By doing so, it is possible to suppress the influence of camera shake and panning at the time of image capturing, so that the difference area can be suitably specified.

本発明において、上述した種々の態様は、適宜、組み合わせたり、一部を省略したりして適用することができる。また、本発明は、画像中に撮像された動体をコンピュータによって抽出する動体抽出方法や、画像中に撮像された動体を抽出するためのコンピュータプログラムなどとしても構成することができる。いずれの構成においても上述した種々の態様を適用可能である。   In the present invention, the various aspects described above can be applied by appropriately combining or omitting some of them. The present invention can also be configured as a moving object extraction method for extracting a moving object imaged in an image by a computer, a computer program for extracting a moving object imaged in an image, and the like. In any configuration, the various aspects described above can be applied.

上記コンピュータプログラムは、コンピュータが読み取り可能な記録媒体に記録するものとしてもよい。記録媒体としては、例えば、フレキシブルディスクやCD−ROM、DVD−ROM、光磁気ディスク、メモリカード、ハードディスク等の種々の媒体を利用することができる。   The computer program may be recorded on a computer-readable recording medium. As the recording medium, for example, various media such as a flexible disk, a CD-ROM, a DVD-ROM, a magneto-optical disk, a memory card, and a hard disk can be used.

以下、本発明の実施の形態について実施例に基づき次の順序で説明する。
A.動体抽出装置の動作概要:
B.動体抽出装置の概略構成:
C.動体抽出処理:
D.変形例:
Hereinafter, embodiments of the present invention will be described in the following order based on examples.
A. Outline of operation of moving object extraction device:
B. Schematic configuration of moving object extraction device:
C. Moving object extraction processing:
D. Variation:

A.動体抽出装置の動作概要:
図1は、本実施例における動体抽出装置100の動作の概要を示す説明図である。動体抽出装置100は、DVケーブル300などによって接続されたデジタルビデオカメラ200から動画データを取り込み、動画中に撮像された動体を抽出するための装置である。動体とは、静止した背景に対して相対的に移動している被写体をいう。
A. Outline of operation of moving object extraction device:
FIG. 1 is an explanatory diagram showing an outline of the operation of the moving object extraction apparatus 100 in the present embodiment. The moving object extraction apparatus 100 is an apparatus for taking moving image data from a digital video camera 200 connected by a DV cable 300 or the like and extracting moving objects captured in the moving image. A moving body refers to a subject that moves relative to a stationary background.

図中には、デジタルビデオカメラ200から取り込んだ動画データを4つのフレーム(1〜4)に分解して示している。この動画データには、背景として山が撮像されており、動体としてボールが撮像されている。図示するようにボールはフレーム中の左上から右下にかけて徐々に移動している。動体抽出装置100は、このような動画データの任意のフレームから、背景としての山を取り除き、動体としてのボールだけを抽出することができる。以下では、この動体抽出装置100の構成および処理について詳細に説明する。なお、本明細書中において、「フレーム」と「画像」とは同義の用語であるものとする。   In the figure, the moving image data taken from the digital video camera 200 is divided into four frames (1 to 4). In this moving image data, a mountain is imaged as a background, and a ball is imaged as a moving object. As shown in the figure, the ball is gradually moving from the upper left to the lower right in the frame. The moving object extraction apparatus 100 can remove only a ball as a moving object by removing a mountain as a background from an arbitrary frame of such moving image data. Below, the structure and process of this moving body extraction apparatus 100 are demonstrated in detail. In this specification, “frame” and “image” are synonymous terms.

B.動体抽出装置の概略構成:
図2は、動体抽出装置100の概略構成を示す説明図である。動体抽出装置100は、CPU110やRAM120、BIOS(Basic Input/Output System)の記録されたROM130、デジタルビデオカメラ200を接続するためのIEEE1394インタフェース140、各種ソフトウェアがインストールされたHDD(ハードディスクドライブ)150等を備えており、これらは所定のバスを介して相互に接続されている。動体抽出装置100は、例えば、パーソナルコンピュータやDVDレコーダ、ハードディスクレコーダ等として構成することができる。
B. Schematic configuration of moving object extraction device:
FIG. 2 is an explanatory diagram showing a schematic configuration of the moving object extraction device 100. The moving object extraction device 100 includes a CPU 110, a RAM 120, a ROM 130 in which a BIOS (Basic Input / Output System) is recorded, an IEEE 1394 interface 140 for connecting the digital video camera 200, an HDD (Hard Disk Drive) 150 in which various software are installed, and the like. These are connected to each other via a predetermined bus. The moving body extraction device 100 can be configured as, for example, a personal computer, a DVD recorder, a hard disk recorder, or the like.

HDD150には、OS(オペレーティングシステム)160や、このOS160上で動作する動体抽出プログラム170がインストールされている。動体抽出プログラム170は、動画データから動体を抽出するためのプログラムである。CPU110は、これらのプログラムをRAM120に展開して実行する。なお、OS160や動体抽出プログラム170は、ファームウェアとしてROM130に記録されているものとしてもよい。   The HDD 150 is installed with an OS (Operating System) 160 and a moving object extraction program 170 operating on the OS 160. The moving object extraction program 170 is a program for extracting moving objects from moving image data. The CPU 110 develops these programs in the RAM 120 and executes them. Note that the OS 160 and the moving object extraction program 170 may be recorded in the ROM 130 as firmware.

図の下部には、CPU110によって動体抽出プログラム170が実行されることにより実現される機能のブロック図を示した。図示するように、動体抽出装置100は、機能部として、ズレ補正部171、差分領域特定部172、統計処理部173、動体構成色推定部174、動体抽出部175を備えている。   A block diagram of functions realized by the CPU 110 executing the moving object extraction program 170 is shown in the lower part of the figure. As illustrated, the moving object extraction apparatus 100 includes a deviation correction unit 171, a difference area specifying unit 172, a statistical processing unit 173, a moving object configuration color estimation unit 174, and a moving object extraction unit 175 as functional units.

ズレ補正部171は、動体を抽出する対象のフレーム(以下、「抽出対象フレーム」という)と、時系列的に抽出対象フレームの直前に存在するフレーム(以下、「比較対象フレーム」という)のズレを補正する。例えば、図1において、フレーム3を抽出対象フレームとした場合には、その直前のフレーム2が比較対象フレームとなる。2つのフレームのズレは、例えば、周知の技術である勾配法などに基づいて補正することができる。勾配法を用いれば、2つの画像のXY平面上での輝度変化の勾配を比較し、最も勾配の相関が強い位置で両画像を重ねることで、2つの画像のズレを補正することができる。   The shift correction unit 171 shifts a frame from which a moving object is extracted (hereinafter referred to as an “extraction target frame”) and a frame (hereinafter referred to as a “comparison target frame”) immediately before the extraction target frame in time series. Correct. For example, in FIG. 1, when the frame 3 is the extraction target frame, the immediately preceding frame 2 is the comparison target frame. The deviation between the two frames can be corrected based on, for example, a gradient method that is a well-known technique. By using the gradient method, it is possible to correct the deviation between the two images by comparing the gradients of the luminance changes of the two images on the XY plane and superimposing both images at the position where the gradient has the strongest correlation.

図3は、フレーム間のズレの補正方法を示す説明図である。図3(a)には、抽出対象フレームF1と比較対象フレームF2に山とボールが撮像されている例を示している。これらのフレームにおいて、山は緑色、ボールは白色、その他の部分は黒色であるものとする。かかる2つのフレームを比較すると、比較対象フレームF2に撮像された山は、抽出対象フレームF1に撮像された山に対して若干回転ズレが生じていることがわかる。また、山に対するボールの位置が、両フレーム間で異なっていることがわかる。   FIG. 3 is an explanatory diagram illustrating a method for correcting a shift between frames. FIG. 3A shows an example in which mountains and balls are imaged in the extraction target frame F1 and the comparison target frame F2. In these frames, the mountains are green, the balls are white, and the other parts are black. Comparing these two frames, it can be seen that the mountain captured in the comparison target frame F2 is slightly rotated with respect to the mountain captured in the extraction target frame F1. It can also be seen that the position of the ball relative to the mountain is different between the two frames.

図3(b)には、このような2つのフレームのズレを勾配法により補正して重ね合わせた結果を示している。これらのフレームでは、山の占める面積がボールの占める面積よりも大きいため、ボールよりも山の輝度変化の勾配の相関が強い。そのため、勾配法を用いれば、山の存在する位置によって2つの画像が重ね合わされることとなる。   FIG. 3B shows a result of superimposing these two frames by correcting the deviation of the two frames by the gradient method. In these frames, since the area occupied by the mountain is larger than the area occupied by the ball, the correlation of the gradient of the luminance change of the mountain is stronger than the ball. Therefore, if the gradient method is used, two images are superimposed according to the position where the mountain exists.

差分領域特定部172(図2)は、ズレが補正された後の抽出対象フレームと比較対象フレームにおいて、対応する画素毎に輝度の差分を求める。そして、この差分が所定の閾値以上となる領域を差分領域として特定する。閾値としては、例えば、輝度のとり得る範囲が0〜255である場合には、64などとすることができる。なお、輝度以外にも、彩度や色相、RGB値など他の画素値を用いて差分領域を特定するものとしてもよい。   The difference area specifying unit 172 (FIG. 2) obtains a luminance difference for each corresponding pixel in the extraction target frame and the comparison target frame after the deviation is corrected. And the area | region where this difference becomes more than a predetermined threshold value is specified as a difference area. As the threshold value, for example, when the possible range of luminance is 0 to 255, it can be set to 64 or the like. In addition to the luminance, the difference area may be specified using other pixel values such as saturation, hue, and RGB value.

動画を構成する連続した2つのフレームを比べた場合、2つの画像間で画素値がほとんど変化しない部分は背景である可能性が高い。一方、画素値が大きく変化した部分は動体の撮像された部分である可能性が高い。従って、差分領域特定部に172によって特定された差分領域には、動体を構成する画素値が多く含まれていると考えることができる。   When two consecutive frames constituting a moving image are compared, a portion where the pixel value hardly changes between the two images is likely to be the background. On the other hand, there is a high possibility that the part where the pixel value has changed greatly is the part where the moving object is imaged. Therefore, it can be considered that the difference area specified by the difference area specifying unit 172 includes a large number of pixel values constituting the moving object.

図4は、差分領域の特定方法を示す説明図である。図4(a)には、ズレ補正部171によってズレが補正されて重ね合わされた2つのフレームを示している。図4(a)で示した2つのフレーム中、山の部分は同じ緑色のため輝度に相違はない。そのため、差分はゼロであり、差分領域としては特定されない。これに対して、ボールの部分は2つのフレーム間で位置が異なるため、求める差分は黒色と白色の輝度の差分となるため、その値は最大となる。そのため、両フレームにおいて各々ボールの撮像された部分が差分領域として特定される。図4(b)には、このように特定された差分領域をハッチングを付して示している。   FIG. 4 is an explanatory diagram showing a method for specifying a difference area. FIG. 4A shows two frames that have been overlapped with the shift corrected by the shift correction unit 171. In the two frames shown in FIG. 4A, the peaks are the same green color, so there is no difference in luminance. Therefore, the difference is zero and is not specified as the difference region. On the other hand, since the position of the ball portion is different between the two frames, the difference to be obtained is the difference between the black and white luminances, and the value is maximum. Therefore, the imaged part of the ball in both frames is specified as the difference area. In FIG. 4B, the difference area specified in this way is shown with hatching.

図5は、統計処理部173が求める相対度数分布NzおよびNdを示す説明図である。統計処理部173(図2参照)は、まず、図5(a)に示すように、抽出対象フレーム全体を構成する画素について、所定の階級幅で画素値の相対度数分布Nzを求める。そして、さらに、図5(b)に示すように、抽出対象フレーム中の差分領域内の画素について画素値の相対度数分布Ndを求める。階級幅は、例えば、画素値のとりうる範囲が0〜255の場合には、32などとすることができる。この2つの分布は、画素のY(輝度),U(輝度と赤色の色差),V(輝度と青色の色差)各成分についてそれぞれ求める。図5には、Y成分の分布についてのみ示している。   FIG. 5 is an explanatory diagram showing the relative frequency distributions Nz and Nd obtained by the statistical processing unit 173. First, as shown in FIG. 5A, the statistical processing unit 173 (see FIG. 2) obtains a relative frequency distribution Nz of pixel values with a predetermined class width for pixels constituting the entire extraction target frame. Further, as shown in FIG. 5B, the relative frequency distribution Nd of the pixel values is obtained for the pixels in the difference area in the extraction target frame. The class width can be set to 32 when the range of pixel values is 0 to 255, for example. These two distributions are obtained for the Y (luminance), U (luminance and red color difference) and V (luminance and blue color difference) components of the pixel, respectively. FIG. 5 shows only the distribution of the Y component.

図6は、図5で示した2つの分布に基づき算出した比Rの結果を示す片対数グラフである。動体構成色推定部174(図2参照)は、図示するように、相対度数分布Nzに対する相対度数分布Ndの比R(=Nd/Nz)を各階級毎に求める。そして、この比Rが所定の閾値T2以上(例えば、1.2以上)となる階級に属する画素値を、動体を構成する画素値(以下、「動体構成色」という)であると推定する。比Rの値が大きいということは、その階級に属する画素値は、抽出対象フレーム全体に占める割合は小さいが、差分領域内に占める割合は大きいということであり、そのような画素値は動体を構成する画素値である可能性が高いからである。   FIG. 6 is a semilogarithmic graph showing the result of the ratio R calculated based on the two distributions shown in FIG. As shown in the figure, the moving object constituent color estimation unit 174 (see FIG. 2) obtains a ratio R (= Nd / Nz) of the relative frequency distribution Nd to the relative frequency distribution Nz for each class. Then, a pixel value belonging to a class in which the ratio R is equal to or higher than a predetermined threshold T2 (for example, 1.2 or higher) is estimated to be a pixel value constituting a moving object (hereinafter referred to as “moving object constituent color”). A large value of the ratio R means that pixel values belonging to the class have a small proportion in the entire extraction target frame, but a large proportion in the difference area. This is because there is a high possibility that the pixel value is configured.

図示した例によると、比Rの値が閾値T2以上となる階級に属する輝度は、159〜223である。そのため、この範囲の輝度を有する色が動体構成色として推定される。かかる動体構成色についても輝度だけではなく、U成分とV成分についても同様に求める。   According to the illustrated example, the luminances belonging to the class in which the value of the ratio R is equal to or greater than the threshold T2 are 159 to 223. Therefore, a color having luminance in this range is estimated as a moving object constituent color. For such moving body constituent colors, not only the luminance but also the U component and the V component are obtained in the same manner.

動体抽出部175(図2)は、抽出対象フレーム中のすべての画素のYUV各成分について動体構成色に該当するか否かを判断し、すべての成分の値の範囲を満足する画素を抽出する。これにより、動体が抽出されることとなる。図7には、図3(a)で示した抽出対象フレームF1から動体が抽出された例を示している。   The moving object extraction unit 175 (FIG. 2) determines whether or not each of the YUV components of all the pixels in the extraction target frame corresponds to the moving object constituent color, and extracts pixels that satisfy the range of all the component values. . Thereby, a moving body will be extracted. FIG. 7 shows an example in which a moving object is extracted from the extraction target frame F1 shown in FIG.

C.動体抽出処理:
図8は、動体抽出装置100のCPU110が上記動体抽出プログラムに従い実行する動体抽出処理のフローチャートである。この処理は、動体抽出プログラムが起動された場合に実行される。
C. Moving object extraction processing:
FIG. 8 is a flowchart of the moving object extraction process executed by the CPU 110 of the moving object extraction apparatus 100 according to the moving object extraction program. This process is executed when the moving object extraction program is started.

まず、CPU110は、IEEE1394インタフェース140を介してデジタルビデオカメラ200から動画データを入力する(ステップS10)。動画データは、デジタルビデオカメラ200に限らず、HDD150や、CD−ROM、DVD、メモリカードなどから入力するものとしてもよい。   First, the CPU 110 inputs moving image data from the digital video camera 200 via the IEEE 1394 interface 140 (step S10). The moving image data may be input not only from the digital video camera 200 but also from the HDD 150, CD-ROM, DVD, memory card, or the like.

次に、CPU110は、入力した動画データの中から、抽出対象フレームを選択する(ステップS11)。かかる選択は、ユーザから指定されるものとしてもよいし、CPU110が所定のフレーム間隔で自動的に指定するものとしてもよい。抽出対象フレームが選択されると、その直前のフレームが比較対象フレームとして自動的に選択される。なお、比較対象フレームは、抽出対象フレームの直前のフレームではなく、ユーザ等によって任意に指定されるものとしてもよい。   Next, the CPU 110 selects an extraction target frame from the input moving image data (step S11). Such selection may be specified by the user, or may be automatically specified by the CPU 110 at a predetermined frame interval. When the extraction target frame is selected, the immediately preceding frame is automatically selected as the comparison target frame. Note that the comparison target frame may be arbitrarily designated by the user or the like instead of the frame immediately before the extraction target frame.

その後、CPU110は、ズレ補正部171によって抽出対象フレームと比較対象フレームのズレを補正する(ステップS12)。そして差分領域特定部172によって、2つのフレームの対応する各画素それぞれについて画素値の差分を算出し(ステップS13)、その差分が閾値T1(例えば、T1=30)以上となる領域を差分領域として特定する(ステップS14)。   Thereafter, the CPU 110 corrects the shift between the extraction target frame and the comparison target frame by the shift correction unit 171 (step S12). Then, the difference area specifying unit 172 calculates a difference in pixel value for each corresponding pixel of the two frames (step S13), and an area where the difference is equal to or greater than a threshold value T1 (for example, T1 = 30) is set as a difference area. Specify (step S14).

次に、CPU110は、統計処理部173によって、抽出対象フレーム全体の画素について画素値の相対度数分布Nzを求め(ステップS15)、更に、抽出対象フレーム中の差分領域内の画素について画素値の相対度数分布Ndを求める(ステップS16)。   Next, the CPU 110 obtains the relative frequency distribution Nz of the pixel values for the pixels of the entire extraction target frame by the statistical processing unit 173 (step S15), and further compares the relative pixel values of the pixels in the difference area in the extraction target frame. The frequency distribution Nd is obtained (step S16).

次に、CPU110は、動体構成色推定部174によって2つの相対度数分布の比Rを算出し(ステップS17)、比Rが閾値T2(例えば、T2=1.2)以上となる画素値を動体構成色として推定する(ステップS18)。   Next, the CPU 110 calculates a ratio R of the two relative frequency distributions by the moving object configuration color estimation unit 174 (step S17), and sets a pixel value at which the ratio R is equal to or greater than a threshold T2 (for example, T2 = 1.2) as a moving object. Estimated as a constituent color (step S18).

最後に、CPU110は、動体抽出部175によって抽出対象フレームから動体構成色に該当する画素を抽出することによって動体を抽出する(ステップS19)。   Finally, the CPU 110 extracts a moving object by extracting pixels corresponding to the moving object constituent color from the extraction target frame by the moving object extraction unit 175 (step S19).

以上で説明した実施例によれば、従来のように、動体の色やテクスチャを指定したり、予め背景のみを撮像した画像を準備したりすることなく、動画データを用意するだけで、容易に任意のフレームから動体を抽出することが可能となる。   According to the embodiment described above, it is easy to prepare moving image data without specifying the color or texture of a moving object or preparing an image in which only the background is captured in advance. A moving object can be extracted from an arbitrary frame.

D.変形例:
(1)動体抽出装置100は、動体を抽出するにあたり、抽出対象フレームと比較対象フレームとをそれぞれ複数のブロックに分割し、対応するブロックごとに上述した動体抽出処理を行うものとしてもよい。図9には、複数のブロックに分割した抽出対象フレームF1と比較対象フレームF2を示している。こうすることで、ブロックごとに動体を抽出することができる。
D. Variation:
(1) When extracting the moving object, the moving object extraction apparatus 100 may divide the extraction target frame and the comparison target frame into a plurality of blocks, and perform the above-described moving object extraction processing for each corresponding block. FIG. 9 shows the extraction target frame F1 and the comparison target frame F2 divided into a plurality of blocks. In this way, moving objects can be extracted for each block.

例えば、フレーム中に動体として白いボールが撮像されており、背景に白い看板が撮像されていた場合について考えると、実施例で説明した方法によって動体構成色を推定すると、ボールの白色が動体構成色として推定される。そのため、この動体構成色に基づき動体を抽出すると、ボールだけでなく背景の一部の看板までもが動体として抽出されてしまうこととなる。しかし、フレームをブロックに分割するものとすれば、ボールと看板とが異なるブロックに存在していれば、ボールのみを動体として抽出することが可能となる。   For example, when a white ball is imaged as a moving object in a frame and a white signboard is imaged in the background, when the moving object composition color is estimated by the method described in the embodiment, the white color of the ball is the moving object composition color. Is estimated as Therefore, when a moving body is extracted based on this moving body constituent color, not only the ball but also a part of the background signboard is extracted as a moving body. However, if the frame is divided into blocks, it is possible to extract only the ball as a moving object if the ball and the signboard are in different blocks.

(2)上記実施例では、動体を抽出対象フレームから抽出するものとした。しかし、一旦、動体構成色を推定した後は、他の任意のフレームに対してもこの動体構成色を適用することにより抽出対象フレーム以外のフレームからも動体を抽出することができる。こうすることにより、偶然2以上のフレームにわたり動体が静止している場合でも、適切に動体を抽出することができる。また、本来、動体が存在しないフレームから誤って背景の一部が動体として抽出されることを抑制することもできる。また、フレーム1枚1枚に対して動体構成色を推定する必要がないため、動画データを構成する複数のフレームから動体を高速に抽出することが可能となる。 (2) In the above embodiment, the moving object is extracted from the extraction target frame. However, once the moving object composition color is estimated, the moving object can be extracted from frames other than the extraction target frame by applying this moving object composition color to any other frame. By doing so, even when the moving object is stationary over two or more frames, it is possible to appropriately extract the moving object. In addition, it is possible to prevent a part of the background from being erroneously extracted as a moving object from a frame in which no moving object originally exists. In addition, since it is not necessary to estimate the moving object composition color for each frame, it is possible to extract moving objects at high speed from a plurality of frames constituting moving image data.

(3)上記実施例では、抽出対象フレーム内の画素のみを用いて相対度数分布Nzを求めるものとした。しかし、抽出対象フレームの画素に加え、比較対象フレーム内の画素も利用することにより相対度数分布Nzを求めるものとしてもよい。こうすることにより相対度数を算出する際のサンプル数を高めることができるため、精度良く動体構成色を推定することが可能となる。また、同様に、相対度数分布Ndを求める際にも、抽出対象フレーム内の差分領域だけではなく、比較対象フレーム内の差分領域も利用するものとしてもよい。 (3) In the above embodiment, the relative frequency distribution Nz is obtained using only the pixels in the extraction target frame. However, the relative frequency distribution Nz may be obtained by using the pixels in the comparison target frame in addition to the pixels of the extraction target frame. By doing so, the number of samples when calculating the relative frequency can be increased, so that it is possible to estimate the moving body constituent color with high accuracy. Similarly, when obtaining the relative frequency distribution Nd, not only the difference area in the extraction target frame but also the difference area in the comparison target frame may be used.

(4)相対度数分布NzおよびNdを求める際には、例えば、Y成分の階級幅を64、他の成分の階級幅を32というように、Y成分の階級幅を他の成分の階級幅より大きくするものとしてもよい。 (4) When obtaining the relative frequency distributions Nz and Nd, the class width of the Y component is determined from the class width of the other components, for example, the class width of the Y component is 64 and the class width of the other components is 32. It may be enlarged.

図10は、Y成分の階級幅を大きくした場合の効果を説明する説明図である。図には、動体として光を反射しているボールを示している。例えば、Y成分の階級幅が狭い場合には、一様の色を有するボールであっても光を反射している部分が動体として抽出されない可能性がある。しかし、Y成分の階級幅を広く採るものとすれば、輝度変化の大きい光を反射している部分までも適切に動体として抽出される可能性が増加する。   FIG. 10 is an explanatory diagram for explaining the effect when the class width of the Y component is increased. In the figure, a ball reflecting light as a moving body is shown. For example, when the class width of the Y component is narrow, there is a possibility that a portion reflecting light is not extracted as a moving object even with a ball having a uniform color. However, if the class width of the Y component is wide, there is an increased possibility that even a portion reflecting light with a large luminance change is appropriately extracted as a moving object.

つまり、Y成分の階級幅を他の成分の階級幅よりも大きくすることで、輝度変化の感度を鈍感にさせることができる。そのため、フレーム内に存在する陰影や、フレーム間における時間的な日射量の変化、絞り値の変更といった画像の撮像条件の変化、などといった影響を抑えて動体構成色を推定することが可能となる。   That is, by making the class width of the Y component larger than the class width of the other components, it is possible to make the luminance change sensitivity insensitive. Therefore, it is possible to estimate the moving body composition color while suppressing influences such as shadows existing in the frames, changes in the amount of solar radiation between frames, changes in image capturing conditions such as changes in the aperture value, and the like. .

(5)比Rに適用する閾値T2は、Y,U,V各成分毎に設定されているものとしてもよい。こうすることにより精度良く動体構成色を推定することが可能となる。また、このような場合に、Y成分の閾値を他の成分の閾値よりも低い値としてもよい。こうすることによっても輝度変化の感度を鈍感にさせることができるため、変形例(4)で述べた効果と同様の効果を得ることができる。 (5) The threshold value T2 applied to the ratio R may be set for each of the Y, U, and V components. By doing so, it is possible to estimate the moving object constituent color with high accuracy. In such a case, the threshold value of the Y component may be lower than the threshold values of the other components. By doing so, the sensitivity of the luminance change can be made insensitive, so that the same effect as the effect described in the modification (4) can be obtained.

(6)実施例では、動画から動体を抽出する場合について説明したが、動体を抽出する対象は動画に限られず、静止画から動体を抽出する場合にも上記実施例は適用できる。このような場合には、上記動体抽出処理のステップS10を省略し、ステップS11において、抽出対象フレームと比較対象フレームに対して、ユーザが個別に静止画を指定するものとすればよい。 (6) In the embodiment, the case where a moving object is extracted from a moving image has been described. However, the object from which a moving object is extracted is not limited to a moving image, and the above embodiment can be applied to a case where a moving object is extracted from a still image. In such a case, step S10 of the moving object extraction process may be omitted, and in step S11, the user may individually specify a still image for the extraction target frame and the comparison target frame.

以上、本発明の実施例および変形例について説明したが、本発明はこれらに限定されず、その趣旨を逸脱しない範囲で種々の構成を採ることができることはいうまでもない。例えば、ソフトウェアによって実現した機能はハードウェアによって実現するものとしてもよい。   As mentioned above, although the Example and modification of this invention were demonstrated, this invention is not limited to these, It cannot be overemphasized that a various structure can be taken in the range which does not deviate from the meaning. For example, a function realized by software may be realized by hardware.

動体抽出装置の動作の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of operation | movement of a moving body extraction apparatus. 動体抽出装置の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of a moving body extraction apparatus. フレーム間のズレの補正方法を示す説明図である。It is explanatory drawing which shows the correction method of the gap between frames. 差分領域の特定方法を示す説明図である。It is explanatory drawing which shows the identification method of a difference area | region. 輝度成分について2つの相対度数分布を求めた例を示す説明図である。It is explanatory drawing which shows the example which calculated | required two relative frequency distribution about the luminance component. 比Rを算出した結果を示す片対数グラフである。It is a semilogarithmic graph which shows the result of having calculated ratio R. 抽出対象フレームから動体が抽出された例を示す説明図である。It is explanatory drawing which shows the example from which the moving body was extracted from the extraction object flame | frame. 動体抽出処理のフローチャートである。It is a flowchart of a moving body extraction process. ブロックに分割した抽出対象フレームと比較対象フレームを示す説明図である。It is explanatory drawing which shows the extraction object frame divided | segmented into the block, and a comparison object frame. Y成分の階級幅を大きくした場合の効果を説明する説明図である。It is explanatory drawing explaining the effect at the time of enlarging the class width of Y component.

符号の説明Explanation of symbols

100...動体抽出装置
110...CPU
120...RAM
130...ROM
140...IEEE1394インタフェース
150...ハードディスクドライブ
160...オペレーティングシステム
170...動体抽出プログラム
171...ズレ補正部
172...差分領域特定部
173...統計処理部
174...動体構成色推定部
175...動体抽出部
200...デジタルビデオカメラ
300...DVケーブル
100 ... Moving object extraction device 110 ... CPU
120 ... RAM
130 ... ROM
140 ... IEEE 1394 interface 150 ... hard disk drive 160 ... operating system 170 ... moving object extraction program 171 ... deviation correction unit 172 ... difference area specifying unit 173 ... statistic processing unit 174 .. .Moving object composition color estimation unit 175 ... Moving object extraction unit 200 ... Digital video camera 300 ... DV cable

Claims (10)

画像から動体を抽出する動体抽出装置であって、
画素毎に画素値が記録された2つの画像を入力する入力部と、
前記2つの画像の対応する各画素について画素値の差分を求め、該差分が第1の閾値以上となる領域を差分領域として特定する差分領域特定部と、
前記2つの画像のうち少なくとも1つの画像の画像全体の画素値について所定の階級幅で第1の分布を求め、さらに、該画像の前記差分領域に該当する領域内の画素値について前記階級幅で第2の分布を求める統計処理部と、
前記第1の分布に対する前記第2の分布の比を各階級毎に求め、該比が第2の閾値以上となる階級に属する画素値を、前記動体を構成する動体構成色であると推定する動体構成色推定部と、
を備える動体抽出装置。
A moving object extraction device for extracting a moving object from an image,
An input unit for inputting two images in which pixel values are recorded for each pixel;
A difference area specifying unit that calculates a difference between pixel values for each corresponding pixel of the two images, and specifies an area in which the difference is equal to or greater than a first threshold as a difference area;
A first distribution is obtained with a predetermined class width for pixel values of the entire image of at least one image of the two images, and further, a pixel value within an area corresponding to the difference area of the image is calculated with the class width. A statistical processing unit for obtaining a second distribution;
A ratio of the second distribution to the first distribution is obtained for each class, and a pixel value belonging to a class in which the ratio is equal to or greater than a second threshold is estimated to be a moving object constituent color constituting the moving object. A moving object color estimation unit;
A moving body extraction apparatus comprising:
請求項1に記載の動体抽出装置であって、
前記統計処理部が求める前記第1の分布および第2の分布は、相対度数分布である、動体抽出装置。
The moving body extraction device according to claim 1,
The moving object extraction device, wherein the first distribution and the second distribution obtained by the statistical processing unit are relative frequency distributions.
請求項1に記載の動体抽出装置であって、
前記統計処理部は、前記第1および第2の分布を画素値のY,U,V各成分についてそれぞれ求め、
前記動体構成色推定部は、前記Y,U,V各成分についてそれぞれ前記動体構成色を推定する、動体抽出装置。
The moving body extraction device according to claim 1,
The statistical processing unit obtains the first and second distributions for each of Y, U, and V components of pixel values,
The moving object configuration color estimation unit estimates the moving object composition color for each of the Y, U, and V components.
請求項3に記載の動体抽出装置であって、
前記統計処理部は、前記Y成分の階級幅を、前記U成分およびV成分の階級幅よりも相対的に大きくして前記第1及び第2の分布を求める、動体抽出装置。
The moving object extraction device according to claim 3,
The moving object extraction device, wherein the statistical processing unit obtains the first and second distributions by making a class width of the Y component relatively larger than a class width of the U component and the V component.
請求項3に記載の動体抽出装置であって、
前記動体構成色推定部は、前記Y,U,V各成分毎に前記第2の閾値が設定されている、動体抽出装置。
The moving object extraction device according to claim 3,
The moving object extraction device, wherein the moving object constituent color estimation unit sets the second threshold value for each of the Y, U, and V components.
請求項1に記載の動体抽出装置であって、
更に、動体の抽出を行う対象画像から前記動体構成色に該当する画素を抽出する動体抽出部を備える動体抽出装置。
The moving body extraction device according to claim 1,
Furthermore, a moving body extraction apparatus provided with the moving body extraction part which extracts the pixel applicable to the said moving body structural color from the target image which extracts a moving body.
請求項1に記載の動体抽出装置であって、
更に、前記差分領域の特定を行うよりも前に、前記2つの画像のズレを補正するズレ補正部を備える動体抽出装置。
The moving body extraction device according to claim 1,
Furthermore, a moving body extraction apparatus provided with the shift | offset | difference correction | amendment part which correct | amends the shift | offset | difference of these two images before specifying the said difference area.
画像から動体をコンピュータによって抽出する動体抽出方法であって、
画素毎に画素値が記録された2つの画像を入力する工程と、
前記2つの画像の対応する各画素について画素値の差分を求め、該差分が第1の閾値以上となる領域を差分領域として特定する工程と、
前記2つの画像のうち少なくとも1つの画像の画像全体の画素値について所定の階級幅で第1の分布を求め、さらに、該画像の前記差分領域に該当する領域内の画素値について前記階級幅で第2の分布を求める工程と、
前記第1の分布に対する前記第2の分布の比を各階級毎に求め、該比が第2の閾値以上となる階級に属する画素値を、前記動体を構成する動体構成色であると推定する工程と、
を備える動体抽出方法。
A moving object extraction method for extracting a moving object from an image by a computer,
Inputting two images in which pixel values are recorded for each pixel;
Obtaining a difference between pixel values for each corresponding pixel of the two images, and specifying an area where the difference is equal to or greater than a first threshold as a difference area;
A first distribution is obtained with a predetermined class width for pixel values of the entire image of at least one image of the two images, and further, a pixel value within an area corresponding to the difference area of the image is calculated with the class width. Obtaining a second distribution;
A ratio of the second distribution to the first distribution is obtained for each class, and a pixel value belonging to a class in which the ratio is equal to or greater than a second threshold is estimated to be a moving object constituent color constituting the moving object. Process,
A moving body extraction method comprising:
画像から動体を抽出するためのコンピュータプログラムであって、
画素毎に画素値が記録された2つの画像を入力する機能と、
前記2つの画像の対応する各画素について画素値の差分を求め、該差分が第1の閾値以上となる領域を差分領域として特定する機能と、
前記2つの画像のうち少なくとも1つの画像の画像全体の画素値について所定の階級幅で第1の分布を求め、さらに、該画像の前記差分領域に該当する領域内の画素値について前記階級幅で第2の分布を求める機能と、
前記第1の分布に対する前記第2の分布の比を各階級毎に求め、該比が第2の閾値以上となる階級に属する画素値を、前記動体を構成する動体構成色であると推定する機能と、
をコンピュータに実現させるためのコンピュータプログラム。
A computer program for extracting a moving object from an image,
A function of inputting two images in which pixel values are recorded for each pixel;
A function of obtaining a difference between pixel values for each corresponding pixel of the two images, and specifying an area where the difference is equal to or greater than a first threshold as a difference area;
A first distribution is obtained with a predetermined class width for the pixel values of the entire image of at least one image of the two images, and further, the pixel values in the area corresponding to the difference area of the image are calculated with the class width. A function for obtaining a second distribution;
A ratio of the second distribution to the first distribution is obtained for each class, and a pixel value belonging to a class in which the ratio is equal to or greater than a second threshold is estimated to be a moving object constituent color constituting the moving object. Function and
A computer program for realizing a computer.
請求項9に記載のコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体。   The computer-readable recording medium which recorded the computer program of Claim 9.
JP2004056479A 2004-03-01 2004-03-01 Moving object extracting device and method Pending JP2005250576A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004056479A JP2005250576A (en) 2004-03-01 2004-03-01 Moving object extracting device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004056479A JP2005250576A (en) 2004-03-01 2004-03-01 Moving object extracting device and method

Publications (1)

Publication Number Publication Date
JP2005250576A true JP2005250576A (en) 2005-09-15

Family

ID=35031030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004056479A Pending JP2005250576A (en) 2004-03-01 2004-03-01 Moving object extracting device and method

Country Status (1)

Country Link
JP (1) JP2005250576A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227634A (en) * 2010-04-19 2011-11-10 Hitachi Ltd Moving body detection device
JP2014191376A (en) * 2013-03-26 2014-10-06 Nohmi Bosai Ltd Smoke detection device and smoke detection method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227634A (en) * 2010-04-19 2011-11-10 Hitachi Ltd Moving body detection device
JP2014191376A (en) * 2013-03-26 2014-10-06 Nohmi Bosai Ltd Smoke detection device and smoke detection method

Similar Documents

Publication Publication Date Title
US8861851B2 (en) Color highlight reconstruction
JP3461626B2 (en) Specific image region extraction method and specific image region extraction device
US7869652B2 (en) Flicker correction for moving picture
JP4290193B2 (en) Image processing device
US10043244B2 (en) Image processing device, image processing method, image processing program, and recording medium
EP2927873A1 (en) Image processing apparatus and image processing method
US10033918B2 (en) Method and system for image processing to detect salient objects in image
US8441554B2 (en) Image capturing apparatus capable of extracting subject region from captured image
US10027897B2 (en) Image processing apparatus, image processing method, and storage medium
WO2005101854A1 (en) Image processing device having color shift-correcting function, image processing program, and electronic camera
JP2002503894A (en) Noise removal algorithm based on new edge detection
CN112887693B (en) Image purple border elimination method, equipment and storage medium
US20080112639A1 (en) Method and apparatus for removing noise in dark area of image
JPH09102910A (en) Device and method for processing moving image
JP2014126803A (en) Image processing apparatus, image processing method, and image processing program
US8165421B2 (en) Method and apparatus for image processing by using stored image
JP4241774B2 (en) Image processing apparatus, image processing method, and program
US8964109B2 (en) Image processing device and method
US20070230779A1 (en) Digital camera
JP2005250576A (en) Moving object extracting device and method
KR101711370B1 (en) Method and apparatus for processing the image
JP2005354130A (en) Image processing system, program, and storage medium
JP3302472B2 (en) Image blur correction apparatus and method
JP4189565B2 (en) Program for determining image, recording medium, image processing method, and image processing apparatus
US20230421718A1 (en) Processing apparatus, processing method and program